상세 컨텐츠

본문 제목

AWS SAA-C03 Examtopics (421 ~ 440)

let's study/AWS SAA-C03

by DarkSoul.Story 2024. 12. 17. 08:12

본문

반응형

 

AWS Certified Solutions Architect - Associate 공부하면서 작성된 글로 일부 오류가 있을수 있습니다.

 

■ Question #421

한 회사가 고가용성 SFTP 서비스를 운영합니다. SFTP 서비스는 탄력적 IP 주소로 실행되는 두 개의 Amazon EC2 Linux 인스턴스 를 사용하여 인터넷의 신뢰할 수 있는 IP 소스에서 트래픽을 허용합니다. SFTP 서비스는 인스턴스에 연결된 공유 스토리지로 백업됩니다. 사용자 계정은 SFTP 서버에서 Linux 사용자로 생성 및 관리됩니다.

이 회사는 높은 IOPS 성능과 고도로 구성 가능한 보안을 제공하는 서버리스 옵션을 원합니다. 또한 이 회사는 사용자 권한에 대한 제어를 유지하려고 합니다.

어떤 솔루션이 이러한 요구 사항을 충족할까요?

A. 암호화된 Amazon Elastic Block Store(Amazon EBS) 볼륨을 만듭니다. 신뢰할 수 있는 IP 주소만 허용하는 퍼블릭 엔드포인트 가 있는 AWS Transfer Family SFTP 서비스를 만듭니다. EBS 볼륨을 SFTP 서비스 엔드포인트에 연결합니다. 사용자에게 SFTP 서비스에 대한 액세스 권한을 부여합니다.

B. 암호화된 Amazon Elastic File System(Amazon EFS) 볼륨을 만듭니다. 탄력적 IP 주소와 인터넷에 연결된 VPC 엔드포인트가 있는 AWS Transfer Family SFTP 서비스를 만듭니다. 신뢰할 수 있는 IP 주소만 허용하는 보안 그룹을 엔드포인트에 연결합니다. EFS 볼륨을 SFTP 서비스 엔드포인트에 연결합니다. 사용자에게 SFTP 서비스에 대한 액세스 권한을 부여합니다.

C. 기본 암호화가 활성화된 Amazon S3 버킷을 만듭니다. 신뢰할 수 있는 IP 주소만 허용하는 퍼블릭 엔드포인트가 있는 AWS Transfer Family SFTP 서비스를 만듭니다. S3 버킷을 SFTP 서비스 엔드포인트에 연결합니다. 사용자에게 SFTP 서비스에 대한 액세스 권한을 부여합니다.

D. 기본 암호화가 활성화된 Amazon S3 버킷을 만듭니다. 프라이빗 서브넷에서 내부 액세스가 있는 VPC 엔드포인트가 있는 AWS Transfer Family SFTP 서비스를 만듭니다. 신뢰할 수 있는 IP 주소만 허용하는 보안 그룹을 연결합니다. S3 버킷을 SFTP 서비스 엔드포인트에 연결합니다. 사용자에게 SFTP 서비스에 대한 액세스 권한을 부여합니다.

더보기

B. 암호화된 Amazon Elastic File System(Amazon EFS) 볼륨을 만듭니다. 탄력적 IP 주소와 인터넷에 연결된 VPC 엔드포인트가 있는 AWS Transfer Family SFTP 서비스를 만듭니다. 신뢰할 수 있는 IP 주소만 허용하는 보안 그룹을 엔드포인트에 연결합니다. EFS 볼륨을 SFTP 서비스 엔드포인트에 연결합니다. 사용자에게 SFTP 서비스에 대한 액세스 권한을 부여합니다.

IOPS(Input/Output Operations Per Second)는 스토리지 디바이스의 성능을 측정하는 지표로, 초당 처리 가능한 입출력 작업 수를 나타냅니다. IOPS는 주로 데이터베이스, 고성능 컴퓨팅, 실시간 애플리케이션에서 스토리지 디바이스의 성능을 평가하는 데 사용됩니다.
    
Amazon EFS
- 고성능 IOPS를 제공하며, 서버리스 환경에서 공유 스토리지로 적합합니다.
- 고가용성과 내구성을 제공하여 SFTP 서비스 백엔드 스토리지로 이상적입니다.
    
AWS Transfer Family    
- SFTP 프로토콜을 지원하며, VPC 엔드포인트를 사용해 네트워크 트래픽을 관리할 수 있습니다.
- 신뢰할 수 있는 IP 주소만 허용하도록 보안 그룹을 설정할 수 있습니다.
    
보안 및 사용자 권한 관리
- EFS 및 Transfer Family를 사용하면 사용자의 데이터 액세스 권한을 세밀하게 제어할 수 있습니다.
    
신뢰할 수 있는 IP 주소
- Transfer Family의 엔드포인트에 보안 그룹을 설정해 신뢰할 수 있는 IP 주소만 허용할 수 있습니다.


■ Question #422

한 회사가 AWS에서 새로운 머신 러닝(ML) 모델 솔루션을 개발하고 있습니다. 이 모델은 시작 시 Amazon S3에서 약 1GB의 모델 데이터를 가져와 메모리에 로드하는 독립적인 마이크로서비스로 개발됩니다. 사용자는 비동기 API를 통해 모델에 액세스합니다. 사용자 는 요청이나 요청 배치를 보내고 결과를 보낼 위치를 지정할 수 있습니다.

이 회사는 수백 명의 사용자에게 모델을 제공합니다. 모델의 사용 패턴은 불규칙합니다. 일부 모델은 며칠 또는 몇 주 동안 사용되지 않을 수 있습니다. 다른 모델은 한 번에 수천 개의 요청을 일괄 수신할 수 있습니다.

솔루션 아키텍트는 이러한 요구 사항을 충족하기 위해 어떤 디자인을 권장해야 합니까?

A. API에서 Network Load Balancer(NLB)로 요청을 보냅니다. NLB에서 호출하는 AWS Lambda 함수로 모델을 배포합니다.

B. API에서 Application Load Balancer(ALB)로 요청을 보냅니다. Amazon Simple Queue Service(Amazon SQS) 대기열에서 읽는 Amazon Elastic Container Service(Amazon ECS) 서비스로 모델을 배포합니다. AWS App Mesh를 사용하여 SQS 대기열 크기에 따라 ECS 클러스터 인스턴스를 확장합니다.

C. API에서 Amazon Simple Queue Service(Amazon SQS) 대기열로 요청을 보냅니다. SQS 이벤트에서 호출되는 AWS Lambda 함수로 모델을 배포합니다. AWS Auto Scaling을 사용하여 SQS 대기열 크기에 따라 Lambda 함수의 vCPU 수를 늘립니다.

D. API에서 Amazon Simple Queue Service(Amazon SQS) 대기열로 요청을 보냅니다. 대기열에서 읽는 Amazon Elastic Container Service(Amazon ECS) 서비스로 모델을 배포합니다. 대기열 크기에 따라 클러스터와 서비스 사본 모두에 대해 Amazon ECS에서 AWS Auto Scaling을 활성화합니다.

더보기

요구 사항 분석
- 모델 데이터 초기화: 모델은 시작 시 Amazon S3에서 약 1GB 데이터를 로드합니다. 이는 모델이 시작될 때 상당한 초기화 시간이 필요하다는 것을 의미합니다.
- 비동기 API 및 일괄 요청 처리: 사용자 요청이 비동기로 들어오며, 요청 배치를 처리할 수 있는 구조가 필요합니다.
- 불규칙한 사용 패턴: 일부 모델은 오랫동안 사용되지 않을 수 있고, 일부는 한꺼번에 많은 요청을 처리해야 합니다. 이는 탄력적 확장성과 비용 효율성을 요구합니다.
- 수백 명의 사용자: 높은 확장성 요구.

 

D. API에서 Amazon Simple Queue Service(Amazon SQS) 대기열로 요청을 보냅니다. 대기열에서 읽는 Amazon Elastic Container Service(Amazon ECS) 서비스로 모델을 배포합니다. 대기열 크기에 따라 클러스터와 서비스 사본 모두에 대해 Amazon ECS에서 AWS Auto Scaling을 활성화합니다.

- SQS는 비동기 요청을 안정적으로 수집하고 ECS 서비스로 전달합니다.
- ECS 서비스는 초기화된 컨테이너 인스턴스에서 모델 데이터를 로드하고 유지할 수 있습니다.
- ECS Auto Scaling을 사용하여 SQS 대기열 크기에 따라 컨테이너 수를 조정할 수 있습니다.
- ECS는 요청량이 없을 때 리소스를 축소하여 비용을 절감할 수 있습니다.


■ Question #423

솔루션 아키텍트는 다음 JSON 텍스트를 ID 기반 정책으로 사용하여 특정 권한을 부여하려고 합니다.

{ "Statement": [
  {
	"Action": [
		"ssm: List Documents",
		"ssm:GetDocument"
	],
	"Effect": "Allow",
	"Resource": "",
	"Sid": ""
		}
	],		
	"Version": "2012-10-17"
}

솔루션 아키텍트는 어떤 IAM 주체에 이 정책을 연결할 수 있습니까? (두 가지를 선택하세요.)

A. 역할
B. 그룹
C. 조직
D. Amazon Elastic Container Service(Amazon ECS) 리소스
E. Amazon EC2 리소스

더보기

IAM ID 기반 정책은 사용자, 그룹 및 역할에 연결하여 권한을 부여할 수 있습니다.
    
A. 역할
- IAM 역할에 정책을 연결하여 특정 작업(예: `ssm:ListDocuments`, `ssm:GetDocument`)에 대한 권한을 부여할 수 있습니다.
- 역할은 AWS 서비스(예: Lambda, ECS)나 다른 AWS 계정의 주체가 임시 자격 증명을 사용하여 리소스에 액세스하도록 하는 데 사용됩니다.
    
B. 그룹
- IAM 그룹에 정책을 연결하여 그룹의 모든 사용자에게 해당 권한을 부여할 수 있습니다.


■ Question #424

한 회사가 Amazon EC2 On-Demand 인스턴스에서 사용자 지정 애플리케이션을 실행하고 있습니다. 이 애플리케이션에는 하루 24시간, 주 7일 실행해야 하는 프런트엔드 노드와 작업 부하에 따라 단시간만 실행해야 하는 백엔드 노드가 있습니다. 백엔드 노드의 수는 하루 종일 다릅니다. 이 회사는 작업 부하에 따라 더 많은 인스턴스를 확장하고 확장해야 합니다.

어떤 솔루션이 이러한 요구 사항을 가장 비용 효율적으로 충족할까요?

A. 프런트엔드 노드에는 예약 인스턴스를 사용합니다. 백엔드 노드에는 AWS Fargate를 사용합니다.
B. 프런트엔드 노드에는 예약 인스턴스를 사용합니다. 백엔드 노드에는 Spot Instances 를 사용합니다.
C. 프런트엔드 노드에는 스팟 인스턴스를 사용합니다. 백엔드 노드에는 예약 인스턴스를 사용합니다.
D. 프런트엔드 노드에는 Spot Instances를 사용합니다. 백엔드 노드에는 AWS Fargate를 사용합니다.

더보기

요구사항 분석
    
프런트엔드 노드    
- 24시간 내내 실행되므로, 예측 가능한 고정된 사용량이 있습니다.
- 예약 인스턴스를 사용하면 장기적으로 비용을 절감할 수 있습니다.
    
백엔드 노드
- 작업 부하에 따라 실행되며, 짧은 시간 동안만 사용됩니다.
- 스팟 인스턴스를 사용하면 비용이 크게 절감되며, 작업 부하의 일시적 특성에 적합합니다.
    
B. 프런트엔드 노드에는 예약 인스턴스를 사용하고, 백엔드 노드에는 스팟 인스턴스를 사용합니다.
- 예약 인스턴스는 프런트엔드 노드의 예측 가능한 24/7 실행 요구 사항에 적합합니다.
- 스팟 인스턴스는 백엔드 노드의 일시적이고 유연한 워크로드에 적합합니다.


■ Question #425

한 회사가 온프레미스에서 워크로드를 실행하기 위해 높은 블록 스토리지 용량을 사용합니다. 회사의 일일 피크 입출력 트랜잭션은 초당 15,000 IOPS를 넘지 않습니다. 회사는 워크로드를 Amazon EC2로 마이그레이션하고 스토리지 용량과 무관하게 디스크 성능을 프로비저닝하려고 합니다.

어떤 Amazon Elastic Block Store(Amazon EBS) 볼륨 유형이 이러한 요구 사항을 가장 비용 효율적으로 충족할까요?

A. GP2 볼륨 유형
B. io2 볼륨 유형
C. GP3 볼륨 유형
D. io1 볼륨 유형

더보기

요구 사항 분석    

스토리지 용량과 무관하게 디스크 성능을 프로비저닝
- 이는 성능(초당 IOPS)을 용량과 독립적으로 설정할 수 있는 EBS 볼륨 유형이 필요함을 의미합니다.
    
일일 피크 트랜잭션
- 15,000 IOPS가 필요하며, 이 수준을 지원해야 합니다.
    
비용 효율성
- 성능을 제공하면서 비용도 최적화해야 합니다.
    
GP3 (General Purpose SSD) 볼륨 유형
- GP3는 IOPS 성능과 용량을 독립적으로 프로비저닝할 수 있습니다.
- 기본적으로 3,000 IOPS를 제공하며, 추가 비용을 지불하여 최대 16,000 IOPS까지 지원합니다.
- GP2와 비교하여 동일한 용량에서 비용이 더 저렴하며, io2에 비해 훨씬 경제적입니다.


EBS 볼륨 유형 비교

GP2 (General Purpose SSD)
- IOPS는 볼륨 크기에 따라 결정됩니다.
- 크기가 클수록 더 높은 IOPS를 지원하지만, 용량과 성능이 연결되어 있기 때문에 15,000 IOPS를 보장하려면 큰 용량이 필요하여 비효율적입니다.
    
io2 (Provisioned IOPS SSD)
- IOPS 성능과 용량을 독립적으로 프로비저닝할 수 있습니다.
- 고성능을 요구하는 워크로드에 적합하며 높은 신뢰성을 제공합니다.
- 비용이 GP3에 비해 더 높습니다.
- 비용 효율성 측면에서 불리
    
io1 (Provisioned IOPS SSD)
- io2와 유사하지만, io2보다 신뢰성 및 비용 효율성이 낮습니다.
- io2가 io1의 상위 호환이므로 대체로 추천되지 않습니다.


■ Question #426

한 회사가 헬스케어 애플리케이션의 데이터를 저장해야 합니다. 애플리케이션의 데이터는 자주 변경됩니다. 새로운 규정에 따라 저장된 데이터의 모든 수준에서 감사 액세스가 필요합니다.
이 회사는 스토리지 용량이 부족한 온프레미스 인프라에서 애플리케이션을 호스팅합니다. 솔루션 아키텍트는 새로운 규정을 충족하는 동시에 기존 데이터를 AWS로 안전하게 마이그레이션해야 합니다.

어떤 솔루션이 이러한 요구 사항을 충족할까요?

A. AWS DataSync를 사용하여 기존 데이터를 Amazon S3로 이동합니다. AWS CloudTrail을 사용하여 데이터 이벤트를 기록합니다.

B. AWS Snowcone을 사용하여 기존 데이터를 Amazon S3로 이동합니다. AWS CloudTrail을 사용하여 관리 이벤트를 기록합니다.

C. Amazon S3 Transfer Acceleration을 사용하여 기존 데이터를 Amazon S3로 이동합니다. AWS CloudTrail을 사용하여 데이터 이벤트를 기록합니다.

D. AWS Storage Gateway를 사용하여 기존 데이터를 Amazon S3로 이동합니다. AWS CloudTrail을 사용하여 관리 이벤트를 기록합니다.

더보기

요구 사항 분석

데이터 자주 변경 : 저장된 데이터는 자주 변경되며, 이에 따라 효율적인 데이터 마이그레이션 도구가 필요합니다.
 저장 데이터의 모든 수준에서 감사 가능 : 데이터 액세스 이벤트(데이터 읽기 및 쓰기 등)를 기록할 수 있어야 합니다.
 기존 데이터를 안전하게 AWS로 마이그레이션 : AWS로 데이터를 이동하는 동안 규정 준수를 보장해야 합니다.
 온프레미스 인프라 부족 : 마이그레이션 도구는 온프레미스 환경에서 실행 가능해야 합니다.

 

A. AWS DataSync를 사용하여 기존 데이터를 Amazon S3로 이동합니다. AWS CloudTrail을 사용하여 데이터 이벤트를 기록합니다.

    

AWS DataSync
- 대량의 데이터를 온프레미스에서 AWS S3로 안전하고 빠르게 이동하도록 설계됨.
- 데이터가 자주 변경되는 환경에서 효율적.
    
AWS CloudTrail(데이터 이벤트)
- 데이터 수준에서 Amazon S3 객체 읽기 및 쓰기 활동을 기록 가능.
- 규정 준수를 위한 감사 요구 사항을 충족.


■ Question #427

솔루션 아키텍트는 MySQL 데이터베이스로 복잡한 Java 애플리케이션을 구현하고 있습니다. Java 애플리케이션은 Apache Tomcat에 배포되어야 하며 고가용성이어야 합니다.

솔루션 아키텍트는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?

A. AWS Lambda에 애플리케이션을 배포합니다. Lambda 함수에 연결하기 위해 Amazon API Gateway API를 구성합니다.
B. AWS Elastic Beanstalk를 사용하여 애플리케이션을 배포합니다. 로드 밸런싱 환경과 롤링 배포 정책을 구성합니다.
C. 데이터베이스를 Amazon ElastiCache로 마이그레이션합니다. 애플리케이션에서 액세스를 허용하도록 ElastiCache 보안 그룹을 구성합니다.
D. Amazon EC2 인스턴스를 시작합니다. EC2 인스턴스에 MySQL 서버를 설치합니다. 서버에서 애플리케이션을 구성합니다. AMI를 만듭니다. AMI를 사용하여 Auto Scaling 그룹이 있는 시작 템플릿을 만듭니다.

더보기

요구 사항 분석
    
Java 애플리케이션 배포 : Apache Tomcat을 사용하여 Java 애플리케이션을 배포해야 함
고가용성 : 애플리케이션이 고가용성을 유지해야 하므로 로드 밸런싱 및 자동 복구 기능이 필요함
운영 오버헤드 감소 : 애플리케이션의 환경 설정과 관리 작업을 단순화하는 솔루션이 적합함
    
B. AWS Elastic Beanstalk를 사용하여 애플리케이션을 배포합니다. 로드 밸런싱 환경과 롤링 배포 정책을 구성합니다.

Elastic Beanstalk
- Tomcat 플랫폼을 지원하며 Java 애플리케이션을 쉽게 배포할 수 있는 관리형 서비스
- 내장된 로드 밸런싱과 Auto Scaling 기능을 통해 고가용성을 보장
    
롤링 배포 정책
- 새로운 애플리케이션 버전을 점진적으로 배포하여 서비스 중단을 최소화할 수 있음


■ Question #428

서버리스 애플리케이션은 Amazon API Gateway, AWS Lambda, Amazon DynamoDB를 사용합니다. Lambda 함수는 DynamoDB 테이블을 읽고 쓸 수 있는 권한이 필요합니다.

Lambda 함수가 DynamoDB 테이블에 가장 안전하게 액세스할 수 있는 솔루션은 무엇입니까?

A. Lambda 함수에 대한 프로그래밍 액세스 권한이 있는 IAM 사용자를 만듭니다. DynamoDB 테이블에 대한 읽기 및 쓰기 액세스를 허용하는 정책을 사용자에게 연결합니다. Lambda 환경 변수의 일부로 access_key_id 및 secret_access_key 매개변수를 저장합니다. 다른 AWS 사용자에게 Lambda 함수 구성에 대한 읽기 및 쓰기 액세스 권한이 없는지 확인합니다.

B. Lambda를 신뢰할 수 있는 서비스로 포함하는 IAM 역할을 만듭니다. DynamoDB 테이블에 대한 읽기 및 쓰기 액세스를 허용하는 정책을 역할에 연결합니다. Lambda 함수의 구성을 업데이트하여 새 역할을 실행 역할로 사용합니다.

C. Lambda 함수에 대한 프로그래밍 액세스 권한이 있는 IAM 사용자를 만듭니다. DynamoDB 테이블에 대한 읽기 및 쓰기 액세스를 허용하는 정책을 사용자에게 연결합니다. AWS Systems Manager Parameter Store에 access_key_id 및 secret_access_key 매개변수를 보안 문자열 매개변수로 저장합니다. DynamoDB 테이블에 연결하기 전에 Lambda 함수 코드를 업데이트하여 보안 문자열 매개변수를 검색합니다.

D. DynamoDB를 신뢰할 수 있는 서비스로 포함하는 IAM 역할을 만듭니다. Lambda 함수에서 읽기 및 쓰기 액세스를 허용하는 정책을 역할에 연결합니다. Lambda 함수의 코드를 업데이트하여 실행 역할로 새 역할에 연결합니다.

더보기

B. Lambda를 신뢰할 수 있는 서비스로 포함하는 IAM 역할을 만듭니다. DynamoDB 테이블에 대한 읽기 및 쓰기 액세스를 허용하는 정책을 역할에 연결합니다. Lambda 함수의 구성을 업데이트하여 새 역할을 실행 역할로 사용합니다.

 

- AWS Lambda 함수가 DynamoDB에 안전하게 액세스하기 위한 최선의 방법은 IAM 역할을 사용하는 것입니다. 이 접근 방식은 액세스 키와 같은 민감한 정보를 환경 변수나 코드에 포함하지 않으므로 보안 위험을 줄이고 AWS에서 권장하는 최소 권한 원칙을 준수합니다.


■ Question #429

다음 IAM 정책은 IAM 그룹에 첨부되었습니다. 이것은 그룹에 적용되는 유일한 정책입니다.

{
	"Version": "2012-10-17",
	"Statement": [
		{
			"Sid": "1",
			"Effect": "Allow",
			"Action": "ec2:*",
			"Resource": "*",
			"Condition": {
				"StringEquals": {
					"ec2:Region": "us-east-1"
				}
			}
		},
		{
			"Sid": "2",
			"Effect": "Deny",
			"Action": [
				"ec2:StopInstances",
				"ec2:TerminateInstances"
			],
			"Resource": "*",
			"Condition": {
				"BoolIfExists":	"aws:MultiFactorAuthPresent": "false"}
			}
		}
	]
}

 

그룹 구성원에 대한 이 정책의 효과적인 IAM 권한은 무엇입니까?

A. 그룹 구성원은 us-east-1 지역 내에서 모든 Amazon EC2 작업을 허용받습니다. 허용 권한 이후의 명령문은 적용되지 않습니다.
B. 그룹 구성원은 다중 인증(MFA)을 사용하여 로그인하지 않는 한 us-east-1 지역에서 Amazon EC2 권한이 거부됩니다.
C. 그룹 멤버는 다중 요소 인증(MFA)으로 로그인한 경우 모든 리전에 대해 ec2:StopInstances 및 ec2:TerminateInstances 권한이 허용됩니다. 그룹 멤버는 다른 모든 Amazon EC2 작업이 허용됩니다.
D. 그룹 멤버는 멀티팩터 인증(MFA)으로 로그인한 경우에만 us-east-1 지역에 대한 ec2:StopInstances 및 ec2:TerminateInstances 권한이 허용됩니다. 그룹 멤버는 us-east-1 지역 내에서 다른 모든 Amazon EC2 작업이 허용됩니다.

더보기

D. 그룹 멤버는 멀티팩터 인증(MFA)으로 로그인한 경우에만 us-east-1 지역에 대 한 ec2:StopInstances 및ec2:TerminateInstances 권한이 허용됩니다. 그룹 멤버는 us-east-1 지역 내에서 다른 모든 Amazon EC2 작업이 허용됩니다.
    
정책 내용

Statement 1
- us-east-1 리전에서 모든 EC2 작업을 허용합니다.
- 조건: 요청이 us-east-1 리전에서 발생해야 합니다.
    
Statement 2
- MFA가 활성화되지 않은 경우(`aws:MultiFactorAuthPresent: false`), `ec2:StopInstances` 및 `ec2:TerminateInstances` 작업을 명시적으로 거부 합니다.
    
정책 동작
    
MFA 비활성화
- `ec2:StopInstances` 및 `ec2:TerminateInstances` 작업은 항상 거부됩니다.
- 다른 모든 EC2 작업은 허용(`Statement 1`).
    
MFA 활성화
- 거부 조건이 충족되지 않음 → 거부 규칙 무효화
- us-east-1 리전에서 모든 EC2 작업이 허용됩니다.


■ Question #430

제조 회사에는 .csv 파일을 Amazon S3 버킷에 업로드하는 기계 센서가 있습니다. 이러한 .csv 파일은 이미지로 변환되어야 하며 그래픽 보고서의 자동 생성을 위해 가능한 한 빨리 제공되어야 합니다.
이미지는 1개월 후에 무의미해지지만 .csv 파일은 1년에 두 번 기계 학습(ML) 모델을 훈련하기 위해 보관해야 합니다. ML 훈련 및 감사는 몇 주 전에 계획됩니다.

이러한 요구 사항을 가장 비용 효율적으로 충족하는 단계 조합은 무엇입니까? (두 가지를 선택하십시오.)

A. 매시간 .csv 파일을 다운로드하고, 이미지 파일을 생성하고, 이미지를 S3 버킷에 업로드하는 Amazon EC2 Spot Instance를 시작합니다.

B. .csv 파일을 이미지로 변환하고 이미지를 S3 버킷에 저장하는 AWS Lambda 함수를 설계합니다. .csv 파일이 업로드되면 Lambda 함수를 호출합니다.

C. S3 버킷의 .csv 파일과 이미지 파일에 대한 S3 라이프사이클 규칙을 만듭니다. 업로드한 후 1일 후에 .csv 파일을 S3 Standard에서 S3 Glacier로 전환합니다. 30일 후에 이미지 파일을 만료합니다.

D. S3 버킷의 .csv 파일과 이미지 파일에 대한 S3 라이프사이클 규칙을 만듭니다. 업로드한 후 1일 후에 .csv 파일을 S3 Standard에서 S3 One Zone-Infrequent Access(S3 One Zone-IA)로 전환합니다. 30일 후에 이미지 파일을 만료합니다.

E. S3 버킷의 .csv 파일과 이미지 파일에 대한 S3 수명 주기 규칙을 만듭니다. 업로드한 후 1일 후에 .csv 파일을 S3 Standard에서 S3 Standard-Infrequent Access(S3 Standard-IA)로 전환합니다. 이미지 파일은 Reduced Redundancy Storage(RRS)에 보관합니다.

더보기

B. csv 파일을 이미지로 변환하고 이미지를 S3 버킷에 저장하는 AWS Lambda 함수를 설계합니다. .csv 파일이 업로드되면 Lambda 함수를 호출합니다.
- Lambda 함수는 이벤트 기반으로 작동하며, .csv 파일이 업로드될 때 자동으로 트리거됩니다.
- .csv 파일을 빠르게 이미지로 변환하여 필요한 그래픽 보고서를 생성할 수 있으므로 실시간 처리를 지원합니다.
- EC2 인스턴스보다 비용 효율적이고 유지 관리 부담이 낮습니다.
    
C. S3 버킷의 .csv 파일과 이미지 파일에 대한 S3 라이프사이클 규칙을 만듭니다. 업로드한 후 1일 후에 .csv 파을 S3 Standard에서 S3 Glacier로 전환합니다. 30일 후에 이미지 파일을 만료합니다.
- .csv 파일: 1년 동안 보관이 필요하므로 업로드 후 1일 후에 S3 Glacier로 전환하여 비용을 절감합니다.
- 이미지 파일: 30일 후에 더 이상 필요하지 않으므로 삭제(만료)하여 비용을 최적화합니다.
- S3 수명 주기 규칙을 사용하면 자동화로 운영 오버헤드가 줄어듭니다.


■ Question #431

한 회사가 웹 애플리케이션으로 새로운 비디오 게임을 개발했습니다. 이 애플리케이션은 데이터베이스 계층에 Amazon RDS for MySQL이 있는 VPC의 3계층 아키텍처입니다. 여러 플레이어가 동시에 온라인에서 경쟁합니다. 게임 개발자는 거의 실시간으로 상위 10개 스코어보드를 표시하고 현재 점수를 유지하면서 게임을 중지하고 복원할 수 있는 기능을 제공하고자 합니다.

솔루션 아키텍트는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?

A. 웹 애플리케이션에 표시할 점수를 캐시하기 위해 Memcached 클러스터용 Amazon ElastiCache를 설정합니다.
B. 웹 애플리케이션에 표시할 점수를 계산하고 캐시하기 위해 Redis 클러스터용 Amazon ElastiCache를 설정합니다.
C. 웹 애플리케이션 앞에 Amazon CloudFront 배포를 배치하여 애플리케이션 섹션에 스코어보드를 캐시합니다.
D. Amazon RDS for MySQL에서 스코어보드를 계산하고 웹 애플리케이션에 읽기 트래픽을 제공하는 쿼리를 실행하기 위해 읽기 복제본을 만듭니다.

더보기

요구 사항 분석
    
실시간 상위 10개 스코어보드 표시
- 거의 실시간으로 업데이트되고 자주 읽히는 데이터는 낮은 지연 시간과 빠른 액세스가 필요합니다.
- Redis는 정렬된 세트 데이터 구조를 제공하며, 이러한 상위 N 항목 추출에 최적화되어 있습니다.
    
게임 점수 저장 및 복원
- 현재 점수를 유지하고 복원하려면 데이터의 내구성이 중요합니다.
- Redis는 내구성 옵션(AOF 또는 RDB)을 제공하며, 필요 시 데이터를 지속적으로 저장할 수 있습니다.
    
B. 웹 애플리케이션에 표시할 점수를 계산하고 캐시하기 위해 Redis 클러스터용 Amazon ElastiCache를 설정합니다.
- Redis는 정렬된 세트를 사용하여 상위 10개 점수를 효율적으로 계산할 수 있습니다.
- Redis의 내구성(AOF) 및 데이터 복제 기능은 점수 저장 및 복원 요구 사항을 충족합니다.
- 실시간 데이터 처리를 위해 더 적합한 옵션입니다.


■ Question #432

전자상거래 회사가 머신 러닝(ML) 알고리즘을 사용하여 모델을 구축하고 훈련하려고 합니다. 이 회사는 이 모델을 사용하여 복잡한 시나리오를 시각화하고 고객 데이터의 추세를 감지합니다. 아키텍처 팀은 ML 모델을 보고 플랫폼과 통합하여 증강된 데이터를 분석하고 비즈니스 인텔리전스 대시보드에서 직접 데이터를 사용하려고 합니다.

어떤 솔루션이 최소한의 운영 오버헤드로 이러한 요구 사항을 충족할까요?

A. AWS Glue를 사용하여 모델을 빌드하고 학습시키는 ML 변환을 만듭니다. Amazon OpenSearch Service를 사용하여 데이터를 시각화합니다.

B. Amazon SageMaker를 사용하여 모델을 빌드하고 학습합니다. Amazon QuickSight를 사용하여 데이터를 시각화합니다.

C. AWS Marketplace에서 미리 빌드된 ML Amazon Machine Image(AMI)를 사용하여 모델을 빌드하고 학습합니다. Amazon OpenSearch Service를 사용하여 데이터를 시각화합니다.

D. Amazon QuickSight를 사용하여 계산된 필드를 사용하여 모델을 빌드하고 학습합니다. Amazon QuickSight를 사용하여 데이터를 시각화합니다.

더보기

B. Amazon SageMaker를 사용하여 모델을 빌드하고 학습합니다. Amazon QuickSight를 사용하여 데이터를 시각화합니다.
- Amazon SageMaker는 AWS에서 제공하는 완전 관리형 머신 러닝(ML) 서비스로, 데이터 과학자와 개발자가 ML 모델을 구축, 학습, 배포하는 데 필요한 모든 도구를 제공합니다. SageMaker는 ML 워크플로우의 복잡성을 줄이고 비용 효율적으로 운영하며, 머신 러닝 프로세스를 간소화합니다.
- Amazon QuickSight는 AWS에서 제공하는 클라우드 기반 비즈니스 인텔리전스(BI) 서비스로, 데이터 시각화와 분석을 통해 비즈니스 인사이트를 빠르게 제공하는 도구입니다. QuickSight는 데이터를 다양한 소스에서 통합하고, 대화형 대시보드 및 보고서를 생성하여 조직 전체에서 데이터를 기반으로 의사결정을 내릴 수 있도록 지원합니다.
    
ML 모델 빌드 및 훈련
- 머신 러닝 모델의 구축과 학습이 필요하며, 이를 위해 전용 ML 플랫폼이 필요합니다.
- Amazon SageMaker는 완전 관리형 ML 플랫폼으로 모델을 구축, 학습, 배포까지 지원합니다.
    
데이터 시각화 및 분석
- 복잡한 시나리오를 시각화하고 비즈니스 인텔리전스(BI) 대시보드에서 데이터를 활용하려면 데이터 시각화 도구가 필요합니다.
- Amazon QuickSight는 BI 대시보드와 통합된 데이터 시각화 솔루션으로, ML 모델에서 생성된 데이터를 효율적으로 표시 할 수 있습니다.
    
운영 오버헤드 최소화
- 완전 관리형 서비스인 Amazon SageMaker와 QuickSight를 사용하면, 추가적인 인프라 관리 및 설정 없이 요구 사항을 충족할 수 있습니다.


■ Question #433

한 회사가 여러 AWS 계정에서 프로덕션 및 비프로덕션 환경 워크로드를 실행하고 있습니다. 계정은 AWS Organizations의 조직에 있습니다. 이 회사는 비용 사용 태그 수정을 방지하는 솔루션을 설계해야 합니다.

어떤 솔루션이 이러한 요구 사항을 충족할까요?

A. 권한이 있는 주체 외에는 태그를 수정하지 못하도록 사용자 지정 AWS Config 규칙을 만듭니다.
B. 태그 수정을 방지하기 위해 AWS CloudTrail에서 사용자 지정 트레일을 만듭니다.
C. 권한이 있는 주체 외에는 태그를 수정하지 못하도록 SCP(서비스 제어 정책)를 만듭니다.
D. 태그 수정을 방지하기 위해 사용자 지정 Amazon CloudWatch 로그를 생성합니다.

더보기

요구 사항 분석
    
비용 사용 태그 보호 : 비용 사용 태그는 비용 할당과 분석에 중요하며, 잘못된 수정이 발생하지 않도록 보호해야 합니다.
조직 내 모든 계정에 적용 : AWS Organizations에 속한 모든 계정에서 일관된 제한이 필요합니다.
권한 제한 : 태그 수정 권한은 권한이 있는 주체(예: 관리 계정 또는 특정 사용자)에게만 허용되어야 합니다.
    
C. 권한이 있는 주체 외에는 태그를 수정하지 못하도록 SCP(서비스 제어 정책)를 만듭니다.
- SCP는 AWS Organizations 내 모든 계정에서 서비스 수준의 작업을 제어하는 데 사용됩니다.
- 태그 수정 작업(`tag:TagResources`, `tag:UntagResources`, `tag:UpdateTag`)을 제한할 수 있습니다.
- SCP는 관리 계정에서 정의되며, 조직 전체에 적용됩니다.
- 이를 통해 권한이 없는 사용자가 태그를 수정하는 것을 방지할 수 있습니다.


■ Question #434

한 회사가 AWS 클라우드에서 애플리케이션을 호스팅합니다. 이 애플리케이션은 Auto Scaling 그룹의 Elastic Load Balancer 뒤의 Amazon EC2 인스턴스에서 실행되고 Amazon DynamoDB 테이블이 있습니다. 이 회사는 최소한의 다운타임으로 다른 AWS 지역에서 애플리케이션을 사용할 수 있도록 하려고 합니다.

솔루션 아키텍트는 최소한의 다운타임으로 이러한 요구 사항을 충족하기 위해 무엇을 해야 할까요?

A. 재해 복구 지역에서 자동 확장 그룹과 로드 밸런서를 만듭니다. DynamoDB 테이블을 글로벌 테이블로 구성합니다. DNS 장애 조치를 구성하여 새 재해 복구 지역의 로드 밸런서를 가리킵니다.

B. 필요할 때 시작할 EC2 인스턴스, 로드 밸런서, DynamoDB 테이블을 생성하기 위한 AWS CloudFormation 템플릿을 만듭니다. 새 재해 복구 지역의 로드 밸런서를 가리키도록 DNS 장애 조치를 구성합니다.

C. AWS CloudFormation 템플릿을 만들어 EC2 인스턴스와 필요할 때 시작할 로드 밸런서를 만듭니다. DynamoDB 테이블을 글로벌 테이블로 구성합니다. DNS 장애 조치를 구성하여 새 재해 복구 지역의 로드 밸런서를 가리킵니다.

D. 재해 복구 지역에서 자동 확장 그룹과 로드 밸런서를 만듭니다. DynamoDB 테이블을 글로벌 테이블로 구성합니다. 재해 복구 로드 밸런서를 가리키는 Amazon Route 53을 업데이트하는 AWS Lambda 함수를 트리거하는 Amazon CloudWatch 알람을 만듭니다.

더보기

요구 사항 분석
    
최소한의 다운타임으로 재해 복구 제공 : 애플리케이션을 다른 지역에서 실행 가능해야 하며, 서비스 중단을 최소화해야 합니다.
애플리케이션 구성 요소 : EC2 인스턴스, Auto Scaling 그룹, Elastic Load Balancer, DynamoDB 테이블로 구성된 시스템입니다.
다른 지역에서의 사용 가능성 : 미리 준비된 재해 복구 구성 및 데이터 동기화가 필요합니다.
    
A. 재해 복구 지역에서 자동 확장 그룹과 로드 밸런서를 만듭니다. DynamoDB 테이블을 글로벌 테이블로 구성합니다. DNS 장애 조치를 구성하여 새 재해 복구 지역의 로드 밸런서를 가리킵니다.

적합성
- Auto Scaling 그룹과 로드 밸런서 : 재해 복구 지역에서 애플리케이션을 실행 가능
- DynamoDB 글로벌 테이블 : 다중 지역에 데이터를 동기화해 최소한의 데이터 손실로 재해 복구 가능
- DNS 장애 조치 : 애플리케이션 트래픽을 자동으로 재해 복구 지역으로 라우팅
    
평가
- 준비된 구성으로 다운타임 최소화
- 추가 설정 필요 없이 자동으로 동작


■ Question #435

한 회사가 2주 안에 온프레미스 데이터 센터에서 AWS로 MySQL 데이터베이스를 마이그레이션해야 합니다. 데이터베이스 크기는 20TB입니다. 회사는 최소한의 다운타임으로 마이그레이션을 완료하려고 합니다.

어떤 솔루션이 데이터베이스를 가장 비용 효율적으로 마이그레이션할까요?

A. AWS Snowball Edge Storage Optimized 장치를 주문합니다. AWS Schema Conversion Tool(AWS SCT)과 함께 AWS Database Migration Service(AWS DMS)를 사용하여 진행 중인 변경 사항의 복제와 함께 데이터베이스를 마이그레이션합니다. Snowball Edge 장치를 AWS로 보내 마이그레이션을 완료하고 진행 중인 복제를 계속합니다.

B. AWS Snowmobile 차량을 주문합니다. AWS Schema Conversion Tool(AWS SCT)과 함께 AWS Database Migration Service(AWS DMS)를 사용하여 진행 중인 변경 사항이 있는 데이터베이스를 마이그레이션합니다. Snowmobile 차량을 AWS로 다시 보내 마이그레이션을 완료하고 진행 중인 복제를 계속합니다.

C. GPU 장치가 있는 AWS Snowball Edge Compute Optimized를 주문합니다. AWS Schema Conversion Tool(AWS SCT)과 함께 AWS Database Migration Service(AWS DMS)를 사용하여 진행 중인 변경 사항이 있는 데이터베이스를 마이그레이션합니다. Snowball 장치를 AWS로 보내 마이그레이션을 완료하고 진행 중인 복제를 계속합니다.

D. 데이터 센터와 연결을 설정하기 위해 1GB 전용 AWS Direct Connect 연결을 주문합니다. AWS Schema Conversion Tool(AWS SCT)과 함께 AWS Database Migration Service(AWS DMS)를 사용하여 진행 중인 변경 사항의 복제로 데이터베이스를 마이그레이션합니다.

더보기

요구사항 분석
- 데이터베이스 크기: 20TB로 대용량 데이터
- 마이그레이션 시간: 2주로 제한
- 다운타임 최소화: 실시간 데이터 복제를 지원해야 함
- 비용 효율성: 최적의 비용으로 마이그레이션 수행
    
A. AWS Snowball Edge Storage Optimized 장치를 주문합니다. AWS Schema Conversion Tool(AWS SCT)과 함께 AWS Database Migration Service(AWS DMS)를 사용하여 진행 중인 변경 사항의 복제와 함께 데이터베이스를 마이그레이션합니다. Snowball Edge 장치를 AWS로 보내 마이그레이션을 완료하고 진행 중인 복제를 계속합니다.

특징
- Snowball Edge Storage Optimized는 대량의 데이터를 오프라인으로 전송할 수 있으며, 한 장치당 최대 80TB의 데이터 전송 가능
- AWS DMS와 진행 중인 복제를 결합해 마이그레이션 중에도 데이터베이스의 변경 사항을 동기화할 수 있음
    
장점
- 오프라인 전송으로 대역폭 제한 문제를 해결
- 진행 중인 복제를 통해 다운타임 최소화
- AWS로 데이터를 빠르게 전송 가능
    
적합성
- 데이터 크기, 시간 제한, 비용 효율성 모두 충족


■ Question #436

한 회사가 온프레미스 PostgreSQL 데이터베이스를 Amazon RDS for PostgreSQL DB 인스턴스로 옮겼습니다. 이 회사는 성공적으로 새로운 제품을 출시했습니다. 데이터베이스의 작업 부하가 증가했습니다. 이 회사는 인프라를 추가하지 않고도 더 큰 작업 부하를 수용하고자 합니다.

어떤 솔루션이 이러한 요구 사항을 가장 비용 효율적으로 충족할까요?

A. 전체 작업 부하에 대해 예약된 DB 인스턴스를 구매합니다. Amazon RDS for PostgreSQL DB 인스턴스를 더 크게 만듭니다.
B. Amazon RDS for PostgreSQL DB 인스턴스를 다중 AZ DB 인스턴스로 만듭니다.
C. 전체 작업 부하에 대해 예약된 DB 인스턴스를 구매합니다. PostgreSQL DB 인스턴스에 대한 다른 Amazon RDS를 추가합니다.
D. Amazon RDS for PostgreSQL DB 인스턴스를 주문형 DB 인스턴스로 만듭니다.

더보기

A. 전체 작업 부하에 대해 예약된 DB 인스턴스를 구매합니다. Amazon RDS for PostgreSQL DB 인스턴스를 더 크게 만듭니다.

예약된 DB 인스턴스
- 작업 부하가 지속적이고 예측 가능하다면, 예약 인스턴스는 장기적인 비용 절감에 적합합니다.
- 예약 인스턴스는 높은 작업 부하를 효율적으로 처리하면서 운영 비용을 최소화하는 데 도움을 줍니다.
    
DB 인스턴스 크기 확장
- RDS 인스턴스를 더 큰 크기로 업그레이드하면 증가한 작업 부하를 효과적으로 수용할 수 있습니다.
- Amazon RDS는 워크로드 증가 시 쉽게 인스턴스를 확장할 수 있는 기능을 제공합니다.


■ Question #437

한 회사가 자동 확장 그룹의 애플리케이션 로드 밸런서(ALB) 뒤에서 Amazon EC2 인스턴스에서 전자상거래 웹사이트를 운영합니다. 이 사이트는 IP 주소가 변경되는 불법적인 외부 시스템에서 높은 요청률과 관련된 성능 문제를 겪고 있습니다. 보안팀은 웹사이트에 대한 잠재적인 DDoS 공격을 걱정하고 있습니다. 이 회사는 합법적인 사용자에게 최소한의 영향을 미치는 방식으로 불법적인 수신 요청을 차단해야 합니다.

솔루션 아키텍트는 무엇을 권장해야 합니까?

A. Amazon Inspector를 배포하고 ALB와 연결합니다.
B. AWS WAF를 배포하고 ALB와 연결한 후 속도 제한 규칙을 구성합니다.
C. ALB와 연관된 네트워크 ACL에 규칙을 배포하여 유입 트래픽을 차단합니다.
D. Amazon GuardDuty를 배포하고 GuardDuty를 구성할 때 속도 제한 보호를 활성화합니다.

더보기

B. AWS WAF를 배포하고 ALB와 연결한 후 속도 제한 규칙을 구성합니다.

AWS WAF와 속도 제한 규칙
- AWS WAF (Web Application Firewall)는 웹 애플리케이션 트래픽에 대해 HTTP 요청을 필터링하여 악성 요청을 차단할 수 있습니다.
- 속도 제한 규칙을 사용하면 특정 IP 주소에서 지정된 시간 내에 허용된 요청 수를 초과하면 해당 IP에서 추가 요청을 자동으로 차단할 수 있습니다.
- 이는 DDoS 공격 및 높은 요청률 문제를 효과적으로 해결할 수 있습니다.
    
ALB와의 통합
- AWS WAF는 ALB와 직접 통합됩니다.
- 이 통합은 웹 애플리케이션 계층에서 트래픽을 필터링하므로 합법적인 사용자는 최소한의 영향을 받으며, 악의적인 요청은 ALB 수준에서 차단됩니다.


■ Question #438

회사가 외부 감사자와 회계 데이터를 공유하려고 합니다. 데이터는 프라이빗 서브넷에 있는 Amazon RDS DB 인스턴스에 저장됩니다. 감사자는 자체 AWS 계정을 가지고 있으며 자체 데이터베이스 사본이 필요합니다.

회사가 감사자와 데이터베이스를 공유하는 가장 안전한 방법은 무엇입니까?

A. 데이터베이스의 읽기 복제본을 만듭니다. 감사자에게 액세스 권한을 부여하기 위해 IAM 표준 데이터베이스 인증을 구성합니다.

B. 데이터베이스 내용을 텍스트 파일로 내보냅니다. 파일을 Amazon S3 버킷에 저장합니다. 감사자를 위한 새 IAM 사용자를 만듭니다. 사용자에게 S3 버킷에 대한 액세스 권한을 부여합니다.

C. 데이터베이스의 스냅샷을 Amazon S3 버킷에 복사합니다. IAM 사용자를 만듭니다. 감사자와 사용자의 키를 공유하여 S3 버킷의 객체에 대한 액세스 권한을 부여합니다.

D. 데이터베이스의 암호화된 스냅샷을 만듭니다. 감사자와 스냅샷을 공유합니다. AWS Key Management Service(AWS KMS) 암호화 키에 대한 액세스를 허용합니다.

더보기

D. 데이터베이스의 암호화된 스냅샷을 만듭니다. 감사자와 스냅샷을 공유합니다. AWS Key Management Service(AWS KMS) 암호화 키에 대한 액세스를 허용합니다.

데이터 공유의 보안성
- 암호화된 스냅샷을 생성하면 데이터는 이동 및 저장 중에 보호됩니다.
- 감사자와 스냅샷을 안전하게 공유하고, 필요한 경우 데이터 복원을 수행할 수 있습니다.
    
KMS 키를 통한 액세스 제어
- AWS KMS를 사용하여 암호화된 스냅샷을 공유하면 데이터 접근은 명확히 제어됩니다.
- 감사자가 복호화 및 스냅샷 접근 권한을 가지려면 KMS 키 액세스 권한이 필요합니다.
    
독립적인 데이터베이스 복원
- 감사자는 스냅샷을 사용하여 자신의 AWS 계정에서 데이터베이스를 복원할 수 있습니다.
- 회사의 원본 데이터베이스에 대한 직접적인 액세스를 요구하지 않아 보안 위험이 줄어듭니다.


■ Question #439

솔루션 아키텍트가 IP 주소 범위가 작은 VPC를 구성했습니다. VPC에 있는 Amazon EC2 인스턴스 수가 증가하고 있으며 향후 워크로드에 필요한 IP 주소 수가 부족합니다.

어떤 솔루션이 운영 오버헤드를 최소화하여 이 문제를 해결할까요?

A. 추가 IPv4 CIDR 블록을 추가하여 IP 주소 수를 늘리고 VPC에 추가 서브넷을 만듭니다. 새 CIDR을 사용하여 새 서브넷에 새 리소스를 만듭니다.

B. 추가 서브넷이 있는 두 번째 VPC를 만듭니다. 피어링 연결을 사용하여 두 번째 VPC를 첫 번째 VPC에 연결합니다. 경로를 업데이트하고 두 번째 VPC의 서브넷에서 새 리소스를 만듭니다.

C. AWS Transit Gateway를 사용하여 전송 게이트웨이를 추가하고 두 번째 VPC를 첫 번째 VP에 연결합니다. 전송 게이트웨이와 VPC의 경로를 업데이트합니다. 두 번째 VPC의 서브넷에 새 리소스를 만듭니다.

D. 두 번째 VPC를 만듭니다. Amazon EC2의 VPN 호스팅 솔루션과 가상 사설 게이트웨이를 사용하여 첫 번째 VPC와 두 번째 VPC 사이에 사이트 간 VPN 연결을 만듭니다. VPN을 통한 트래픽에 대한 VPC 간 경로를 업데이트합니다. 두 번째 VPC의 서브넷에 새 리소스를 만듭니다.

더보기

A. 추가 IPv4 CIDR 블록을 추가하여 IP 주소 수를 늘리고 VPC에 추가 서브넷을 만듭니다. 새 CIDR을 사용하여 새 서브넷에 새 리소스를 만듭니다.

IP 주소 부족 해결
- AWS VPC는 기존 VPC에 추가 IPv4 CIDR 블록을 할당할 수 있는 기능을 제공합니다.
- 이를 통해 기존 VPC의 IP 주소 공간을 확장할 수 있으며, 추가 CIDR 블록을 활용하여 새 서브넷을 생성할 수 있습니다.
    
운영 오버헤드 최소화
- CIDR 블록 추가는 VPC의 설정 변경만으로 이루어지며 추가적인 인프라를 생성하거나 관리할 필요가 없습니다.
- 추가 VPC를 생성하지 않으므로 네트워크 연결 및 트래픽 라우팅 설정의 복잡성이 증가하지 않습니다.
    
리소스 관리 용이성
- 기존 VPC 내에서 확장이 가능하기 때문에 관리 및 모니터링이 단순합니다.
- 새 CIDR 블록 기반의 서브넷에 리소스를 배치하여 기존 워크로드와 동일한 VPC 내에서 원활하게 통신할 수 있습니다.


■ Question #440

한 회사에서 애플리케이션 테스트 중에 Amazon RDS for MySQL DB 인스턴스를 사용했습니다. 테스트 주기가 끝나고 DB 인스턴스를 종료하기 전에 솔루션 아키텍트가 두 개의 백업을 만들었습니다. 솔루션 아키텍트는 mysqldump 유틸리티를 사용하여 데이터베이스 덤프를 만들어 첫 번째 백업을 만들었습니다. 솔루션 아키텍트는 RDS 종료 시 최종 DB 스냅샷 옵션을 활성화하여 두 번째 백업을 만들었습니다.

이 회사는 이제 새로운 테스트 주기를 계획하고 있으며 가장 최근의 백업에서 새 DB 인스턴스를 만들고자 합니다. 이 회사는 DB 인스턴스를 호스팅하기 위해 Amazon Aurora의 MySQL 호환 에디션을 선택했습니다.

어떤 솔루션이 새 DB 인스턴스를 만들까요? (두 가지를 선택하세요.)

A. RDS 스냅샷을 Aurora로 직접 가져옵니다.
B. RDS 스냅샷을 Amazon S3에 업로드합니다. 그런 다음 RDS 스냅샷을 Aurora로 가져옵니다.
C. 데이터베이스 덤프를 Amazon S3에 업로드합니다. 그런 다음 데이터베이스 덤프를 Aurora로 가져옵니다.
D. AWS Database Migration Service(AWS DMS)를 사용하여 RDS 스냅샷을 Aurora로 가져옵니다.
E. 데이터베이스 덤프를 Amazon S3에 업로드합니다. 그런 다음 AWS Database Migration Service(AWS DMS)를 사용하여 데이터베이스 덤프를 Aurora로 가져옵니다.

더보기

A. RDS 스냅샷을 Aurora로 직접 가져옵니다.
- Amazon RDS 스냅샷을 사용하여 Aurora MySQL DB 클러스터를 생성할 수 있습니다.
- 이 방법은 RDS MySQL과 Aurora MySQL 간에 호환성이 있기 때문에 가능하며, 가장 빠르고 간단한 방법입니다.
    
C. 데이터베이스 덤프를 Amazon S3에 업로드합니다. 그런 다음 데이터베이스 덤프를 Aurora로 가져옵니다.
- 'mysqldump'로 생성된 데이터베이스 덤프를 Amazon S3에 업로드한 후 Aurora MySQL로 가져올 수 있습니다.
- Aurora는 S3에서 덤프 데이터를 가져와 'LOAD DATA' 명령어로 처리할 수 있습니다.

반응형

'let's study > AWS SAA-C03' 카테고리의 다른 글

AWS SAA-C03 Examtopics (501 ~ 520)  (0) 2024.12.20
AWS SAA-C03 Examtopics (481 ~ 500)  (1) 2024.12.20
AWS SAA-C03 Examtopics (461 ~ 480)  (1) 2024.12.20
AWS SAA-C03 Examtopics (441 ~ 460)  (2) 2024.12.19
AWS SAA-C03 Examtopics (401 ~ 420)  (2) 2024.12.15

관련글 더보기