AWS Certified Solutions Architect - Associate 공부하면서 작성된 글로 일부오류가있을수있습니다. |
■ Question #761
회사는 온프레미스 LDAP 디렉토리 서비스를 사용하여 AWS Management Console에 사용자를 인증해야 합니다. 디렉토리 서비스는 Security Assertion Markup Language(SAML)와 호환되지 않습니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?
A. AWS와 온프레미스 LDAP 간에 AWS IAM Identity Center(AWS Single Sign-On)를 활성화합니다.
B. AWS 자격 증명을 사용하는 IAM 정책을 만들고 해당 정책을 LDAP에 통합합니다.
C. LDAP 자격 증명이 업데이트될 때마다 IAM 자격 증명을 순환하는 프로세스를 설정합니다.
D. AWS 보안 토큰 서비스(AWS STS)를 사용하여 단기 자격 증명을 얻는 온프레미스 맞춤형 ID 브로커 애플리케이션이나 프로세스를 개발합니다.
D. AWS 보안 토큰 서비스(AWS STS)를 사용하여 단기 자격 증명을 얻는 온프레미스 맞춤형 ID 브로커 애플리케이션이나 프로세스를 개발합니다.
- SAML 비호환 LDAP를 사용하는 경우 AWS Management Console에 안전하게 인증하기 위해서는 맞춤형 ID 브로커 애플리케이션을 개발하는 것이 가장 적합합니다. 이 애플리케이션은 AWS 보안 토큰 서비스(STS)를 사용하여 LDAP 사용자를 인증하고 단기 자격 증명을 발급할 수 있습니다.
- STS는 사용자에 대한 임시 자격 증명을 제공하며, 이를 통해 LDAP 자격 증명을 AWS IAM과 통합할 수 있습니다.
■ Question #762
한 회사가 Amazon EC2 인스턴스를 시작하기 위해 AWS 계정에 여러 Amazon Machine Images(AMI)를 저장합니다. AMI에는 회사 운영에 필요한 중요한 데이터와 구성이 포함되어 있습니다. 이 회사는 실수로 삭제된 AMI를 빠르고 효율적으로 복구하는 솔루션을 구현하려고 합니다.
어떤 솔루션이 운영 오버헤드를 최소화하면서 이러한 요구 사항을 충족할까요?
A. AMI의 Amazon Elastic Block Store(Amazon EBS) 스냅샷을 만듭니다. 스냅샷을 별도의 AWS 계정에 저장합니다.
B. 모든 AMI를 주기적으로 다른 AWS 계정으로 복사합니다.
C. 휴지통에 보관 규칙을 만듭니다.
D. 교차 지역 복제 기능이 있는 Amazon S3 버킷에 AMI를 업로드합니다.
C. 휴지통에 보관 규칙을 만듭니다.
- 운영 오버헤드 최소화: 휴지통을 사용하면 별도의 리소스를 생성하거나 주기적으로 백업할 필요가 없습니다. 삭제된 EBS 스냅샷이나 AMI는 지정된 보관 기간 동안 휴지통에 보관되며, 이를 통해 쉽게 복구할 수 있습니다.
- 비용 효율성: 휴지통 내에 보관된 AMI와 스냅샷에는 별도의 추가 요금이 발생하지 않습니다. 따라서 추가 계정 생성이나 다른 AWS 리전에 복사하는 것보다 비용 효율적입니다.
- 간편한 관리: 휴지통 기능을 통해 삭제된 AMI의 태그와 권한을 관리할 수 있어, 실수로 인한 삭제 후에도 빠르게 원상 복구가 가능합니다.
■ Question #763
한 회사가 온프레미스에 150TB의 보관된 이미지 데이터를 저장해 두었는데, 다음 달 안에 AWS 클라우드로 옮겨야 합니다. 회사의 현재 네트워크 연결은 밤에만 이 목적으로 최대 100Mbps 업로드를 허용합니다.
이 데이터를 옮기고 마이그레이션 마감일을 맞추는 가장 비용 효율적인 메커니즘은 무엇입니까?
A. AWS Snowmobile을 사용하여 AWS로 데이터를 전송합니다.
B. 여러 개의 AWS Snowball 장치를 주문하여 데이터를 AWS로 배송합니다.
C. Amazon S3 전송 가속을 활성화하고 데이터를 안전하게 업로드합니다.
D. Amazon S3 VPC 엔드포인트를 생성하고 VPN을 설정하여 데이터를 업로드합니다.
B. 여러 개의 AWS Snowball 장치를 주문하여 데이터를 AWS로 배송합니다.
- 업로드 제한과 시간: 150TB 데이터를 네트워크를 통해 업로드하려면 100Mbps 속도만 사용할 수 있는데, 이는 매우 오랜 시간이 걸립니다. 약 150TB를 100Mbps 속도로 전송하려면 약 138일이 필요하여, 마감일을 맞추지 못하게 됩니다.
- AWS Snowball: AWS Snowball은 대용량 데이터를 클라우드로 안전하고 비용 효율적으로 전송할 수 있는 물리적 디바이스를 제공합니다. 여러 개의 Snowball 장치를 사용하여 데이터를 옮기면 네트워크 대역폭 문제를 해결하고, 데이터를 빠르게 전송할 수 있습니다. 또한 비용 효율적인 옵션으로, AWS Snowmobile보다 더 적은 비용이 듭니다.
■ Question #764
어떤 회사가 온프레미스에서 AWS로 3계층 애플리케이션을 마이그레이션하려고 합니다. 웹 계층과 애플리케이션 계층은 타사 가상상머신(VM)에서 실행 중입니다. 데이터베이스 계층은 MySQL에서 실행 중입니다. 이 회사는 아키텍처를 가능한 한 최소한으로 변경하여 애플리케이션을 마이그레이션해야 합니다. 또한 이 회사는 특정 시점으로 데이터를 복원할 수 있는 데이터베이스 솔루션이 필요합니다.
어떤 솔루션이 운영 오버헤드를 최소화하면서 이러한 요구 사항을 충족할까요?
A. 웹 티어와 애플리케이션 티어를 프라이빗 서브넷의 Amazon EC2 인스턴스로 마이그레이션합니다. 데이터베이스 티어를 프라이빗 서브넷의 Amazon RDS for MySQL로 마이그레이션합니다.
B. 웹 티어를 퍼블릭 서브넷의 Amazon EC2 인스턴스로 마이그레이션합니다. 애플리케이션 티어를 프라이빗 서브넷의 EC2 인스턴스로 마이그레이션합니다. 데이터베이스 티어를 프라이빗 서브넷의 Amazon Aurora MySQL로 마이그레이션합니다.
C. 웹 티어를 퍼블릭 서브넷의 Amazon EC2 인스턴스로 마이그레이션합니다. 애플리케이션 티어를 프라이빗 서브넷의 EC2 인스턴스로 마이그레이션합니다. 데이터베이스 티어를 프라이빗 서브넷의 Amazon RDS for MySQL로 마이그레이션합니다.
D. 웹 티어와 애플리케이션 티어를 퍼블릭 서브넷의 Amazon EC2 인스턴스로 마이그레이션합니다. 데이터베이스 티어를 퍼블릭 서브넷의 Amazon Aurora MySQL로 마이그레이션합니다.
C. 웹 티어를 퍼블릭 서브넷의 Amazon EC2 인스턴스로 마이그레이션합니다. 애플리케이션 티어를 프라이빗 서브넷의 EC2 인스턴스로 마이그레이션합니다. 데이터베이스 티어를 프라이빗 서브넷의 Amazon RDS for MySQL로 마이그레이션합니다.
- 아키텍처 변경 최소화: 기존 온프레미스 구조와 유사하게 웹 계층은 퍼블릭 서브넷, 애플리케이션 계층은 프라이빗 서브넷으로 구성합니다. 이는 네트워크 보안을 유지하면서 최소한의 구조 변경만으로 마이그레이션을 수행할 수 있습니다.
- Amazon RDS for MySQL 사용: Amazon RDS for MySQL은 AWS에서 제공하는 관리형 MySQL 서비스로, 특정 시점 복원을 지원하여 데이터베이스 복구 기능을 갖추고 있습니다. Amazon Aurora MySQL도 비슷한 기능을 제공하지만, RDS for MySQL이 MySQL과의 호환성이 높고 최소한의 운영 오버헤드로 운영할 수 있는 선택입니다.
- 퍼블릭 서브넷과 프라이빗 서브넷 배치: 웹 계층은 인터넷에서 접근 가능해야 하므로 퍼블릭 서브넷에 배치하고, 애플리케이션 및 데이터베이스 계층은 보안을 위해 프라이빗 서브넷에 배치하는 것이 이상적입니다.
■ Question #765
개발팀이 다른 회사와 협력하여 통합 제품을 만들고 있습니다. 다른 회사는 개발팀의 계정에 포함된 Amazon Simple Queue Service(Amazon SQS) 대기열에 액세스해야 합니다. 다른 회사는 자체 계정 권한을 포기하지 않고 대기열을 폴링하려고 합니다.
솔루션 아키텍트는 어떻게 SQS 대기열에 대한 액세스를 제공해야 합니까?
A. 다른 회사에 SQS 대기열에 대한 액세스를 제공하는 인스턴스 프로필을 만듭니다.
B. 다른 회사에 SQS 대기열에 대한 액세스를 제공하는 IAM 정책을 만듭니다.
C. 다른 회사에 SQS 대기열에 대한 액세스를 제공하는 SQS 액세스 정책을 만듭니다.
D. 다른 회사에 SQS 대기열에 대한 액세스를 제공하는 Amazon Simple Notification Service (Amazon SNS) 액세스 정책을 만듭니다.
C. 다른 회사에 SQS 대기열에 대한 액세스를 제공하는 SQS 액세스 정책을 만듭니다.
Amazon SQS는 자체적으로 액세스 정책(큐 정책)을 사용하여 외부 계정에 대해 세부적인 권한을 설정할 수 있습니다. SQS 액세스 정책을 통해 다른 AWS 계정에 대기열을 폴링하거나 메시지를 보내고 읽는 등의 권한을 부여할 수 있습니다. 이 방법은 협력 회사가 자신의 AWS 계정 권한을 포기하지 않으면서도 안전하게 SQS 대기열에 액세스할 수 있도록 해줍니다.
■ Question #766
회사의 개발자는 최신 버전의 Amazon Linux를 실행하는 회사의 Amazon EC2 인스턴스에서 SSH 액세스를 얻을 수 있는 안전한 방법을 원합니다. 개발자는 원격으로 회사 사무실에서 일합니다. 회사는 솔루션의 일부로 AWS 서비스를 사용하려고 합니다. EC2 인스턴스는 VPC 프라이빗 서브넷에 호스팅되고 퍼블릭 서브넷에 배포된 NAT 게이트웨이를 통해 인터넷에 액세스합니다.
솔루션 아키텍트는 이러한 요구 사항을 가장 비용 효율적으로 충족하기 위해 무엇을 해야 합니까?
A. EC2 인스턴스와 동일한 서브넷에 베스천 호스트를 만듭니다. 개발자에게 ec2:CreateVpnConnection IAM 권한을 부여합니다. 개발자가 EC2 인스턴스에 연결할 수 있도록 EC2 Instance Connect를 설치합니다.
B. 회사 네트워크와 VPC 사이에 AWS Site-to-Site VPN 연결을 만듭니다. 개발자가 회사 네트워크에 있을 때 개발자에게 Site-to-Site VPN 연결을 사용하여 EC2 인스턴스에 액세스하도록 지시합니다. 개발자에게 원격으로 작업할 때 액세스를 위해 다른 VPN 연결을 설정하도록 지시합니다.
C. VPC의 퍼블릭 서브넷에 배스천 호스트를 만듭니다. 배스천 호스트의 보안 그룹과 SSH 키를 구성하여 개발자의 회사 및 원격 네트워크에서만 연결 및 SSH 인증을 허용합니다. 개발자에게 SSH를 사용하여 배스천 호스트를 통해 연결하여 EC2 인스턴스에 도달하도록 지시합니다.
D. EC2 인스턴스와 연결된 IAM 역할에 AmazonSSMManagedInstanceCore IAM 정책을 연결합니다. 개발자에게 AWS Systems Manager Session Manager를 사용하여 EC2 인스턴스에 액세스하도록 지시합니다.
D. EC2 인스턴스와 연결된 IAM 역할에 AmazonSSMManagedInstanceCore IAM 정책을 연결합니다. 개발자에게 AWS Systems Manager Session Manager를 사용하여 EC2 인스턴스에 액세스하도록 지시합니다.
AWS Systems Manager Session Manager를 사용하여 EC2 인스턴스에 SSH 없이도 안전하게 접속할 수 있습니다. Session Manager는 EC2 인스턴스와 개발자 간의 연결을 안전하게 관리하며, VPC의 프라이빗 서브넷에 있는 인스턴스에 접근할 수 있습니다. 이 방식은 퍼블릭 IP나 별도의 VPN 연결이 필요하지 않으며, IAM 권한과 세션 암호화를 통해 보안성이 강화됩니다.
■ Question #767
제약 회사가 신약을 개발하고 있습니다. 회사가 생성하는 데이터 양은 지난 몇 달 동안 기하급수적으로 증가했습니다. 회사의 연구원들은 전체 데이터 세트의 하위 집합을 최소한의 지연으로 즉시 사용할 수 있어야 합니다. 그러나 전체 데이터 세트에 매일 액세스할 필요는 없습니다. 모든 데이터는 현재 온프레미스 스토리지 어레이에 있으며 회사는 지속적인 자본 비용을 줄이고자 합니다.
솔루션 아키텍트는 이러한 요구 사항을 충족하기 위해 어떤 스토리지 솔루션을 권장해야 합니까?
A. AWS DataSync를 예약된 cron 작업으로 실행하여 데이터를 지속적으로 Amazon S3 버킷으로 마이그레이션합니다.
B. Amazon S3 버킷을 대상 스토리지로 사용하여 AWS Storage Gateway 파일 게이트웨이를 배포합니다. 데이터를 Storage Gateway 어플라이언스로 마이그레이션합니다.
C. Amazon S3 버킷을 대상 스토리지로 사용하여 캐시된 볼륨이 있는 AWS Storage Gateway 볼륨 게이트웨이를 배포합니다. 데이터를 Storage Gateway 어플라이언스로 마이그레이션합니다.
D. 온프레미스 환경에서 AWS로 AWS 사이트 간 VPN 연결을 구성합니다. Amazon Elastic File System(Amazon EFS) 파일 시스템으로 데이터를 마이그레이션합니다.
C. Amazon S3 버킷을 대상 스토리지로 사용하여 캐시된 볼륨이 있는 AWS Storage Gateway 볼륨 게이트웨이를 배포합니다. 데이터를 Storage Gateway 어플라이언스로 마이그레이션합니다.
- AWS Storage Gateway의 캐시된 볼륨 옵션은 온프레미스 환경에 최신 데이터를 캐시하여 빠르게 접근할 수 있게 해 줍니다. 전체 데이터는 Amazon S3에 저장되고, 자주 사용되는 데이터는 로컬 어플라이언스에 캐시됩니다.
- 연구원들이 전체 데이터 세트의 일부에 즉시 접근할 수 있어야 하는 요구 사항을 충족하며, 자주 사용되지 않는 데이터는 S3에 저장되어 비용을 절감할 수 있습니다.
- 자본 비용 절감에도 적합하며, 온프레미스 스토리지를 추가적으로 확장하지 않고도 AWS로 데이터를 확장할 수 있습니다.
■ Question #768
한 회사에 Amazon EC2 인스턴스에서 실행되는 비즈니스에 중요한 애플리케이션이 있습니다. 이 애플리케이션은 Amazon DynamoDB 테이블에 데이터를 저장합니다. 이 회사는 지난 24시간 이내의 모든 지점으로 테이블을 되돌릴 수 있어야 합니다.
어떤 솔루션이 이러한 요구 사항을 가장 적은 운영 오버헤드로 충족합니까?
A. 테이블에 대한 지정 시간 복구를 구성합니다.
B. 테이블에 AWS Backup을 사용합니다.
C. AWS Lambda 함수를 사용하여 매시간 테이블의 주문형 백업을 수행합니다.
D. 테이블에서 스트림을 켜서 지난 24시간 동안 테이블의 모든 변경 사항 로그를 캡처합니다. 스트림 사본을 Amazon S3 버킷에 저장합니다.
A. 테이블에 대한 지정 시간 복구를 구성합니다.
- 지정 시간 복구(Point-in-Time Recovery, PITR)는 Amazon DynamoDB 테이블을 특정 시점으로 되돌릴 수 있게 해주는 기능으로, 지난 35일 내의 모든 시점으로 복구할 수 있습니다. 이 기능은 자동으로 백그라운드에서 작동하며 운영 오버헤드가 거의 없습니다.
- 이 기능을 활성화하면 수동 백업 또는 추가적인 스크립트 작성이 필요하지 않기 때문에 가장 적은 운영 오버헤드로 모든 시점에 대해 복구할 수 있습니다.
■ Question #769
한 회사가 Amazon S3 버킷에 파일을 업로드하는 데 사용되는 애플리케이션을 호스팅합니다. 업로드되면 파일이 처리되어 메타 데이터를 추출하는데, 이는 5초도 걸리지 않습니다. 업로드의 양과 빈도는 시간당 몇 개의 파일에서 수백 개의 동시 업로드까지 다양합니다. 이 회사는 솔루션 아키텍트에게 이러한 요구 사항을 충족하는 비용 효율적인 아키텍처를 설계해 달라고 요청했습니다.
솔루션 아키텍트는 무엇을 추천해야 할까요?
A. AWS CloudTrail 트레일을 구성하여 S3 API 호출을 로깅합니다. AWS AppSync를 사용하여 파일을 처리합니다.
B. S3 버킷 내에서 객체 생성 이벤트 알림을 구성하여 AWS Lambda 함수를 호출하여 파일을 처리합니다.
C. Amazon Kinesis Data Streams를 구성하여 데이터를 처리하고 Amazon S3로 전송합니다. AWS Lambda 함수를 호출하여 파일을 처리합니다.
D. Amazon S3에 업로드된 파일을 처리하기 위해 Amazon Simple Notification Service(Amazon SNS) 토픽을 구성합니다. AWS Lambda 함수를 호출하여 파일을 처리합니다.
B. S3 버킷 내에서 객체 생성 이벤트 알림을 구성하여 AWS Lambda 함수를 호출하여 파일을 처리합니다.
- Amazon S3 이벤트 알림을 사용하여 객체가 업로드되면 자동으로 AWS Lambda 함수를 호출할 수 있습니다. Lambda 함수는 파일이 업로드될 때마다 트리거되어 메타데이터 추출을 수행할 수 있으며, 이 작업은 5초 내로 완료되므로 Lambda의 단기 처리 작업에 적합합니다.
- Lambda 함수는 필요할 때만 실행되며 시간당 몇 개의 파일에서 수백 개의 동시 업로드까지 자동으로 확장하므로, 빈도에 따른 비용 효율성이 높습니다.
- Lambda와 S3의 통합을 통해 추가 인프라 관리가 필요 없이 서버리스 환경에서 파일 업로드와 처리를 수행할 수 있습니다.
■ Question #770
회사의 애플리케이션이 Amazon EC2 인스턴스에 배포되고 이벤트 기반 아키텍처에 AWS Lambda 함수를 사용합니다. 회사는 다른 AWS 계정에서 비생산 개발 환경을 사용하여 새로운 기능을 테스트한 다음, 기능을 프로덕션에 배포합니다. 프로덕션 인스턴스는 다른 시간대에 있는 고객 때문에 지속적으로 사용됩니다. 회사는 주중 영업 시간에만 비생산 인스턴스를 사용합니다. 회사는 주말에는 비생산 인스턴스를 사용하지 않습니다. 회사는 AWS에서 애플리케이션을 실행하는 데 드는 비용을 최적화하려고 합니다.
이러한 요구 사항을 가장 비용 효율적으로 충족하는 솔루션은 무엇입니까?
A. 프로덕션 인스턴스에는 온디맨드 인스턴스를 사용합니다. 주말에만 비프로덕션 인스턴스에는 전용 호스트를 사용합니다.
B. 프로덕션 인스턴스와 비프로덕션 인스턴스에 예약 인스턴스를 사용합니다. 사용하지 않을 때는 비프로덕션 인스턴스를 종료합니다.
C. 프로덕션 인스턴스에 Compute Savings Plans를 사용합니다. 비프로덕션 인스턴스에 On-Demand Instances를 사용합니다. 사용하지 않을 때는 비프로덕션 인스턴스를 종료합니다.
D. 프로덕션 인스턴스에는 전용 호스트를 사용합니다. 비프로덕션 인스턴스에는 EC2 인스턴스 절약 플랜을 사용합니다.
C. 프로덕션 인스턴스에 Compute Savings Plans를 사용합니다. 비프로덕션 인스턴스에 On-Demand Instances를 사용합니다. 사용하지 않을 때는 비프로덕션 인스턴스를 종료합니다.
- Compute Savings Plans는 EC2 인스턴스에 대한 지속적인 사용을 지원하는 비용 절감 옵션으로, 프로덕션 환경에 적합합니다. Compute Savings Plans는 프로덕션 인스턴스를 필요에 따라 지속적으로 사용하면서도 비용을 절감할 수 있습니다.
- 비프로덕션 인스턴스에 On-Demand Instances를 사용하면 주중 영업 시간에만 사용하도록 설정할 수 있습니다. 또한 사용하지 않을 때 인스턴스를 종료하여 불필요한 비용을 절감할 수 있습니다.
- 이 솔루션은 주말 동안 비프로덕션 환경에서 인스턴스 비용을 줄이고, 예약된 스케줄에 따라 비프로덕션 인스턴스를 시작하고 종료할 수 있도록 유연성을 제공합니다.
■ Question #771
한 회사가 온프레미스 Oracle 관계형 데이터베이스에 데이터를 저장합니다. 이 회사는 분석을 위해 Amazon Aurora PostgreSQL에서 데이터를 제공해야 합니다. 이 회사는 AWS Site-to-Site VPN 연결을 사용하여 온프레미스 네트워크를 AWS에 연결합니다. 이 회사는 Aurora PostgreSQL로 마이그레이션하는 동안 소스 데이터베이스에 발생하는 변경 사항을 캡처해야 합니다.
어떤 솔루션이 이러한 요구 사항을 충족할까요?
A. AWS Schema Conversion Tool(AWS SCT)을 사용하여 Oracle 스키마를 Aurora PostgreSQL 스키마로 변환합니다. AWS Database Migration Service(AWS DMS) 전체 로드 마이그레이션 작업을 사용하여 데이터를 마이그레이션합니다.
B. AWS DataSync를 사용하여 데이터를 Amazon S3 버킷으로 마이그레이션합니다. Aurora PostgreSQL aws_s3 확장을 사용하여 S3 데이터를 Aurora PostgreSQL로 가져옵니다.
C. AWS Schema Conversion Tool(AWS SCT)을 사용하여 Oracle 스키마를 Aurora PostgreSQL 스키마로 변환합니다. AWS Database Migration Service(AWS DMS)를 사용하여 기존 데이터를 마이그레이션하고 진행 중인 변경 사항을 복제합니다.
D. AWS Snowball 장치를 사용하여 데이터를 Amazon S3 버킷으로 마이그레이션합니다. Aurora PostgreSQL aws_s3 확장을 사용하여 S3 데이터를 Aurora PostgreSQL로 가져옵니다.
C. AWS Schema Conversion Tool(AWS SCT)을 사용하여 Oracle 스키마를 Aurora PostgreSQL 스키마로 변환합니다. AWS Database Migration Service(AWS DMS)를 사용하여 기존 데이터를 마이그레이션하고 진행 중인 변경 사항을 복제합니다.
- AWS Schema Conversion Tool (AWS SCT): 온프레미스 Oracle 데이터베이스 스키마를 Amazon Aurora PostgreSQL에 맞게 변환하여 호환성을 보장합니다.
- AWS Database Migration Service (AWS DMS): DMS는 전체 로드 작업을 수행하여 기존 데이터를 일회성으로 마이그레이션할 수 있으며, 지속적인 데이터 변경 사항을 캡처 및 복제하는 CDC(Change Data Capture) 기능을 지원합니다. 이를 통해 소스 데이터베이스의 데이터 변경 사항이 Aurora PostgreSQL에 동기화될 수 있습니다.
■ Question #772
한 회사가 Docker 컨테이너로 애플리케이션을 빌드했고 AWS 클라우드에서 애플리케이션을 실행해야 합니다. 이 회사는 관리형 서비스를 사용하여 애플리케이션을 호스팅하려고 합니다. 솔루션은 개별 컨테이너 서비스의 수요에 따라 적절하게 확장 및 축소되어야 합니다. 또한 솔루션은 추가적인 운영 오버헤드나 관리해야 할 인프라를 초래해서는 안 됩니다.
어떤 솔루션이 이러한 요구 사항을 충족할까요? (두 가지를 선택하세요.)
A. AWS Fargate와 함께 Amazon Elastic Container Service(Amazon ECS)를 사용하세요.
B. AWS Fargate와 함께 Amazon Elastic Kubernetes Service(Amazon EKS)를 사용합니다.
C. Amazon API Gateway API를 프로비저닝합니다. API를 AWS Lambda에 연결하여 컨테이너를 실행합니다.
D. Amazon EC2 워커 노드와 함께 Amazon Elastic Container Service(Amazon ECS)를 사용합니다.
E. Amazon EC2 워커 노드와 함께 Amazon Elastic Kubernetes Service(Amazon EKS)를 사용합니다.
A. AWS Fargate와 함께 Amazon Elastic Container Service(Amazon ECS)를 사용하세요.
- AWS Fargate는 서버리스 컴퓨팅 엔진으로, 인프라 관리 없이 컨테이너를 실행할 수 있습니다. 이를 통해 인프라를 직접 관리할 필요가 없으며, 애플리케이션의 수요에 따라 자동으로 확장 및 축소됩니다. 추가적인 운영 오버헤드를 최소화하면서도 서버 및 클러스터를 관리할 필요 없이 애플리케이션을 실행할 수 있습니다.
B. AWS Fargate와 함께 Amazon Elastic Kubernetes Service(Amazon EKS)를 사용합니다.
- Amazon ECS와 Amazon EKS는 AWS에서 컨테이너 애플리케이션을 관리할 수 있는 두 가지 서비스로, 각각 ECS와 EKS에서 Fargate를 사용하면 완전히 관리형 환경에서 컨테이너를 호스팅할 수 있습니다. ECS는 AWS에서 자체 개발한 컨테이너 오케스트레이션 서비스이며, EKS는 Kubernetes 기반의 관리형 서비스입니다. 둘 다 수요에 따른 자동 확장 기능을 제공하므로 요구 사항에 적합합니다.
■ Question #773
전자상거래 회사에서 계절별 온라인 세일을 진행하고 있습니다. 이 회사는 여러 가용 영역에 걸쳐 있는 Amazon EC2 인스턴스에서 웹 사이트를 호스팅합니다. 회사는 자사 웹사이트에서 세일 기간 동안 급격한 트래픽 증가를 관리할 수 있기를 원합니다.
이러한 요구 사항을 가장 비용 효율적으로 충족하는 솔루션은 무엇입니까?
A. 최대 트래픽 로드를 처리할 수 있을 만큼 큰 Auto Scaling 그룹을 생성합니다. Amazon EC2 인스턴스의 절반을 중지합니다. 트래픽이 증가하면 중지된 인스턴스를 사용하여 확장하도록 Auto Scaling 그룹을 구성합니다.
B. 웹 사이트에 대한 Auto Scaling 그룹을 생성합니다. 확장할 필요 없이 높은 트래픽 볼륨을 처리할 수 있도록 Auto Scaling 그룹의 최소 크기를 설정합니다.
C. Amazon CloudFront 및 Amazon ElastiCache를 사용하여 Auto Scaling 그룹이 원본으로 설정된 동적 콘텐츠를 캐시합니다. CloudFront 및 ElastiCache를 채우는 데 필요한 인스턴스로 Auto Scaling 그룹을 구성합니다. 캐시가 완전히 채워진 후 규모를 축소합니다.
D. 트래픽 증가에 따라 확장되도록 Auto Scaling 그룹을 구성합니다. 사전 구성된 Amazon 머신 이미지(AMI)에서 새 인스턴스를 시작하기 위한 시작 템플릿을 생성합니다.
D. 트래픽 증가에 따라 확장되도록 Auto Scaling 그룹을 구성합니다. 사전 구성된 Amazon 머신 이미지(AMI)에서 새 인스턴스를 시작하기 위한 시작 템플릿을 생성합니다.
- Auto Scaling 그룹을 사용하면 트래픽의 급격한 증가에 따라 자동으로 인스턴스를 추가하여 수요를 충족할 수 있습니다. 계절성 트래픽 증가에 적응하려면 트래픽이 증가할 때마다 수동 작업 없이 자동으로 인스턴스가 추가되도록 설정하는 것이 필요합니다.
- 시작 템플릿 및 사전 구성된 AMI를 사용하면 추가 인스턴스가 신속히 시작되며, 웹 사이트 설정 및 최적화된 구성이 포함되어 있어 신속한 대응이 가능합니다.
- 비용 효율적인 이유는 트래픽 증가 시점에만 인스턴스를 자동으로 추가하고, 트래픽이 줄어들면 인스턴스를 축소하여 최소한의 인스턴스만 유지할 수 있기 때문입니다.
■ Question #774
솔루션 아키텍트는 보안 그룹이 0.0.0.0/0에서 SSH를 허용하는 규칙을 포함할 수 없다고 명시한 회사의 규정 준수 정책에 대한 자동화된 솔루션을 제공해야 합니다. 정책에 위반 사항이 있는 경우 회사에 알려야 합니다. 가능한 한 빨리 솔루션이 필요합니다.
솔루션 아키텍트는 최소한의 운영 오버헤드로 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?
A. 0.0.0.0/0 주소에 SSH가 열려 있는지 보안 그룹을 모니터링하고 이를 찾을 때마다 알림을 생성하는 AWS Lambda 스크립트를 작성하세요.
B. 제한된 ssh AWS Config 관리 규칙을 활성화하고 비준수 규칙이 생성되면 Amazon Simple Notification Service(Amazon SNS) 알림을 생성합니다.
C. 보안 그룹과 네트워크 ACL을 전역적으로 열 수 있는 권한이 있는 IAM 역할을 만듭니다. 사용자가 역할을 맡을 때마다 알림을 생성하도록 Amazon Simple Notification Service(Amazon SNS) 토픽을 만듭니다.
D. 관리자가 아닌 사용자가 보안 그룹을 만들거나 편집하는 것을 방지하는 서비스 제어 정책(SCP)을 구성합니다. 사용자가 관리자 권한이 필요한 규칙을 요청할 때 티켓팅 시스템에 알림을 만듭니다.
B. 제한된 ssh AWS Config 관리 규칙을 활성화하고 비준수 규칙이 생성되면 Amazon Simple Notification Service(Amazon SNS) 알림을 생성합니다.
- AWS Config 관리 규칙을 통해 보안 그룹이 0.0.0.0/0에서 SSH(포트 22) 액세스를 허용하는지 지속적으로 평가할 수 있습니다.
- 제한된 SSH 규칙을 설정하면 정책 위반이 발생할 때 자동으로 감지하고 이를 통해 규정 준수를 유지하는 데 유리합니다.
- Amazon SNS 알림을 통해 위반 사항이 발견되면 회사에 자동으로 알림을 전송할 수 있어 운영 오버헤드를 줄이면서 실시간 모니터링과 알림을 제공합니다.
■ Question #775
Amazon EC2 워커 노드와 함께 Amazon Elastic Kubernetes Service(Amazon EKS)를 사용합니다. 한 회사가 AWS 계정에 애플리케이션을 배포했습니다. 이 애플리케이션은 AWS Lambda와 Amazon Elastic Kubernetes Service(Amazon EKS)에서 실행되는 마이크로서비스로 구성되어 있습니다. 별도의 팀이 각 마이크로서비스를 지원합니다. 이 회사는 여러 AWS 계정을 가지고 있으며 각 팀에 마이크로서비스에 대한 자체 계정을 제공하려고 합니다. 솔루션 아키텍트는 HTTPS(포트 443)를 통해 서비스 간 통신을 제공하는 솔루션을 설계해야 합니다. 이 솔루션은 또한 서비스 검색을 위한 서비스 레지스트리를 제공해야 합니다.
어떤 솔루션이 최소한의 관리 오버헤드로 이러한 요구 사항을 충족할까요?
A. 검사 VPC를 만듭니다. 검사 VPC에 AWS Network Firewall 방화벽을 배포합니다. 검사 VPC를 새 전송 게이트웨이에 연결합니다. VPC-to-VPC 트래픽을 검사 VPC로 라우팅합니다. HTTPS 통신만 허용하도록 방화벽 규칙을 적용합니다.
B. VPC Lattice 서비스 네트워크를 만듭니다. 마이크로서비스를 서비스 네트워크와 연결합니다. 각 서비스에 대한 HTTPS 리스너를 정의합니다. 마이크로서비스 컴퓨팅 리소스를 대상으로 등록합니다. 서비스와 통신해야 하는 VPC를 식별합니다. 해당 VPC를 서비스 네트워크와 연결합니다.
C. 각 마이크로서비스에 대한 HTTPS 리스너와 대상 그룹이 있는 네트워크 로드 밸런서(NLB)를 만듭니다. 각 마이크로서비스에 대한 AWS PrivateLink 엔드포인트 서비스를 만듭니다. 해당 마이크로서비스를 사용해야 하는 각 VPC에 인터페이스 VPC 엔드포인트를 만듭니다.
D. 마이크로서비스를 포함하는 VPC 간에 피어링 연결을 만듭니다. 클라이언트에 대한 연결이 필요한 각 서비스에 대한 접두사 목록을 만듭니다. 적절한 VPC로 트래픽을 라우팅하기 위한 경로 테이블을 만듭니다. HTTPS 통신만 허용하도록 보안 그룹을 만듭니다.
B. VPC Lattice 서비스 네트워크를 만듭니다. 마이크로서비스를 서비스 네트워크와 연결합니다. 각 서비스에 대한 HTTPS 리스너를 정의합니다. 마이크로서비스 컴퓨팅 리소스를 대상으로 등록합니다. 서비스와 통신해야 하는 VPC를 식별합니다. 해당 VPC를 서비스 네트워크와 연결합니다.
- VPC Lattice는 여러 VPC와 AWS 계정에 걸쳐 서비스 간 통신을 간편하게 설정할 수 있는 기능을 제공합니다. 또한 HTTPS(포트 443)와 같은 보안 설정을 지정할 수 있어 서비스 간 안전한 통신을 보장합니다.
- 서비스 네트워크는 VPC Lattice의 한 기능으로, 이를 통해 각 마이크로서비스를 네트워크에 등록하고 간편한 서비스 검색과 연결 설정이 가능합니다.
- 이 솔루션은 다양한 팀과 계정에 분산된 마이크로서비스를 중앙에서 관리할 수 있게 해 주어 관리 오버헤드를 최소화합니다.
■ Question #776
한 회사에는 대부분의 메타데이터를 Amazon RDS DB 인스턴스에서 읽는 모바일 게임이 있습니다. 게임의 인기가 높아짐에 따라 개발자들은 게임의 메타데이터 로드 시간과 관련된 속도 저하를 발견했습니다. 성능 지표에 따르면 단순히 데이터베이스를 확장하는 것만으로는 도움이 되지 않습니다. 솔루션 아키텍트는 스냅샷, 복제 및 밀리초 미만의 응답 시간을 포함한 모든 옵션을 탐색해야 합니다.
솔루션 아키텍트는 이러한 문제를 해결하기 위해 무엇을 권장해야 합니까?
A. Aurora Replicas를 사용하여 데이터베이스를 Amazon Aurora로 마이그레이션합니다.
B. 글로벌 테이블이 있는 Amazon DynamoDB로 데이터베이스를 마이그레이션합니다.
C. 데이터베이스 앞에 Redis용 Amazon ElastiCache 계층을 추가합니다.
D. 데이터베이스 앞에 Memcached 계층용 Amazon ElastiCache를 추가합니다.
C. 데이터베이스 앞에 Redis용 Amazon ElastiCache 계층을 추가합니다.
- Redis용 Amazon ElastiCache는 밀리초 미만의 응답 시간을 제공하는 메모리 내 캐시 서비스로, 읽기 지연을 줄이는 데 매우 효과적입니다. Redis는 영구 데이터 저장이 필요 없고, 게임의 메타데이터와 같은 고속 조회에 최적화되어 있어 메타데이터 로드 시간을 크게 줄일 수 있습니다.
- Redis는 추가적인 복제와 내구성을 제공하며, 스냅샷과 백업 옵션도 지원하므로 데이터를 보다 안전하게 관리할 수 있습니다.
- ElastiCache를 사용하여 메타데이터를 캐싱하면 데이터베이스 요청 수가 줄어들어 데이터베이스의 부하를 줄이고 성능을 개선하는 데도 효과적입니다.
■ Question #777
한 회사가 다중 계정 AWS 설정에 AWS Organizations를 사용합니다. 회사의 보안 조직 단위(OU)는 승인된 Amazon Machine Images(AMI)를 개발 OU와 공유해야 합니다. AMI는 AWS Key Management Service(AWS KMS) 암호화된 스냅샷을 사용하여 생성됩니다.
어떤 솔루션이 이러한 요구 사항을 충족할까요? (두 가지를 선택하세요.)
A. 개발팀의 OU Amazon 리소스 이름(ARN)을 AMI의 시작 권한 목록에 추가합니다.
B. AMI의 시작 권한 목록에 조직 루트 Amazon 리소스 이름(ARN)을 추가합니다.
C. 개발팀의 OU가 스냅샷을 해독하는 데 사용되는 AWS KMS 키를 사용할 수 있도록 주요 정책을 업데이트합니다.
D. 개발팀의 계정 Amazon 리소스 이름(ARN)을 AMI의 시작 권한 목록에 추가합니다.
E. AWS KMS 키를 다시 만듭니다. Organizations root Amazon Resource Name(ARN)이 AWS KMS 키를 사용할 수 있도록 키 정책을 추가합니다.
A. 개발팀의 OU Amazon 리소스 이름(ARN)을 AMI의 시작 권한 목록에 추가합니다.
- 특정 개발팀 OU의 계정들에만 접근 권한을 부여하여, 필요에 따라 정확한 권한을 제어할 수 있습니다.
- 개발팀의 OU에 속한 계정들이 AMI를 시작할 수 있는 권한을 갖게 되며, 이를 통해 접근이 필요 없는 다른 계정들로의 노출을 방지할 수 있습니다.
C. 개발팀의 OU가 스냅샷을 해독하는 데 사용되는 AWS KMS 키를 사용할 수 있도록 주요 정책을 업데이트합니다.
- AMI가 암호화되어 있는 경우, 스냅샷의 해독 권한을 해당 OU에 추가하여 필요한 데이터를 안전하게 활용할 수 있게 합니다.
- 스냅샷이 안전하게 해독되고 접근 권한이 부여되므로, 개발팀은 필요한 데이터를 복원 및 사용할 수 있습니다.
■ Question #778
데이터 분석 회사는 전 세계에 분산된 80개의 사무실을 두고 있습니다. 각 사무실은 1PB의 데이터를 호스팅하고 1~2Gbps의 인터넷 대역폭을 가지고 있습니다. 이 회사는 사무실에서 Amazon S3로 대량의 데이터를 한 번 마이그레이션해야 합니다. 이 회사는 4주 이내에 마이그레이션을 완료해야 합니다.
어떤 솔루션이 이러한 요구 사항을 가장 비용 효율적으로 충족할까요?
A. 각 사무실에 새로운 10Gbps AWS Direct Connect 연결을 설정합니다. 데이터를 Amazon S3로 전송합니다.
B. 여러 AWS Snowball Edge 스토리지 최적화 장치를 사용하여 데이터를 저장하고 Amazon S3에 전송합니다.
C. AWS Snowmobile을 사용하여 데이터를 저장하고 Amazon S3로 전송합니다.
D. AWS Storage Gateway 볼륨 게이트웨이를 설정하여 데이터를 Amazon S3로 전송합니다.
B. 여러 AWS Snowball Edge 스토리지 최적화 장치를 사용하여 데이터를 저장하고 Amazon S3에 전송합니다.
- 비용 효율성: Snowball Edge 장치는 대용량 데이터를 이동할 때 저렴한 비용으로 데이터 전송을 지원하며, 데이터 전송 속도가 비교적 빠릅니다.
- 효율적인 대규모 데이터 전송: Snowball Edge는 한 번에 최대 80TB의 데이터를 저장할 수 있으므로, 사무실별로 필요한 장치 수를 조정할 수 있습니다.
- 인터넷 대역폭 의존도 감소: Snowball Edge 장치를 사용하면 데이터 전송을 인터넷 대역폭에 의존하지 않고 수행할 수 있어, 빠르게 데이터 마이그레이션을 완료할 수 있습니다.
- 4주 이내 완료 가능성: Snowball Edge를 여러 장치로 각 사무실에 배포하면 병렬로 데이터를 수집하여 Amazon S3로 신속히 전송할 수 있어 4주 이내에 완료할 가능성이 높습니다.
■ Question #779
한 회사에는 참조 데이터 세트가 포함된 Amazon Elastic File System(Amazon EFS) 파일 시스템이 있습니다. 이 회사에는 데이터 세트를 읽어야 하는 Amazon EC2 인스턴스의 애플리케이션이 있습니다. 그러나 애플리케이션은 데이터 세트를 변경할 수 없어야 합니다. 이 회사는 IAM 액세스 제어를 사용하여 애플리케이션이 데이터 세트를 수정하거나 삭제하지 못하도록 하려고 합니다.
어떤 솔루션이 이러한 요구 사항을 충족할까요?
A. EC2 인스턴스 내에서 읽기 전용 모드로 EFS 파일 시스템을 마운트합니다.
B. EC2 인스턴스에 연결된 IAM 역할에 대해 elasticfilesystem:ClientWrite 작업을 거부하는 EFS 파일 시스템에 대한 리소스 정책을 만듭니다.
C. EFS 파일 시스템에 대한 elasticfilesystem:ClientWrite 작업을 거부하는 EFS 파일 시스템에 대한 ID 정책을 만듭니다.
D. 각 애플리케이션에 대한 EFS 액세스 포인트를 만듭니다. POSIX(Portable Operating System Interface) 파일 권한을 사용하여 루트 디렉토리의 파일에 대한 읽기 전용 액세스를 허용합니다.
B. EC2 인스턴스에 연결된 IAM 역할에 대해 elasticfilesystem:ClientWrite 작업을 거부하는 EFS 파일 시스템에 대한 리소스 정책을 만듭니다.
- 이 솔루션은 IAM 리소스 정책을 통해 EC2 인스턴스가 EFS 파일 시스템에서 쓰기 작업을 수행하지 못하도록 제한합니다.
- 이 경우 elasticfilesystem:ClientWrite 작업을 거부함으로써 애플리케이션이 EFS 파일 시스템에 대해 읽기 전용으로만 액세스할 수 있습니다.
- IAM 리소스 정책은 특정 EC2 인스턴스의 역할에 대해 파일 시스템의 쓰기 권한을 명확히 제한하기 때문에, 최소 권한 원칙을 구현하는 데 적합합니다.
■ Question #780
한 회사가 회사의 AWS 계정에서 작업을 수행하기 위해 외부 공급업체를 고용했습니다. 공급업체는 공급업체가 소유한 AWS 계정에 호스팅된 자동화된 도구를 사용합니다. 공급업체는 회사의 AWS 계정에 대한 IAM 액세스 권한이 없습니다. 회사는 공급업체에 회사의 AWS 계정에 대한 액세스 권한을 부여해야 합니다.
이러한 요구 사항을 가장 안전하게 충족하는 솔루션은 무엇입니까?
A. 회사 계정에서 IAM 역할을 만들어 공급업체의 IAM 역할에 대한 액세스를 위임합니다. 공급업체가 요구하는 권한에 대한 적절한 IAM 정책을 역할에 첨부합니다.
B. 비밀번호 복잡성 요구 사항을 충족하는 비밀번호로 회사 계정에서 IAM 사용자를 만듭니다. 공급업체가 요구하는 권한에 대해 적절한 IAM 정책을 사용자에게 첨부합니다.
C. 회사 계정에서 IAM 그룹을 만듭니다. 공급업체 계정에서 자동화된 도구의 IAM 사용자를 그룹에 추가합니다. 공급업체가 요구하는 권한에 대한 적절한 IAM 정책을 그룹에 연결합니다.
D. 공급업체의 계정을 허용하는 권한 경계가 있는 회사 계정에서 IAM 사용자를 만듭니다. 공급업체가 요구하는 권한에 대해 사용자에게 적절한 IAM 정책을 첨부합니다.
A. 회사 계정에서 IAM 역할을 만들어 공급업체의 IAM 역할에 대한 액세스를 위임합니다. 공급업체가 요구하는 권한에 대한 적절한 IAM 정책을 역할에 첨부합니다.
- 이 접근 방식은 외부 공급업체가 회사의 AWS 계정에 안전하게 액세스할 수 있도록 합니다.
- IAM 역할을 사용하여 교차 계정 액세스를 설정하고, 필요한 권한만을 위임할 수 있습니다. 또한, 공급업체가 보유한 IAM 역할에 대해 신뢰 정책을 구성하여 특정 권한을 위임할 수 있으므로, 최소 권한 원칙을 유지할 수 있습니다.
- STS AssumeRole을 통해 공급업체는 임시 보안 자격 증명을 사용하여 회사의 AWS 리소스에 안전하게 액세스할 수 있으며, 액세스 제어와 모니터링이 용이합니다.
AWS SAA-C03 Examtopics (801 ~ 820) (0) | 2024.12.23 |
---|---|
AWS SAA-C03 Examtopics (781 ~ 800) (2) | 2024.12.21 |
AWS SAA-C03 Examtopics (741 ~ 760) (0) | 2024.12.21 |
AWS SAA-C03 Examtopics (721 ~ 740) (4) | 2024.12.21 |
AWS SAA-C03 Examtopics (701 ~ 720) (0) | 2024.12.21 |