AWS Certified Solutions Architect - Associate 공부하면서 작성된 글로 일부 오류가 있을수 있습니다. |
■ Question #441
한 회사가 애플리케이션 로드 밸런서 뒤의 Amazon Linux Amazon EC2 인스턴스에서 다중 계층 웹 애플리케이션을 호스팅합니다. 인스턴스는 여러 가용성 영역에 걸쳐 자동 확장 그룹에서 실행됩니다. 이 회사는 애플리케이션의 최종 사용자가 대량의 정적 웹 콘텐츠에 액세스할 때 자동 확장 그룹이 더 많은 주문형 인스턴스를 시작한다는 것을 관찰합니다. 이 회사는 비용을 최적화하고자 합니다.
솔루션 아키텍트는 애플리케이션을 가장 비용 효율적으로 재설계하기 위해 무엇을 해야 할까요?
A. 온디맨드 인스턴스 대신 예약 인스턴스를 사용하도록 자동 크기 조정 그룹을 업데이트합니다.
B. 온디맨드 인스턴스 대신 스팟 인스턴스를 시작하여 자동 크기 조정 그룹을 업데이트하여 확장합니다.
C. Amazon S3 버킷의 정적 웹 콘텐츠를 호스팅하기 위해 Amazon CloudFront 배포를 생성합니다.
D. Amazon API Gateway API 뒤에 AWS Lambda 함수를 생성하여 정적 웹사이트 콘텐츠를 호스팅합니다.
C. Amazon S3 버킷의 정적 웹 콘텐츠를 호스팅하기 위해 Amazon CloudFront 배포를 생성합니다.
정적 콘텐츠 캐싱
- CloudFront는 정적 콘텐츠를 글로벌 엣지 로케이션에 캐싱하여 사용자가 가까운 엣지 로케이션에서 콘텐츠를 가져올 수 있도록 합니다. 이는 EC2 인스턴스에 부하를 줄이고 응답 속도를 향상시킵니다.
- EC2 인스턴스가 정적 콘텐츠 요청을 처리하지 않으므로 비용과 리소스를 최적화할 수 있습니다.
비용 효율성
- Amazon S3는 정적 콘텐츠를 저장하는 데 매우 비용 효율적입니다.
- CloudFront는 콘텐츠를 전 세계에 배포하면서 네트워크 비용을 절감하고, 트래픽 요구를 효율적으로 처리합니다.
확장성
- CloudFront는 대규모 요청을 자동으로 처리하며, EC2 인스턴스처럼 추가 인스턴스를 시작할 필요가 없습니다.
■ Question #442
한 회사가 여러 AWS 계정에 걸쳐 수 페타바이트의 데이터를 저장합니다. 이 회사는 AWS Lake Formation을 사용하여 데이터 레이크를 관리합니다. 이 회사의 데이터 과학 팀은 분석 목적으로 해당 계정의 선택적 데이터를 회사의 엔지니어링 팀과 안전하게 공유하려고 합니다.
어떤 솔루션이 최소한의 운영 오버헤드로 이러한 요구 사항을 충족할까요?
A. 필요한 데이터를 공통 계정으로 복사합니다. 해당 계정에서 IAM 액세스 역할을 만듭니다. 엔지니어링 팀 계정의 사용자를 신뢰 할 수 있는 엔터티로 포함하는 권한 정책을 지정하여 액세스를 부여합니다.
B. 데이터가 저장된 각 계정에서 Lake Formation 권한 부여 명령을 사용하여 필요한 엔지니어링 팀 사용자가 데이터에 액세스 수 있도록 허용합니다.
C. AWS Data Exchange를 사용하여 필요한 데이터를 필요한 엔지니어링 팀 계정에 비공개로 게시합니다.
D. Lake Formation 태그 기반 액세스 제어를 사용하여 엔지니어링 팀 계정에 필요한 데이터에 대한 교차 계정 권한을 승인하고 부여합니다.
D. Lake Formation 태그 기반 액세스 제어를 사용하여 엔지니어링 팀 계정에 필요한 데이터에 대한 교차 계정 권한을 승인하고 부여합니다.
Lake Formation 태그 기반 액세스 제어(TBAC)의 효율성
- Lake Formation TBAC는 데이터에 태그를 적용하고 태그를 기준으로 액세스를 제어할 수 있습니다.
- 이를 통해 데이터 과학 팀은 필요한 데이터를 안전하게 엔지니어링 팀과 공유할 수 있습니다.
- 교차 계정 데이터 공유를 단순화하며 운영 오버헤드를 줄입니다.
교차 계정 권한 승인 및 관리
- Lake Formation의 태그 기반 권한은 데이터를 여러 AWS 계정의 사용자 및 역할과 효율적으로 공유할 수 있는 기능을 제공합니다.
- 복잡한 IAM 역할 설정 없이도 쉽게 데이터 공유가 가능합니다.
보안 및 최소 권한 원칙 준수
- TBAC를 사용하면 데이터 과학 팀은 필요한 데이터만 엔지니어링 팀과 공유할 수 있습니다.
- 모든 데이터에 대한 액세스 권한을 부여하지 않고, 데이터 선택성을 유지합니다.
■ Question #443
한 회사가 AWS에서 확장 가능한 웹 애플리케이션을 호스팅하려고 합니다. 이 애플리케이션은 전 세계 여러 지역의 사용자가 액세스할 수 있습니다. 애플리케이션 사용자는 최대 기가바이트 크기의 고유한 데이터를 다운로드하고 업로드할 수 있습니다. 개발팀은 업로드 및 다운로드 지연 시간을 최소화하고 성능을 극대화하는 비용 효율적인 솔루션을 원합니다.
솔루션 아키텍트는 이를 달성하기 위해 무엇을 해야 할까요?
A. Amazon S3를 Transfer Acceleration과 함께 사용하여 애플리케이션을 호스팅합니다.
B. CacheControl 헤더와 함께 Amazon S3를 사용하여 애플리케이션을 호스팅합니다.
C. Amazon EC2와 Auto Scaling 및 Amazon CloudFront를 사용하여 애플리케이션을 호스팅합니다.
D. Amazon EC2와 Auto Scaling 및 Amazon ElastiCache를 사용하여 애플리케이션을 호스팅합니다.
A. Amazon S3를 Transfer Acceleration과 함께 사용하여 애플리케이션을 호스팅합니다.
Amazon S3 Transfer Acceleration는 Amazon S3로 데이터를 업로드하거나 다운로드할 때 네트워크 지연을 줄이고 전송 속도를 높이는 기능입니다. Transfer Acceleration은 Amazon CloudFront의 글로벌 엣지 네트워크를 활용하여 데이터를 최적의 경로로 전송하므로, 전송 성능이 개선됩니다. 이 기능은 특히 지리적으로 멀리 떨어진 클라이언트와 S3 버킷 간의 데이터 전송에서 유용합니다.
Transfer Acceleration의 성능 이점
- Amazon S3 Transfer Acceleration은 Amazon CloudFront의 엣지 로케이션 네트워크를 활용하여 데이터 업로드 및 다운로드 속도를 높입니다.
- 사용자와 애플리케이션 간의 지리적 거리가 멀어도 성능을 극대화할 수 있습니다.
대규모 데이터 처리
- 최대 기가바이트 크기의 데이터를 전송하는 애플리케이션에 적합합니다.
- Transfer Acceleration은 네트워크 최적화 및 빠른 데이터 이동을 지원하여 사용자 경험을 향상합니다.
비용 효율성
- 데이터 전송 비용은 최소화하면서도 전송 속도는 증가합니다.
- Transfer Acceleration은 특히 전 세계 사용자를 대상으로 대규모 데이터를 처리할 때 비용 대비 성능이 우수합니다.
글로벌 사용자 지원
- Transfer Acceleration은 전 세계적으로 분산된 엣지 로케이션을 사용하여 글로벌 사용자에게 낮은 지연 시간을 제공합니다.
■ Question #444
한 회사가 자사 애플리케이션에 대한 안정적인 아키텍처를 설계하기 위해 솔루션 아키텍트를 고용했습니다. 이 애플리케이션은 Amazon RDS DB 인스턴스 하나와 웹 서버를 실행하는 수동으로 프로비저닝된 Amazon EC2 인스턴스 두 개로 구성되어 있습니다. EC2 인스턴스는 단일 가용성 영역에 있습니다.
직원이 최근에 DB 인스턴스를 삭제했고 그 결과 애플리케이션을 24시간 동안 사용할 수 없었습니다. 이 회사는 환경의 전반적인 안정성에 대해 우려하고 있습니다.
솔루션 아키텍트는 애플리케이션 인프라의 안정성을 극대화하기 위해 무엇을 해야 할까요?
A. EC2 인스턴스 하나를 삭제하고 다른 EC2 인스턴스에서 종료 보호를 활성화합니다. DB 인스턴스를 Multi-AZ로 업데이트하고 삭제 보호를 활성화합니다.
B. DB 인스턴스를 Multi-AZ로 업데이트하고 삭제 보호를 활성화합니다. EC2 인스턴스를 Application Load Balancer 뒤에 배치하고 여러 가용성 영역에 걸쳐 EC2 자동 확장 그룹에서 실행합니다.
C. Amazon API Gateway 및 AWS Lambda 함수와 함께 추가 DB 인스턴스를 만듭니다. API Gateway를 통해 Lambda 함수를 호출하도록 애플리케이션을 구성합니다. Lambda 함수가 두 DB 인스턴스에 데이터를 쓰도록 합니다.
D. 여러 가용 영역에 여러 서브넷이 있는 EC2 자동 확장 그룹에 EC2 인스턴스를 배치합니다. 온디맨드 인스턴스 대신 스팟 인스턴스를 사용합니다. 인스턴스 상태를 모니터링하기 위해 Amazon CloudWatch 알람을 설정합니다. DB 인스턴스를 Multi-AZ로 업데이트하고 삭제 보호를 활성화합니다.
B. DB 인스턴스를 Multi-AZ로 업데이트하고 삭제 보호를 활성화합니다. EC2 인스턴를 Application Load Balancer 뒤에 배치하고 여러 가용성 영역에 걸쳐 EC2 자동 확장 그룹에서 실행합니다.
Amazon RDS DB 인스턴스를 Multi-AZ 배포로 업데이트 및 삭제 보호 활성화
- Multi-AZ 배포는 장애 발생 시 자동 장애 조치(failover)를 제공하여 데이터베이스의 고가용성을 보장합니다.
- 삭제 보호 기능은 실수로 인스턴스를 삭제하는 것을 방지합니다.
웹 서버를 Application Load Balancer(ALB)와 자동 확장 그룹(Auto Scaling Group)에 배치하고 여러 가용성 영역(AZ)에 분산
- ALB를 사용하면 트래픽을 여러 EC2 인스턴스에 분산하여 가용성을 높일 수 있습니다.
- Auto Scaling Group은 EC2 인스턴스를 필요에 따라 동적으로 추가 또는 제거하여 안정성을 유지합니다.
- 여러 AZ에 걸친 배포는 단일 AZ 장애 발생 시에도 서비스 중단을 방지합니다.
■ Question #445
한 회사가 회사 데이터 센터의 대규모 NAS(Network Attached Storage) 시스템에 700테라바이트의 데이터를 저장하고 있습니다. 이 회사는 10Gbps AWS Direct Connect 연결을 갖춘 하이브리드 환경을 보유하고 있습니다.
규제 기관의 감사를 받은 후 회사는 90일 이내에 데이터를 클라우드로 이동할 수 있습니다. 회사는 데이터를 중단 없이 효율적으로 이동해야 합니다. 회사는 이전 기간 동안에도 데이터에 액세스하고 업데이트할 수 있어야 합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?
A. 기업 데이터 센터에 AWS DataSync 에이전트를 생성합니다. 데이터 전송 작업 생성 Amazon S3 버킷으로의 전송을 시작합니다.
B. 데이터를 AWS Snowball Edge Storage Optimized 디바이스에 백업합니다. 디바이스를 AWS 데이터 센터로 배송합니다. 온프레미스 파일 시스템에 대상 Amazon S3 버킷을 탑재합니다.
C. rsync를 사용하여 Direct Connect 연결을 통해 로컬 스토리지에서 지정된 Amazon S3 버킷으로 데이터를 직접 복사합니다.
D. 데이터를 테이프에 백업합니다. 테이프를 AWS 데이터 센터로 배송합니다. 온프레미스 파일 시스템에 대상 Amazon S3 버킷을 탑재합니다.
A. 기업 데이터 센터에 AWS DataSync 에이전트를 생성합니다. 데이터 전송 작업 생성 Amazon S3 버킷으로의 전송을 시작합니다.
AWS DataSync는 온프레미스 데이터를 Amazon S3로 빠르고 효율적으로 이동할 수 있는 서비스입니다. DataSync는 대규모 데이터 전송을 위해 설계되었으며 데이터의 중단 없이 액세스 및 업데이트를 허용합니다
장점
- DataSync는 네트워크 대역폭을 최적화하고 전송 중 데이터 암호화를 제공합니다.
- 지속적으로 데이터에 액세스하고 업데이트할 수 있으며 증분 복사를 통해 효율적으로 작동합니다.
- DataSync는 기존 Direct Connect 연결을 사용하여 데이터를 전송할 수 있습니다.
- 90일의 마감 시간을 충족할 수 있습니다.
■ Question #446
한 회사가 Amazon S3 버킷에 PDF 형식으로 데이터를 저장합니다. 이 회사는 모든 새 데이터와 기존 데이터를 7년 동안 Amazon S3에 보관해야 하는 법적 요구 사항을 따라야 합니다.
어떤 솔루션이 가장 적은 운영 오버헤드로 이러한 요구 사항을 충족할까요?
A. S3 버킷에 대해 S3 버전 관리 기능을 켭니다. 7년 후에 데이터를 삭제하도록 S3 라이프사이클을 구성합니다. 모든 S3 객체에 대해 다중 요소 인증(MFA) 삭제를 구성합니다.
B. S3 버킷에 대한 거버넌스 보존 모드로 S3 객체 잠금을 켭니다. 보존 기간을 7년 후 만료되도록 설정합니다. 기존 데이터를 규정 준수 상태로 만들기 위해 모든 기존 객체를 다시 복사합니다.
C. S3 버킷에 대한 규정 준수 보존 모드로 S3 객체 잠금을 켭니다. 보존 기간을 7년 후 만료되도록 설정합니다. 기존 객체를 모두 다시 복사하여 기존 데이터를 규정 준수 상태로 만듭니다.
D. S3 버킷에 대한 규정 준수 보관 모드로 S3 객체 잠금을 켭니다. 보관 기간을 7년 후 만료되도록 설정합니다. S3 일괄 작업을 사용하여 기존 데이터를 규정 준수 상태로 만듭니다.
D. S3 버킷에 대한 규정 준수 보관 모드로 S3 객체 잠금을 켭니다. 보관 기간을 7년 후 만료되도록 설정합니다. S3 일괄 작업을 사용하여 기존 데이터를 규정 준수 상태로 만듭니다.
- S3 객체 잠금(Object Lock)은 데이터를 삭제 또는 덮어쓰지 못하도록 방지하여 규정 준수 요구 사항을 충족할 수 있도록 설계되었습니다. 규정 준수 보존 모드는 데이터가 지정된 보존 기간 동안 삭제되지 않도록 보장합니다.
- S3 일괄 작업 (Batch Operations)을 사용하면 기존 데이터에 객체 잠금을 쉽게 적용할 수 있습니다.
■ Question #447
한 회사에는 Amazon API Gateway에서 호출하는 AWS Lambda 함수에서 실행되는 상태 없는 웹 애플리케이션이 있습니다. 이 회사는 여러 AWS 지역에 애플리케이션을 배포하여 지역 장애 조치 기능을 제공하고자 합니다.
솔루션 아키텍트는 트래픽을 여러 지역으로 라우팅하기 위해 무엇을 해야 합니까?
A. 각 지역에 대한 Amazon Route 53 상태 검사를 만듭니다. 액티브-액티브 장애 조치 구성을 사용합니다.
B. 각 리전에 대한 오리진을 사용하여 Amazon CloudFront 배포를 만듭니다. CloudFront 상태 확인을 사용하여 트래픽을 라우팅합니다.
C. 트랜짓 게이트웨이를 만듭니다. 각 지역의 API 게이트웨이 엔드포인트에 트랜짓 게이트웨이를 연결합니다. 트랜짓 게이트웨이를 구성하여 요청을 라우팅합니다.
D. 기본 리전에 애플리케이션 로드 밸런서를 만듭니다. 대상 그룹을 각 리전의 API Gateway 엔드포인트 호스트 이름을 가리키도록 설정합니다.
A. 각 지역에 대한 Amazon Route 53 상태 검사를 만듭니다. 액티브-액티브 장애 조치 구성을 사용합니다.
- Amazon Route 53은 여러 리전에 배포된 리소스에 대해 트래픽 라우팅 및 장애 조치 기능을 제공합니다. Route 53의 상태 검사를 활용하면 지역별 API Gateway 엔드포인트의 상태를 지속적으로 확인할 수 있습니다. 액티브-액티브 장애 조치 구성은 트래픽을 가용한 모든 리전에 분산시키며, 문제가 발생한 리전을 자동으로 우회합니다.
■ Question #448
한 회사에 Management와 Production이라는 두 개의 VPC가 있습니다. Management VPC는 고객 게이트웨이를 통해 VPN을 사용하여 데이터 센터의 단일 장치에 연결합니다. Production VPC는 두 개의 AWS Direct Connect 연결이 연결된 가상 사설 게이트웨이를 사용합니다. Management와 Production VPC는 모두 단일 VPC 피어링 연결을 사용하여 애플리케이션 간 통신을 허용합니다.
이 아키텍처에서 단일 장애 지점을 완화하기 위해 솔루션 아키텍트는 무엇을 해야 합니까?
A. 관리 및 프로덕션 VPC 사이에 VPN 세트를 추가합니다.
B. 두 번째 가상 사설 게이트웨이를 추가하고 관리 VPC에 연결합니다.
C. 두 번째 고객 게이트웨이 장치에서 관리 VPC에 두 번째 VPN 세트를 추가합니다.
D. 관리 VPC와 프로덕션 VPC 사이에 두 번째 VPC 피어링 연결을 추가합니다.
C. 두 번째 고객 게이트웨이 장치에서 관리 VPC에 두 번째 VPN 세트를 추가합니다.
- 현재 아키텍처에서 Management VPC는 단일 고객 게이트웨이를 통해 VPN 연결을 사용하고 있습니다. 이는 단일 장애 지점(SPOF)입니다. 두 번째 고객 게이트웨이 장치와 VPN 연결을 추가하여 Management VPC의 가용성을 높일 수 있습니다. 이로 인해 고객 게이트웨이 장치의 장애 발생 시에도 연결을 유지할 수 있습니다.
■ Question #449
한 회사가 Oracle 데이터베이스에서 애플리케이션을 실행합니다. 이 회사는 데이터베이스, 백업 관리 및 데이터 센터 유지 관리를 위한 리소스가 제한되어 AWS로 빠르게 마이그레이션할 계획입니다. 이 애플리케이션은 권한 있는 액세스가 필요한 타사 데이터베이스 기능을 사용합니다.
어떤 솔루션이 이 회사가 데이터베이스를 AWS로 가장 비용 효율적으로 마이그레이션하는 데 도움이 될까요?
A. 데이터베이스를 Amazon RDS for Oracle로 마이그레이션합니다. 타사 기능을 클라우드 서비스로 대체합니다.
B. 데이터베이스를 Amazon RDS Custom for Oracle로 마이그레이션합니다. 타사 기능을 지원하도록 데이터베이스 설정을 사용자 지정합니다.
C. Oracle용 Amazon EC2 Amazon Machine Image(AMI)로 데이터베이스를 마이그레이션합니다. 타사 기능을 지원하도록 데이터베이스 설정을 사용자 지정합니다.
D. Oracle APEX에 대한 종속성을 제거하기 위해 애플리케이션 코드를 다시 작성하여 데이터베이스를 Amazon RDS for PostgreSQL로 마이그레이션합니다.
B. 데이터베이스를 Amazon RDS Custom for Oracle로 마이그레이션합니다. 타사 기능을 지원하도록 데이터베이스 설정을 사용자 지정합니다.
- Amazon RDS Custom for Oracle은 관리형 서비스의 편리함을 제공하면서도 타사 데이터베이스 기능과 같은 특정 사용자 지정 요구 사항을 지원합니다. 이 서비스는 권한 있는 액세스(예: SYS 및 SYSTEM 권한)와 사용자 지정 구성을 가능하게 하며, Oracle Database의 독특한 기능을 사용하는 애플리케이션에 적합합니다.
■ Question #450
한 회사에 단일 서버에 있는 3계층 웹 애플리케이션이 있습니다. 이 회사는 애플리케이션을 AWS 클라우드로 마이그레이션하려고 합니다. 또한 이 회사는 애플리케이션이 AWS Well-Architected Framework와 일치하고 보안, 확장성 및 복원성을 위한 AWS 권장 모범 사례와 일관되기를 원합니다.
이러한 요구 사항을 충족하는 솔루션 조합은 무엇입니까? (세 가지를 선택하십시오.)
A. 애플리케이션의 기존 아키텍처를 사용하여 두 개의 가용성 영역에 걸쳐 VPC를 만듭니다. EC2 자동 확장 그룹이 있는 각 가용성 영역의 프라이빗 서브넷에 있는 Amazon EC2 인스턴스에서 기존 아키텍처를 사용하여 애플리케이션을 호스팅합니다. 보안 그룹 및 네트워크 액세스 제어 목록(네트워크 ACL)으로 EC2 인스턴스를 보호합니다.
B. 데이터베이스 계층에 대한 액세스를 제어하기 위해 보안 그룹과 네트워크 액세스 제어 목록(네트워크 ACL)을 설정합니다. 프라이빗 서브넷에 단일 Amazon RDS 데이터베이스를 설정합니다.
C. 두 개의 가용성 영역에 걸쳐 VPC를 만듭니다. 웹 계층, 애플리케이션 계층 및 데이터베이스 계층을 호스팅하도록 애플리케이션을 리팩토링합니다. 웹 계층 및 애플리케이션 계층에 대한 자동 확장 그룹이 있는 자체 프라이빗 서브넷에서 각 계층을 호스팅합니다.
D. 단일 Amazon RDS 데이터베이스를 사용합니다. 애플리케이션 계층 보안 그룹에서만 데이터베이스 액세스를 허용합니다.
E. 웹 계층 앞에 Elastic Load Balancer를 사용합니다. 각 계층의 보안 그룹에 대한 참조를 포함하는 보안 그룹을 사용하여 액세스를 제어합니다.
F. 프라이빗 서브넷에서 Amazon RDS 데이터베이스 Multi-AZ 클러스터 배포를 사용합니다. 애플리케이션 계층 보안 그룹에서만 데이터베이스 액세스를 허용합니다.
C. 두 개의 가용성 영역에 걸쳐 VPC를 만듭니다. 웹 계층, 애플리케이션 계층 및 데이터베이스 계층을 호스팅하도록 애플리케이션을 리팩토링합니다. 웹 계층 및 애플리케이션 계층에 대한 자동 확장 그룹이 있는 자체 프라이빗 서브넷에서 각 계층을 호스팅합니다.
장점: 각 계층을 독립적으로 호스팅하고 자동 확장 그룹을 사용하는 것은 확장성과 복원성을 극대화합니다.
E. 웹 계층 앞에 Elastic Load Balancer를 사용합니다. 각 계층의 보안 그룹에 대한 참조를 포함하는 보안 그룹을 사용하여 액세스를 제어합니다.
장점: Elastic Load Balancer는 여러 가용성 영역에 걸쳐 트래픽을 분산하여 확장성과 복원성을 향상시킵니다.
F. 프라이빗 서브넷에서 Amazon RDS 데이터베이스 Multi-AZ 클러스터 배포를 사용합니다. 애플리케이션 계층 보안 그룹에서만 데이터베이스 액세스를 허용합니다.
장점: Multi-AZ 배포는 데이터베이스의 고가용성을 보장하고 보안 그룹을 통해 안전하게 액세스를 제어합니다.
C. 애플리케이션 계층을 리팩토링하고 자동 확장 그룹과 가용성 영역을 활용
E. Elastic Load Balancer를 사용하여 웹 계층 트래픽을 분산
F. Multi-AZ RDS를 사용하여 고가용성과 복원성을 제공
■ Question #451
회사에서 애플리케이션과 데이터베이스를 AWS 클라우드로 마이그레이션하고 있습니다. 이 회사는 Amazon Elastic Container Service(Amazon ECS), AWS Direct Connect, Amazon RDS를 사용할 것입니다.
회사의 운영팀은 어떤 활동을 관리할까요? (세 가지를 선택하세요.)
A. Amazon RDS 인프라 계층, 운영 체제, 플랫폼 관리
B. Amazon RDS DB 인스턴스 생성 및 예약된 유지 관리 기간 구성
C. 모니터링, 패치 관리, 로그 관리, 호스트 침입 탐지를 위한 Amazon ECS의 추가 소프트웨어 구성 요소 구성
D. Amazon RDS의 모든 마이너 및 메이저 데이터베이스 버전에 대한 패치 설치
E. 데이터 센터에서 Amazon RDS 인프라의 물리적 보안 보장
F. Direct Connect를 통해 전송되는 데이터 암호화
AWS는 공유 책임 모델을 따릅니다. 이 모델에서 AWS는 인프라의 물리적 보안, 기본 하드웨어, 네트워킹을 관리하고, 고객은 애플리케이션과 데이터베이스의 설정, 구성 및 데이터를 관리합니다.
B. Amazon RDS DB 인스턴스 생성 및 예약된 유지 관리 기간 구성
- 운영팀 책임: 운영팀은 RDS DB 인스턴스를 생성하고 유지 관리 기간을 구성할 수 있습니다. 이는 고객의 역할입니다.
C. 모니터링, 패치 관리, 로그 관리, 호스트 침입 탐지를 위한 Amazon ECS의 추가 소프트웨어 구성 요소 구성
- 운영팀 책임: ECS는 컨테이너 관리 서비스이므로, 고객은 애플리케이션 내에서 실행되는 추가 소프트웨어 구성 요소(예: 모니터링 도구 및 보안 도구)를 관리해야 합니다.
F. Direct Connect를 통해 전송되는 데이터 암호화
- 운영팀 책임: Direct Connect는 기본적으로 암호화되지 않으므로, 데이터 암호화를 추가적으로 구성하는 것은 고객의 책임입니다.
■ Question #452
한 회사가 Amazon EC2 인스턴스에서 Java 기반 작업을 실행합니다. 작업은 매시간 실행되고 실행하는 데 10초가 걸립니다. 작업은 예약된 간격으로 실행되고 1GB의 메모리를 사용합니다. 인스턴스의 CPU 사용률은 작업이 사용 가능한 최대 CPU를 사용하는 짧은 서지를 제외하고는 낮습니다. 이 회사는 작업 실행 비용을 최적화하려고 합니다.
이러한 요구 사항을 충족하는 솔루션은 무엇입니까?
A. AWS App2Container(A2C)를 사용하여 작업을 컨테이너화합니다. 0.5 가상 CPU(vCPU)와 1GB 메모리가 있는 AWS Fargate에서 Amazon Elastic Container Service(Amazon ECS) 작업으로 작업을 실행합니다.
B. 1GB 메모리가 있는 AWS Lambda 함수에 코드를 복사합니다. 매시간 코드를 실행하도록 Amazon EventBridge 예약 규칙을 만듭니다.
C. AWS App2Container(A2C)를 사용하여 작업을 컨테이너화합니다. 기존 Amazon Machine Image(AMI)에 컨테이너를 설치합니다. 작업이 완료되면 일정이 컨테이너를 중지하는지 확인합니다.
D. 작업 완료 시 EC2 인스턴스를 중지하고 다음 작업이 시작되면 EC2 인스턴스를 다시 시작하도록 기존 일정을 구성합니다.
회사는 작업 실행 비용을 최적화하려고 하며, 작업은 매시간 실행되며 짧은 실행 시간(10초)과 낮은 메모리 요구 사항(1GB)을 가집니다. 이러한 요구 사항은 서버리스 및 이벤트 기반 아키텍처에 이상적입니다.
B. 1GB 메모리가 있는 AWS Lambda 함수에 코드를 복사합니다. 매시간 코드를 실행하도록 Amazon EventBridge 예약 규칙을 만듭니다.
- 적합성: Lambda는 작업의 간헐적 실행과 짧은 지속 시간에 이상적입니다. 또한 1GB 메모리는 Lambda의 제한 내에 있으며 EventBridge 예약 규칙을 통해 작업 실행을 완벽하게 제어할 수 있습니다.
- 비용 효율성: 사용한 리소스에 대해서만 비용이 청구되므로, 가장 비용 효율적인 옵션입니다.
■ Question #453
한 회사에서 Amazon EC2 데이터와 여러 Amazon S3 버킷에 대한 백업 전략을 구현하려고 합니다. 규제 요구 사항으로 인해 회사는 특정 기간 동안 백업 파일을 보관해야 합니다. 회사는 보관 기간 동안 파일을 변경해서는 안 됩니다.
어떤 솔루션이 이러한 요구 사항을 충족할까요?
A. AWS Backup을 사용하여 거버넌스 모드에서 볼트 잠금이 있는 백업 볼트를 만듭니다. 필요한 백업 계획을 만듭니다.
B. Amazon Data Lifecycle Manager를 사용하여 필요한 자동 스냅샷 정책을 만듭니다.
C. Amazon S3 File Gateway를 사용하여 백업을 만듭니다. 적절한 S3 Lifecycle 관리를 구성합니다.
D. AWS Backup을 사용하여 규정 준수 모드에서 볼트 잠금이 있는 백업 볼트를 만듭니다. 필요한 백업 계획을 만듭니다.
D. AWS Backup을 사용하여 규정 준수 모드에서 볼트 잠금이 있는 Backup Vault 를 만듭니다. 필요한 백업 계획을 만듭니다.
- AWS Backup Vault Lock은 데이터를 특정 기간 동안 삭제하거나 수정하지 못하도록 보장합니다.
- 규정 준수 모드(Compliance Mode)는 볼트를 생성한 사용자를 포함한 누구도 데이터 변경 또는 삭제를 할 수 없도록 강제합니다.
- 백업 계획을 사용하여 EC2 데이터 및 S3 버킷의 데이터를 자동으로 백업할 수 있습니다.
- 적합성: 규제 요구 사항과 완벽히 일치하며, 데이터 불변성을 보장합니다.
AWS Backup Vault Lock은 두 가지 모드를 제공합니다 .
- 거버넌스 모드(Governance Mode): 적절한 권한이 있으면 설정 변경 가능.
- 규정 준수 모드(Compliance Mode): 데이터 변경 및 삭제 불가능.
- 규정 준수 모드에서는 백업 보관 기간 동안 데이터 불변성을 강제하며, 이는 규제 요구 사항에 적합합니다.
■ Question #454
한 회사가 여러 AWS 지역과 계정에 리소스를 보유하고 있습니다. 새로 고용된 솔루션 아키텍트는 이전 직원이 리소스 인벤토리에 대한 세부 정보를 제공하지 않았다는 것을 발견했습니다. 솔루션 아키텍트는 모든 계정에서 다양한 워크로드의 관계 세부 정보를 빌드하고 매핑해야 합니다.
어떤 솔루션이 가장 운영적으로 효율적인 방식으로 이러한 요구 사항을 충족할까요?
A. AWS Systems Manager Inventory를 사용하여 자세한 보기 보고서에서 맵 보기를 생성합니다.
B. AWS Step Functions를 사용하여 워크로드 세부 정보를 수집합니다. 워크로드의 아키텍처 다이어그램을 수동으로 빌드합니다.
C. AWS에서 Workload Discovery를 사용하여 워크로드의 아키텍처 다이어그램을 생성합니다.
D. AWS X-Ray를 사용하여 워크로드 세부 정보를 봅니다. 관계가 있는 아키텍처 다이어그램을 빌드합니다.
이 시나리오에서 요구 사항은 AWS의 여러 계정 및 리전에서 리소스와 워크로드의 관계를 파악하고 매핑하는 것입니다. 이를 통해 솔루션 아키텍트가 전체적인 아키텍처를 시각화하고 이해해야 합니다.
C. AWS에서 Workload Discovery를 사용하여 워크로드의 아키텍처 다이어그램을 생성합니다.
- AWS Workload Discovery(Cloud Discovery 서비스)는 AWS 계정 및 리전 전체에서 리소스를 자동으로 탐지하고 워크로드 간 관계를 매핑합니다.
- 이 서비스는 AWS 서비스 사용량, 네트워크 트래픽, 리소스 관계를 시각적으로 표현하는 아키텍처 다이어그램을 자동으로 생성할 수 있습니다.
- 여러 계정 및 리전에서 워크로드를 시각화하고 분석하는 데 적합하며, 아키텍처를 지속적으로 업데이트할 수 있습니다.
■ Question #455
회사에서 AWS Organizations를 사용합니다. 이 회사는 일부 AWS 계정을 다른 예산으로 운영하고자 합니다. 이 회사는 알림을 받고 특정 기간 동안 할당된 예산 임계값에 도달하면 AWS 계정에서 추가 리소스 프로비저닝을 자동으로 방지하고자 합니다.
이러한 요구 사항을 충족하는 솔루션 조합은 무엇입니까? (세 가지 선택)
A. AWS Budgets를 사용하여 예산을 만듭니다. 필요한 AWS 계정의 비용 및 사용 보고서 섹션에서 예산 금액을 설정합니다.
B. AWS Budgets를 사용하여 예산을 만듭니다. 필요한 AWS 계정의 청구 대시보드에서 예산 금액을 설정합니다.
C. 필요한 권한으로 예산 작업을 실행할 AWS Budgets의 IAM 사용자를 만듭니다.
D. 필요한 권한으로 예산 작업을 실행할 AWS Budgets의 IAM 역할을 만듭니다.
E. 각 계정이 예산 임계값에 도달하면 회사에 알리는 알림을 추가합니다. 추가 리소스 프로비저닝을 방지하기 위해 적절한 구성 규칙으로 만든 IAM ID를 선택하는 예산 작업을 추가합니다.
F. 각 계정이 예산 임계값에 도달하면 회사에 알리는 알림을 추가합니다. 추가 리소스 프로비저닝을 방지하기 위해 적절한 서비스 제어 정책(SCP)으로 생성된 IAM ID를 선택하는 예산 작업을 추가합니다.
B. AWS Budgets를 사용하여 예산을 만듭니다. 필요한 AWS 계정의 청구 대시보드에서 예산 금액을 설정합니다.
- 청구 대시보드에서 예산을 설정하면 각 계정의 비용 관리를 시작하기에 가장 적합한 출발점이 됩니다.
- AWS Budgets는 특정 예산 임계값에 도달했을 때 알림을 보낼 수 있으며, 이를 기반으로 자동화된 작업을 트리거할 수 있습니다.
D. 필요한 권한으로 예산 작업을 실행할 AWS Budgets의 IAM 역할을 만듭니다.
- 예산 작업(예: 리소스 제한)을 실행하기 위해 필요한 권한을 IAM 역할을 통해 제공합니다.
- IAM 역할은 확장성과 중앙 집중식 관리가 가능하므로, 여러 계정을 사용하는 AWS Organizations 환경에서 필수적입니다.
F. 각 계정이 예산 임계값에 도달하면 회사에 알리는 알림을 추가합니다. 추가 리소스 프로비저닝을 방지하기 위해 적절한 서비스 제어 정책(SCP)으로 생성된 IAM ID를 선택하는 예산 작업을 추가합니다.
- AWS Organizations의 SCP(Service Control Policies)는 계정에서 리소스 프로비저닝을 제한하는 가장 강력한 방법입니다.
- 예산 임계값에 도달했을 때 SCP를 트리거하여 추가 리소스 생성이나 비용 증가를 방지할 수 있습니다.
■ Question #456
한 회사가 한 AWS 리전의 Amazon EC2 인스턴스에서 애플리케이션을 실행합니다. 이 회사는 EC2 인스턴스를 두 번째 리전에 백업하려고 합니다. 또한 이 회사는 두 번째 리전에 EC2 리소스를 프로비저닝하고 한 AWS 계정에서 EC2 인스턴스를 중앙에서 관리하려고 합니다.
이러한 요구 사항을 가장 비용 효율적으로 충족하는 솔루션은 무엇입니까?
A. 두 번째 리전에 비슷한 수의 EC2 인스턴스가 있는 재해 복구(DR) 계획을 만듭니다. 데이터 복제를 구성합니다.
B. EC2 인스턴스의 특정 시점 Amazon Elastic Block Store(Amazon EBS) 스냅샷을 만듭니다. 스냅샷을 두 번째 리전에 주기적으로 복사합니다.
C. AWS Backup을 사용하여 백업 계획을 만듭니다. EC2 인스턴스에 대한 두 번째 리전에 대한 교차 리전 백업을 구성합니다.
D. 두 번째 리전에 비슷한 수의 EC2 인스턴스를 배포합니다. AWS DataSync를 사용하여 소스 리전에서 두 번째 리전으로 데이터를 전송합니다.
C. AWS Backup을 사용하여 백업 계획을 만듭니다. EC2 인스턴스에 대한 두 번째 리전에 대한 교차 리전 백업을 구성합니다.
이점
- AWS Backup은 EC2와 EBS를 포함하여 여러 AWS 리소스의 백업을 중앙에서 관리할 수 있는 서비스입니다.
- 교차 리전 백업 기능을 통해 두 번째 리전에 자동으로 백업 데이터를 저장할 수 있습니다.
- 관리 작업을 최소화하며 비용 효율적으로 백업을 관리할 수 있습니다.
제한
- 백업 데이터를 복원하려면 시간이 걸릴 수 있습니다. 그러나 운영 환경에서는 일반적으로 백업 주기가 충분합니다.
- 비용 효율성: AWS Backup은 EC2와 EBS를 효율적으로 백업하며, 데이터 보관 비용이 상대적으로 저렴합니다.
- 중앙 관리: AWS Backup은 모든 백업 작업을 중앙에서 관리하고 모니터링할 수 있습니다.
- 교차 리전 백업: 두 번째 리전에 자동으로 백업을 저장하므로 재해 복구 시 빠르게 복원할 수 있습니다.
- 자동화: 백업 프로세스와 복사 작업이 자동화되므로 관리 부담이 적습니다.
■ Question #457
AWS를 사용하는 한 회사가 제품 제조업체로 데이터를 전송하는 애플리케이션을 구축하고 있습니다. 이 회사에는 자체 ID 공급자(IdP)가 있습니다. 이 회사는 사용자가 애플리케이션을 사용하여 데이터를 전송하는 동안 IdP가 애플리케이션 사용자를 인증하기를 원합니다. 이 회사는 Applicability Statement 2(AS2) 프로토콜을 사용해야 합니다.
어떤 솔루션이 이러한 요구 사항을 충족할까요?
A. AWS DataSync를 사용하여 데이터를 전송합니다. IdP 인증을 위한 AWS Lambda 함수를 만듭니다.
B. Amazon AppFlow 흐름을 사용하여 데이터를 전송합니다. IdP 인증을 위한 Amazon Elastic Container Service(Amazon ECS) 작업을 만듭니다.
C. AWS Transfer Family를 사용하여 데이터를 전송합니다. IdP 인증을 위한 AWS Lambda 함수를 만듭니다.
D. AWS Storage Gateway를 사용하여 데이터를 전송합니다. IdP 인증을 위한 Amazon Cognito ID 풀을 만듭니다.
C. AWS Transfer Family를 사용하여 데이터를 전송합니다. IdP 인증을 위한 AWS Lambda 함수를 만듭니다.
AWS Transfer Family
- Transfer Family는 AS2를 포함한 여러 파일 전송 프로토콜(SFTP, FTPS, FTP, AS2)을 지원합니다.
- Transfer Family의 AS2 기능은 제조업체와의 데이터 교환을 위한 표준 프로토콜 요건을 충족합니다.
IdP 인증
- Transfer Family는 외부 IdP와 통합하여 사용자 인증을 지원합니다. Lambda를 통해 사용자 인증 로직을 추가로 구성할 수 있습니다.
■ Question #458
솔루션 아키텍트가 현금 환급 서비스를 위해 Amazon API Gateway에서 RESTAPI를 설계하고 있습니다. 이 애플리케이션은 계산 리소스에 1GB의 메모리와 2GB의 스토리지가 필요합니다. 이 애플리케이션은 데이터가 관계형 형식이어야 합니다.
어떤 추가 AWS 서비스 조합이 최소한의 관리 노력으로 이러한 요구 사항을 충족할 수 있을까요? (두 가지를 선택하세요.)
A. Amazon EC2
B. AWS Lambda
C. Amazon RDS
D. Amazon DynamoDB
E. Amazon Elastic Kubernetes Services(Amazon EKS)
이 시나리오에서 Amazon API Gateway와 함께 작동하는 애플리케이션을 설계하려면 다음 요구 사항을 충족해야 합니다.
- 계산 리소스: 1GB의 메모리와 2GB의 스토리지
- 데이터 요구 사항: 관계형 데이터 형식 필요
- 관리 최소화: 관리 작업을 줄이는 것이 중요
B. AWS Lambda
- Lambda는 서버리스 컴퓨팅 서비스로, 자동 확장과 최소한의 관리로 애플리케이션을 실행할 수 있습니다.
- Lambda의 최대 메모리 한도는 10GB이며, 애플리케이션의 요구 사항(1GB 메모리와 2GB 스토리지)을 충분히 지원합니다.
C. Amazon RDS
- RDS는 관계형 데이터베이스 서비스로, 자동화된 백업, 패치 관리, 모니터링 등을 제공하며 관리 부담을 줄입니다.
- 관계형 데이터를 처리해야 하므로, 데이터 요구 사항에 적합합니다.
■ Question #459
한 회사에서 AWS Organizations를 사용하여 여러 AWS 계정 내에서 워크로드를 실행합니다. 태그 지정 정책은 회사에서 태그를 만들 때 AWS 리소스에 부서 태그를 추가합니다.
회계 팀은 Amazon EC2 소비에 대한 지출을 결정해야 합니다. 회계 팀은 AWS 계정과 관계없이 비용을 책임지는 부서를 결정해야 합니다. 회계 팀은 조직 내의 모든 AWS 계정에 대한 AWS Cost Explorer에 액세스할 수 있으며 Cost Explorer에서 모든 보고서에 액세스해야 합니다.
가장 운영 효율적인 방식으로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?
A. Organizations 관리 계정 청구 콘솔에서 department라는 사용자 정의 비용 할당 태그를 활성화합니다. Cost Explorer에서 태그 이름으로 그룹화하여 비용 보고서 하나를 만들고 EC2로 필터링합니다.
B. Organizations 관리 계정 청구 콘솔에서 department라는 AWS 정의 비용 할당 태그를 활성화합니다. Cost Explorer에서 태그 이름으로 그룹화하여 비용 보고서 하나를 만들고 EC2로 필터링합니다.
C. Organizations 멤버 계정 청구 콘솔에서 department라는 사용자 정의 비용 할당 태그를 활성화합니다. Cost Explorer에서 태그 이름으로 그룹화하여 비용 보고서 하나를 만들고 EC2로 필터링합니다.
D. Organizations 멤버 계정 청구 콘솔에서 AWS에서 정의한 비용 할당 태그를 department로 활성화합니다. Cost Explorer에서 태그 이름으로 그룹화하여 비용 보고서 하나를 만들고 EC2로 필터링합니다.
이 시나리오에서는 회계 팀이 여러 AWS 계정의 EC2 소비 비용을 부서 태그를 기준으로 분석해야 하며, 모든 계정을 한 곳에서 관리할 수 있어야 합니다.
A. Organizations 관리 계정 청구 콘솔에서 department라는 사용자 정의 비용 할당 태그를 활성화합니다. Cost Explorer에서 태그 이름으로 그룹화하여 비용 보고서 하나를 만들고 EC2로 필터링합니다.
- Organizations 관리 계정에서 사용자 정의 비용 할당 태그(`department`)를 활성화하면 모든 계정에서 동일한 태그를 기반으로 비용을 분석할 수 있습니다
- Cost Explorer에서 태그 이름으로 그룹화하면 부서별로 비용을 구분할 수 있습니다.
- 관리 계정에서 작업을 수행하므로 조직 전체의 비용 데이터를 한 곳에서 관리할 수 있습니다.
■ Question #460
한 회사가 소프트웨어 서비스(SaaS) 애플리케이션 Salesforce 계정과 Amazon S3 간에 데이터를 안전하게 교환하려고 합니다. 이 회사는 AWS Key Management Service(AWS KMS) 고객 관리 키(CMK)를 사용하여 저장된 데이터를 암호화해야 합니다. 이 회사는 또한 전송 중인 데이터를 암호화해야 합니다. 이 회사는 Salesforce 계정에 대한 API 액세스를 활성화했습니다.
A. AWS Lambda 함수를 만들어 Salesforce에서 Amazon S3로 데이터를 안전하게 전송합니다.
B. AWS Step Functions 워크플로를 만듭니다. Salesforce에서 Amazon S3로 데이터를 안전하게 전송하는 작업을 정의합니다.
C. Amazon AppFlow 흐름을 만들어 Salesforce에서 Amazon S3로 데이터를 안전하게 전송합니다.
D. Salesforce에서 Salesforce에서 Amazon S3로 데이터를 안전하게 전송하기 위한 사용자 지정 커넥터를 만듭니다.
이 시나리오에서 요구 사항은 Salesforce와 Amazon S3 간에 데이터를 안전하게 교환하고, 저장 및 전송 중 데이터를 암호화하며, AWS Key Management Service (KMS) 고객 관리 키(CMK)를 사용하는 것입니다.
C. Amazon AppFlow 흐름을 만들어 Salesforce에서 Amazon S3로 데이터를 안전하게 전송합니다.
- Amazon AppFlow는 SaaS 애플리케이션(Salesforce 등)과 AWS 서비스(S3 등) 간 데이터를 안전하게 교환할 수 있는 완전 관리형 서비스입니다.
- AppFlow는 HTTPS를 통해 전송 중 데이터를 암호화하고, S3로 데이터를 전송할 때 AWS KMS CMK를 사용해 데이터를 암호화할 수 있습니다.
- Salesforce API 통합은 AppFlow에 내장되어 있어 별도의 커스텀 개발이 필요 없습니다.
- 데이터 교환은 수동 또는 예약된 주기로 자동화 가능합니다.
AWS SAA-C03 Examtopics (501 ~ 520) (0) | 2024.12.20 |
---|---|
AWS SAA-C03 Examtopics (481 ~ 500) (1) | 2024.12.20 |
AWS SAA-C03 Examtopics (461 ~ 480) (1) | 2024.12.20 |
AWS SAA-C03 Examtopics (421 ~ 440) (0) | 2024.12.17 |
AWS SAA-C03 Examtopics (401 ~ 420) (2) | 2024.12.15 |