상세 컨텐츠

본문 제목

AWS SAA-C03 Examtopics (941 ~ 960)

let's study/AWS SAA-C03

by DarkSoul.Story 2024. 12. 26. 22:30

본문

반응형
AWS Certified Solutions Architect - Associate 공부하면서 작성된 글로 일부오류가있을수있습니다.

 

■ Question #941

한 회사가 Amazon Elastic Kubernetes Service(Amazon EKS) 클러스터를 사용하고 있습니다. 이 회사는 서비스 계정에 대한 IAM 역할(IRSA)을 사용하여 EKS 클러스터의 Kubernetes 서비스 계정이 특정 AWS 리소스에 안전하고 세부적으로 액세스할 수 있도록 해야 합니다.

이러한 요구 사항을 충족하는 솔루션 조합은 무엇입니까? (두 가지를 선택하세요.)

A. 필요한 권한을 정의하는 IAM 정책을 만듭니다. 정책을 EKS 노드의 IAM 역할에 직접 연결합니다.

B. Kubernetes 서비스 계정이 특정 AWS 서비스에 액세스하지 못하도록 EKS 클러스터 내에 네트워크 정책을 구현합니다.

C. EKS 클러스터의 IAM 역할을 수정하여 각 Kubernetes 서비스 계정에 대한 권한을 포함합니다. IAM 역할과 Kubernetes 역할 간의 일대일 매핑을 보장합니다.

D. 필요한 권한을 포함하는 IAM 역할을 정의합니다. Kubernetes 서비스 계정에 IAM 역할의 Amazon ResourceName(ARN)을 주석으로 지정합니다.

E. 서비스 계정의 IAM 역할과 OpenID Connect(OIDC) ID 공급자 간에 신뢰 관계를 설정합니다.

더보기

D. 필요한 권한을 포함하는 IAM 역할을 정의합니다. Kubernetes 서비스 계정에 IAM 역할의 Amazon ResourceName (ARN)을 주석으로 지정합니다.

- 이를 통해 Kubernetes 서비스 계정이 지정된 IAM 역할과 연결되며, 해당 역할의 권한을 사용하여 AWS 리소스에 액세스할 수 있습니다.


E. 서비스 계정의 IAM 역할과 OpenID Connect(OIDC) ID 공급자 간에 신뢰 관계를 설정합니다.

- 이 설정은 IAM 역할과 EKS 클러스터의 OIDC ID 공급자 간의 신뢰를 형성하여, 서비스 계정이 안전하게 권한을 사용할 수 있도록 보장합니다.

이러한 조합은 EKS 클러스터에서 Kubernetes 서비스 계정과 IAM 역할 간의 안전한 연결을 세부적으로 제어할 수 있게 합니다.


■ Question #942

한 회사가 분석을 위해 Amazon S3 버킷에 기밀 데이터를 정기적으로 업로드합니다.

회사의 보안 정책에 따라 객체는 휴면 상태에서 암호화되어야 합니다. 회사는 매년 암호화 키를 자동으로 회전해야 합니다. 회사는 AWS CloudTrail을 사용하여 키 회전을 추적할 수 있어야 합니다. 회사는 또한 암호화 키 비용을 최소화해야 합니다.

어떤 솔루션이 이러한 요구 사항을 충족할까요?

 

A. 고객이 제공한 키로 서버 측 암호화 사용(SSE-C)

B. Amazon S3 관리 키(SSE-S3)를 사용하여 서버 측 암호화 사용

C. AWS KMS 키(SSE-KMS)를 사용하여 서버 측 암호화 사용

D. 고객 관리 AWS KMS 키로 서버 측 암호화 사용

더보기

C. AWS KMS 키(SSE-KMS)를 사용하여 서버 측 암호화 사용
- 키 관리와 회전: SSE-KMS를 사용하면 AWS KMS에서 제공하는 자동 키 회전을 설정할 수 있어 매년 키를 자동으로 교체할 수 있습니다.
- 추적 기능: AWS CloudTrail을 통해 키 사용 및 회전 이벤트를 자동으로 모니터링하고 로그를 남길 수 있습니다.
- 비용 효율성: KMS를 사용하면 고객 관리 키(CMK)와 동일한 보안 혜택을 받으면서 관리가 단순해집니다.


■ Question #943

한 회사가 지난 3개월 동안 여러 애플리케이션을 AWS로 마이그레이션했습니다. 이 회사는 각 애플리케이션의 비용 내역을 알고 싶어합니다. 이 회사는 이 정보가 포함된 정기 보고서를 받고 싶어합니다.

어떤 솔루션이 이러한 요구 사항을 가장 비용 효율적으로 충족할까요?

A. AWS Budgets를 사용하여 지난 3개월 동안의 데이터를 .csv 파일로 다운로드합니다. 원하는 정보를 찾습니다.

B. AWS 비용 및 사용 보고서를 Amazon RDS DB 인스턴스에 로드합니다. SQL 쿼리를 실행하여 원하는 정보를 얻습니다.

C. 모든 AWS 리소스에 비용 키와 애플리케이션 이름 값을 태그합니다. 비용 할당 태그를 활성화합니다. Cost Explorer를 사용하여 원하는 정보를 얻습니다.

D. 모든 AWS 리소스에 비용 키와 애플리케이션 이름 값을 태그합니다. AWS Billing and Cost Management 콘솔을 사용하여 지난 3개월 동안의 청구서를 다운로드합니다. 원하는 정보를 찾습니다.

더보기

C. 모든 AWS 리소스에 비용 키와 애플리케이션 이름 값을 태그합니다. 비용 할당 태그를 활성화합니다. Cost Explorer를 사용하여 원하는 정보를 얻습니다.

- 비용 할당 태그 활성화: 모든 리소스에 애플리케이션 이름 값 등의 태그를 할당하면, 리소스별로 태그에 따라 비용을 추적할 수 있습니다.

- Cost Explorer 사용: 활성화된 태그를 기준으로, Cost Explorer를 통해 손쉽게 비용 보고서를 생성할 수 있습니다.

- 비용 효율성: 이 방법은 기존 AWS 서비스 내에서 리소스 태그를 통해 직접 비용을 추적할 수 있어 추가적인 관리 비용이 발생하지 않습니다.


■ Question #944

전자상거래 회사가 고객에게 지속적인 서비스를 제공하기 위해 AWS에 웹 애플리케이션을 배포할 준비를 하고 있습니다. 아키텍처에는 회사가 Amazon EC2 인스턴스에서 호스팅하는 웹 애플리케이션, Amazon RDS의 관계형 데이터베이스, 회사가 Amazon S3에 저장하는 정적 자산이 포함됩니다. 회사는 애플리케이션에 대한 견고하고 회복성 있는 아키텍처를 설계하고자 합니다.

어떤 솔루션이 이러한 요구 사항을 충족할까요?

A. 단일 가용 영역에 Amazon EC2 인스턴스를 배포합니다. 동일한 가용 영역에 RDS DB 인스턴스를 배포합니다. 정적 자산을 저장하기 위해 버전 관리를 활성화한 Amazon S3를 사용합니다.

B. 여러 가용성 영역에 걸쳐 Auto Scaling 그룹에서 Amazon EC2 인스턴스를 배포합니다. Multi-AZ RDS DB 인스턴스를 배포합니다. Amazon CloudFront를 사용하여 정적 자산을 배포합니다.

C. 단일 가용성 영역에 Amazon EC2 인스턴스를 배포합니다. 교차 AZ 중복성을 위해 두 번째 가용성 영역에 RDS DB 인스턴스를 배포합니다. EC2 인스턴스에서 직접 정적 자산을 제공합니다.

D. AWS Lambda 함수를 사용하여 웹 애플리케이션을 제공합니다. 데이터베이스에 Amazon Aurora Serverless v2를 사용합니다. 정적 자산을 Amazon Elastic File System (Amazon EFS) One Zone-Infrequent Access (One Zone-IA)에 저장합니다.

더보기

B. 여러 가용성 영역에 걸쳐 Auto Scaling 그룹에서 Amazon EC2 인스턴스를 배포합니다. Multi-AZ RDS DB 인스턴스를 배포합니다. Amazon CloudFront를 사용하여 정적 자산을 배포합니다.

이 아키텍처는 견고하고 회복성 있는 웹 애플리케이션을 제공하는 데 필요한 모든 요구 사항을 충족합니다.

1. Auto Scaling 그룹은 여러 가용성 영역에 걸쳐 Amazon EC2 인스턴스를 배포하여 고가용성과 자동 확장을 제공합니다.

2. Multi-AZ RDS DB 인스턴스는 데이터베이스의 복원력을 높이고, 가용성 영역 장애 시에도 데이터베이스가 지속적으로 작동하도록 합니다.

3. Amazon CloudFront를 사용하여 정적 자산을 배포하면 콘텐츠를 전 세계 사용자에게 빠르고 안정적으로 제공할 수 있습니다.

이 솔루션은 고가용성, 복원력 및 성능을 모두 갖추고 있어 전자상거래 애플리케이션의 요구를 충족합니다.


■ Question #945

전자상거래 회사가 여러 AWS 계정에서 여러 내부 애플리케이션을 실행합니다. 이 회사는 AWS Organizations를 사용하여 AWS 계정을 관리합니다. 이 회사의 네트워킹 계정의 보안 어플라이언스는 AWS 계정에서 애플리케이션 간 상호 작용을 검사해야 합니다.

어떤 솔루션이 이러한 요구 사항을 충족할까요?

A. 네트워킹 계정에 네트워크 로드 밸런서(NLB)를 배포하여 보안 어플라이언스로 트래픽을 전송합니다. 애플리케이션 계정에서 인터페이스 VPC 엔드포인트를 사용하여 NLB로 트래픽을 전송하도록 애플리케이션 계정을 구성합니다.

B. 애플리케이션 계정에 애플리케이션 부하 분산 장치(ALB)를 배포하여 트래픽을 보안 어플라이언스로 직접 전송합니다.

C. 네트워킹 계정에서 게이트웨이 로드 밸런서(GWLB)를 배포하여 보안 어플라이언스로 트래픽을 전송합니다. 애플리케이션 계정에서 인터페이스 GWLB 엔드포인트를 사용하여 GWLB로 트래픽을 전송하도록 애플리케이션 계정을 구성합니다.

D. 애플리케이션 계정에 인터페이스 VPC 엔드포인트를 배포하여 트래픽을 보안 어플라이언스로 직접 전송합니다.

더보기

C. 네트워킹 계정에서 게이트웨이 로드 밸런서(GWLB)를 배포하여 보안 어플라이언스로 트래픽을 전송합니다. 애플리케이션 계정에서 인터페이스 GWLB 엔드포인트를 사용하여 GWLB로 트래픽을 전송하도록 애플리케이션 계정을 구성합니다.

- 게이트웨이 로드 밸런서(GWLB)는 여러 계정에서의 트래픽 검사를 중앙 집중화하는 데 적합한 선택입니다. GWLB는 보안 어플라이언스를 통해 트래픽을 통과시킬 수 있으며, 이를 통해 회사의 네트워킹 계정에서 모든 트래픽을 검사할 수 있습니다. 애플리케이션 계정에서는 인터페이스 GWLB 엔드포인트를 사용하여 네트워크 트래픽을 GWLB로 안전하게 전송할 수 있습니다. 이 접근 방식은 관리 오버헤드를 줄이면서 보안 정책을 중앙에서 시행할 수 있게 해줍니다.


■ Question #946

한 회사가 6개의 Aurora Replicas를 포함하는 Amazon Aurora MySQL DB 클러스터에서 프로덕션 워크로드를 실행합니다. 이 회사는 부서 중 하나의 거의 실시간 보고 쿼리를 Aurora Replicas 3개에 자동으로 분산하고자 합니다. 이 3개의 복제본은 나머지 DB 클러스터와 다른 컴퓨팅 및 메모리 사양을 가지고 있습니다.

어떤 솔루션이 이러한 요구 사항을 충족합니까?

 

A. 워크로드에 대한 사용자 정의 엔드포인트를 생성하고 사용합니다.

B. 3노드 클러스터 복제본을 생성하고 리더 엔드포인트를 사용합니다.

C. 선택된 세 노드에 대해 인스턴스 엔드포인트 중 하나를 사용합니다.

D. 리더 엔드포인트를 사용하여 읽기 전용 작업 부하를 자동으로 분산합니다.

더보기

A. 워크로드에 대한 사용자 정의 엔드포인트를 생성하고 사용합니다.

- 사용자 정의 엔드포인트(Custom Endpoint)는 Aurora 클러스터 내의 특정 복제본을 대상으로 하여 자동으로 트래픽을 분산할 수 있도록 설계되었습니다. 이를 통해 사용자는 지정한 3개의 Aurora Replicas에 대한 트래픽을 균등하게 분산할 수 있습니다. 이러한 방식은 선택된 복제본의 특화된 컴퓨팅 및 메모리 사양을 활용하면서 나머지 복제본에 영향을 미치지 않습니다.

따라서, 특정 리소스 요구를 가진 부서의 실시간 보고 쿼리에 적합한 솔루션입니다.


■ Question #947

한 회사가 온프레미스 데이터 센터의 서버에서 Node.js 함수를 실행합니다. 데이터 센터는 PostgreSQL 데이터베이스에 데이터를 저장합니다. 회사는 서버의 환경 변수에 있는 연결 문자열에 자격 증명을 저장합니다. 회사는 애플리케이션을 AWS로 마이그레이션하고 Node.js 애플리케이션 서버를 AWS Lambda로 교체하려고 합니다. 또한 회사는 Amazon RDS for PostgreSQL로 마이그레이션하고 데이터베이스 자격 증명이 안전하게 관리되도록 하려고 합니다.

어떤 솔루션이 이러한 요구 사항을 최소한의 운영 오버헤드로 충족할까요?

A. AWS Systems Manager Parameter Store에서 데이터베이스 자격 증명을 매개변수로 저장합니다. Parameter Store를 구성하여 30일마다 비밀을 자동으로 순환합니다. Lambda 함수를 업데이트하여 매개변수에서 자격 증명을 검색합니다.

B. AWS Secrets Manager에서 데이터베이스 자격 증명을 비밀로 저장합니다. Secrets Manager를 구성하여 30일마다 자격 증명을 자동으로 순환합니다. Lambda 함수를 업데이트하여 비밀에서 자격 증명을 검색합니다.

C. 데이터베이스 자격 증명을 암호화된 Lambda 환경 변수로 저장합니다. 자격 증명을 순환하는 사용자 지정 Lambda 함수를 작성합니다. Lambda 함수가 30일마다 실행되도록 예약합니다.

D. AWS Key Management Service(AWS KMS)에서 데이터베이스 자격 증명을 키로 저장합니다. 키에 대한 자동 로테이션을 구성합니다. Lambda 함수를 업데이트하여 KMS 키에서 자격 증명을 가져옵니다.

더보기

B. AWS Secrets Manager에서 데이터베이스 자격 증명을 비밀로 저장합니다. Secrets Manager를 구성하여 30일마다 자격 증명을 자동으로 순환합니다. Lambda 함수를 업데이트하여 비밀에서 자격 증명을 검색합니다.

- AWS Secrets Manager는 데이터베이스 자격 증명을 안전하게 저장하고 자동으로 순환하는 기능을 제공합니다. 또한 Lambda 함수에서 Secrets Manager API를 통해 자격 증명을 안전하게 검색할 수 있습니다. 이를 통해 자격 증명의 안전한 관리와 자동화된 순환을 간편하게 수행할 수 있어 운영 오버헤드가 최소화됩니다.


■ Question #948

어떤 회사는 온프레미스 Oracle 데이터베이스에서 Amazon RDS for Oracle로 기존 및 진행 중인 데이터 변경 사항을 복제하려고 합니다. 복제할 데이터 양은 매일 다릅니다. 이 회사는 데이터 복제에 AWS Database Migration Service(AWS DMS)를 사용하려고 합니다. 솔루션은 복제 인스턴스에 필요한 용량만 할당해야 합니다.

어떤 솔루션이 이러한 요구 사항을 충족할까요?

A. 여러 가용성 영역에 걸쳐 인스턴스를 프로비저닝하기 위해 다중 AZ 배포로 AWS DMS 복제 인스턴스를 구성합니다.

B. 필요한 용량을 프로비저닝하는 동안 데이터를 분석하고 복제하기 위한 AWS DMS Serverless 복제 작업을 생성합니다.

C. Amazon EC2 자동 크기 조정을 사용하여 복제할 데이터 양에 따라 AWS DMS 복제 인스턴스의 크기를 늘리거나 줄입니다.

D. AWS Fargate 시작 유형으로 Amazon Elastic Container Service(Amazon ECS)를 사용하여 AWS DMS 복제 용량을 프로비저닝하고, 필요한 용량을 프로비저닝하는 동안 데이터를 분석하고 복제합니다.

더보기

B. 필요한 용량을 프로비저닝하는 동안 데이터를 분석하고 복제하기 위한 AWS DMS Serverless 복제 작업을 생성합니다.

- AWS DMS Serverless는 데이터 복제를 위해 자동으로 확장되고 축소하는 기능을 제공하여, 복제 인스턴스에 필요한 용량만 할당합니다. 이를 통해 데이터 복제 작업의 부하가 다양할 때 유연한 성능 관리를 할 수 있고, 비용 효율적으로 용량을 사용할 수 있습니다.


■ Question #949

회사에 다중 계층 웹 애플리케이션이 있습니다. 애플리케이션의 내부 서비스 구성 요소는 Amazon EC2 인스턴스에 배포됩니다. 내부 서비스 구성 요소는 AWS에서 호스팅되는 타사 소프트웨어 서비스(SaaS) API에 액세스해야 합니다. 회사는 애플리케이션의 내부 서비스에서 타사 SaaS 애플리케이션으로 안전하고 비공개적인 연결을 제공해야 합니다. 회사는 최소한의 공개 인터넷 노출이 있는지 확인해야 합니다.

어떤 솔루션이 이러한 요구 사항을 충족할까요?

A. 타사 SaaS 공급자와 보안 연결을 설정하기 위해 AWS 사이트 간 VPN을 구현합니다.

B. AWS Transit Gateway를 배포하여 애플리케이션의 VPC와 타사 SaaS 공급자 간의 트래픽을 관리하고 라우팅합니다.

C. AWS PrivateLink를 구성하여 타사 SaaS 공급자가 VPC를 설정할 수 없도록 하여 VPC에서 아웃바운드 트래픽만 허용합니다.

D. AWS PrivateLink를 사용하여 애플리케이션의 VPC와 타사 SaaS 공급자 간에 개인 연결을 생성합니다.

더보기

D. AWS PrivateLink를 사용하여 애플리케이션의 VPC와 타사 SaaS 공급자 간에 개인 연결을 생성합니다.
- AWS PrivateLink는 VPC와 SaaS 공급자 간의 비공개 연결을 제공하여, 애플리케이션의 트래픽이 인터넷을 통해 노출되지 않고 안전하게 SaaS API에 접근할 수 있도록 합니다. 이 솔루션은 인터넷 노출을 최소화하고, 프라이빗 네트워크 내에서 안전한 트래픽 관리를 보장할 수 있습니다.


■ Question #950

솔루션 아키텍트는 회사의 기업 네트워크를 VPC에 연결하여 온프레미스에서 AWS 리소스에 액세스할 수 있도록 해야 합니다. 솔루션은 네트워크 계층과 세션 계층에서 기업 네트워크와 VPC 간의 모든 트래픽을 암호화해야 합니다. 또한 솔루션은 AWS와 온프레미스 시스템 간의 무제한 액세스를 방지하기 위한 보안 제어를 제공해야 합니다.

어떤 솔루션이 이러한 요구 사항을 충족합니까?

A. AWS Direct Connect를 구성하여 VPC에 연결합니다. 필요에 따라 AWS와 온프레미스 간 트래픽을 허용 및 거부하도록 VPC 경로 테이블을 구성합니다.

B. 정의된 회사 IP 주소 집합에서만 AWS Management Console에 액세스할 수 있도록 IAM 정책을 만듭니다. IAM 정책과 역할을 사용하여 직무 책임에 따라 사용자 액세스를 제한합니다.

C. AWS 사이트 간 VPN을 구성하여 VPC에 연결합니다. 온프레미스에서 VPC로 트래픽을 전달하기 위한 라우팅 테이블 항목을 구성합니다. 온프레미스에서 필요한 트래픽만 허용하도록 인스턴스 보안 그룹과 네트워크 ACL을 구성합니다.

D. AWS Transit Gateway를 구성하여 VPC에 연결합니다. 온프레미스에서 VPC로 트래픽을 전달하도록 경로 테이블 항목을 구성합니다. 온프레미스에서 필요한 트래픽만 허용하도록 인스턴스 보안 그룹과 네트워크 ACL을 구성합니다.

더보기

C. AWS 사이트 간 VPN을 구성하여 VPC에 연결합니다. 온프레미스에서 VPC로 트래픽을 전달하기 위한 라우팅 테이블 항목을 구성합니다. 온프레미스에서 필요한 트래픽만 허용하도록 인스턴스 보안 그룹과 네트워크 ACL을 구성합니다.
- AWS 사이트 간 VPN은 온프레미스 네트워크와 VPC 간의 안전한 연결을 제공합니다. VPN을 사용하면 트래픽이 암호화되어 네트워크 계층과 세션 계층 모두에서 보호됩니다. 또한 보안 그룹 및 네트워크 ACL을 통해 AWS와 온프레미스 간에 필요한 트래픽만 허용하는 세부적인 보안 제어를 구성할 수 있습니다. 이를 통해 네트워크 보안을 유지하면서 적절한 트래픽 필터링을 수행할 수 있습니다.


■ Question #951

한 회사에는 Amazon RDS for MySQL DB 클러스터의 데이터베이스에서 정보를 검색하는 임베디드 자격 증명이 있는 사용자 지정 애플리케이션이 있습니다. 이 회사는 최소한의 프로그래밍 노력으로 애플리케이션을 더 안전하게 만들어야 합니다. 이 회사는 애플리케이션 사용자를 위해 RDS for MySQL 데이터베이스에 자격 증명을 만들었습니다.

어떤 솔루션이 이러한 요구 사항을 충족할까요?

A. AWS Key Management Service(AWS KMS)에 자격 증명을 저장합니다. AWS KMS에 키를 만듭니다. AWS KMS에서 데이터베이스 자격 증명을 로드하도록 애플리케이션을 구성합니다. 자동 키 로테이션을 활성화합니다.

B. 암호화된 로컬 저장소에 자격 증명을 저장합니다. 로컬 저장소에서 데이터베이스 자격 증명을 로드하도록 애플리케이션을 구성합니다. Cron 작업을 생성하여 자격 증명 로테이션 일정을 설정합니다.

C. AWS Secrets Manager에 자격 증명을 저장합니다. Secrets Manager에서 데이터베이스 자격 증명을 로드하도록 애플리케이션을 구성합니다. Secrets Manager에 대한 AWS Lambda 함수를 생성하여 자격 증명 로테이션 일정을 설정합니다.

D. AWS Systems Manager Parameter Store에 자격 증명을 저장합니다. Parameter Store에서 데이터베이스 자격 증명을 로드하도록 애플리케이션을 구성합니다. Parameter Store를 사용하여 RDS for MySQL 데이터베이스에서 자격 증명 로테이션 일정을 설정합니다.

더보기

C.AWS Secrets Manager에 자격 증명을 저장합니다. Secrets Manager에서 데이터베이스 자격 증명을 로드하도록 애플리케이션을 구성합니다. Secrets Manager에 대한 AWS Lambda 함수를 생성하여 자격 증명 로테이션 일정을 설정합니다.
- 보안: AWS Secrets Manager는 자격 증명을 안전하게 저장하고, 암호화된 형태로 관리하며, 정기적으로 키를 자동 회전할 수 있는 기능을 제공합니다.

- 자동화: Lambda 함수를 통해 자격 증명의 자동 로테이션을 설정할 수 있으며, 이를 통해 자격 증명이 주기적으로 갱신되도록 할 수 있습니다.

- 최소한의 프로그래밍 노력: 애플리케이션이 자격 증명을 Secrets Manager에서 안전하게 로드하도록 구성할 수 있으므로 코드 변경이 최소화됩니다.


■ Question #952

어떤 회사가 자사 애플리케이션을 서버리스 솔루션으로 옮기고 싶어합니다. 서버리스 솔루션은 SQL을 사용하여 기존 데이터와 새 데이터를 분석해야 합니다. 회사는 Amazon S3 버킷에 데이터를 저장합니다. 데이터는 저장 시 암호화되어야 하며 다른 AWS 리전에 복제되어야 합니다.

어떤 솔루션이 가장 적은 운영 오버헤드로 이러한 요구 사항을 충족할까요?

A. AWS KMS 다중 지역 키(SSE-KMS)를 사용하여 서버 측 암호화를 사용하는 새 S3 버킷을 만듭니다. 교차 지역 복제(CRR)를 구성합니다. 새 S3 버킷에 데이터를 로드합니다. Amazon Athena를 사용하여 데이터를 쿼리합니다.

B. Amazon S3 관리 키(SSE-S3)를 사용하여 서버 측 암호화를 사용하는 새 S3 버킷을 만듭니다. Cross-Region Replication (CRR)을 구성합니다. 새 S3 버킷에 데이터를 로드합니다. Amazon RDS를 사용하여 데이터를 쿼리합니다.

C. 기존 S3 버킷에서 Cross-Region Replication(CRR)을 구성합니다. Amazon S3 관리 키(SSE-S3)로 서버 측 암호화를 사용합니다. Amazon Athena를 사용하여 데이터를 쿼리합니다.

D. 기존 S3 버킷에서 S3 Cross-Region Replication(CRR)을 구성합니다. AWS KMS 다중 지역 키(SSE-KMS)로 서버 측 암호화를 사용합니다. Amazon RDS를 사용하여 데이터를 쿼리합니다.

더보기

A. AWS KMS 다중 지역 키(SSE-KMS)를 사용하여 서버 측 암호화를 사용하는 새 S3 버킷을 만듭니다. 교차 지역 복제(CRR)를 구성합니다. 새 S3 버킷에 데이터를 로드합니다. Amazon Athena를 사용하여 데이터를 쿼리합니다.

- 데이터 암호화: SSE-KMS를 통해 데이터를 안전하게 암호화하고, KMS 다중 지역 키를 사용하여 여러 리전에 걸쳐 보안이 강화된 암호화를 지원할 수 있습니다.

- 교차 지역 복제: CRR을 통해 S3 버킷의 데이터를 자동으로 다른 AWS 리전으로 복제하여 고가용성을 유지할 수 있습니다.

- 분석 솔루션: Amazon Athena를 사용하면 서버를 관리하지 않고 SQL로 S3에 저장된 데이터를 쿼리할 수 있어 서버리스 아키텍처에 적합합니다.


 Question #953

한 회사에 수천 명의 사용자가 있는 웹 애플리케이션이 있습니다. 이 애플리케이션은 사용자가 업로드한 8~10개의 이미지를 사용하여 AI 이미지를 생성합니다. 사용자는 6시간마다 생성된 AI 이미지를 다운로드할 수 있습니다. 이 회사에는 또한 사용자가 생성된 AI 이미지를 언제든지 다운로드할 수 있는 프리미엄 사용자 옵션이 있습니다. 이 회사는 사용자가 업로드한 이미지를 사용하여 1년에 두 번 AI 모델 교육을 실행합니다. 이 회사에는 이미지를 저장할 스토리지 솔루션이 필요합니다.

이러한 요구 사항을 가장 비용 효율적으로 충족하는 스토리지 솔루션은 무엇입니까?

A. 업로드된 이미지를 Amazon S3 Glacier Deep Archive로 이동합니다. 프리미엄 사용자가 생성한 AI 이미지를 S3 Standard로 이동합니다. 프리미엄이 아닌 사용자가 생성한 AI 이미지를 S3 Standard-Infrequent Access (S3 Standard-IA)로 이동합니다.
B. 업로드된 이미지를 Amazon S3 Glacier Deep Archive로 이동합니다. 생성된 모든 AI 이미지를 S3 Glacier Flexible Retrieval 로 이동합니다.

C. 업로드된 이미지를 Amazon S3 One Zone-Infrequent Access(S3 One Zone-IA)로 이동합니다. 프리미엄 사용자가 생성한 AI 이미지를 S3 Standard로 이동합니다. 프리미엄이 아닌 사용자가 생성한 AI 이미지를 S3 Standard-Infrequent Access (S3 Standard-IA)로 이동합니다.

D. 업로드된 이미지를 Amazon S3 One Zone-Infrequent Access(S3 One Zone-IA)로 이동합니다. 생성된 모든 AI 이미지를 S3 Glacier Flexible Retrieval로 이동합니다.

더보기

C. 업로드된 이미지를 Amazon S3 One Zone-Infrequent Access(S3 One Zone-IA)로 이동합니다. 프리미엄 사용자가 생성한 AI 이미지를 S3 Standard로 이동합니다. 프리미엄이 아닌 사용자가 생성한 AI 이미지를 S3 Standard-Infrequent Access (S3 Standard-IA)로 이동합니다.
- S3 One Zone-IA: 업로드된 이미지는 AI 모델 훈련용으로 1년에 두 번만 사용되므로, 비용 효율적인 S3 One Zone-IA를 사용하여 비용을 절감할 수 있습니다.

- S3 Standard: 프리미엄 사용자에게 AI 이미지를 언제든지 제공해야 하므로 높은 가용성의 S3 Standard를 사용합니다.

- S3 Standard-IA: 프리미엄이 아닌 사용자는 6시간마다 이미지를 다운로드하므로, IA를 사용하여 비용을 최적화할 수 있습니다.


■ Question #954

한 회사가 AWS에서 머신 러닝(ML) 모델을 개발하고 있습니다. 이 회사는 ML 모델을 독립적인 마이크로서비스로 개발하고 있습니다. 마이크로서비스는 시작 시 Amazon S3에서 약 1GB의 모델 데이터를 가져와 메모리에 로드합니다. 사용자는 비동기 API를 통해 ML 모델에 액세스합니다. 사용자는 요청이나 요청 배치를 보낼 수 있습니다. 이 회사는 수백 명의 사용자에게 ML 모델을 제공합니다. 모델의 사용 패턴은 불규칙합니다. 일부 모델은 며칠 또는 몇 주 동안 사용되지 않습니다. 다른 모델은 한 번에 수천 개의 요청을 일괄적으로 수신합니다.

어떤 솔루션이 이러한 요구 사항을 충족할까요?

A. API에서 Network Load Balancer(NLB)로 요청을 보냅니다. ML 모델을 NLB가 호출할 AWS Lambda 함수로 배포합니다. 자동 스케일링을 사용하여 NLB가 수신하는 트래픽에 따라 Lambda 함수를 스케일합니다.
B. API에서 Application Load Balancer(ALB)로 요청을 보냅니다. ML 모델을 ALB가 호출할 Amazon Elastic Container Service (Amazon ECS) 서비스로 배포합니다. ALB가 수신하는 트래픽에 따라 자동 스케일링을 사용하여 ECS 클러스터 인스턴스를 스케일합니다.
C. API에서 Amazon Simple Queue Service(Amazon SQS) 대기열로 요청을 보냅니다. ML 모델을 SQS 이벤트가 호출하는 AWS Lambda 함수로 배포합니다. 자동 스케일링을 사용하여 SQS 대기열의 크기에 따라 Lambda 함수의 vCPU 수를 늘립니다.

D. API에서 Amazon Simple Queue Service(Amazon SQS) 대기열로 요청을 보냅니다. ML 모델을 대기열에서 읽는 Amazon Elastic Container Service (Amazon ECS) 서비스로 배포합니다. Amazon ECS에 자동 스케일링을 사용하여 SQS 대기열의 크기에따라 클러스터 용량과 서비스 수를 모두 확장합니다.

더보기

D. API에서 Amazon Simple Queue Service(Amazon SQS) 대기열로 요청을 보냅니다. ML 모델을 대기열에서 읽는 Amazon Elastic Container Service (Amazon ECS) 서비스로 배포합니다. Amazon ECS에 자동 스케일링을 사용하여 SQS 대기열의 크기에 따라 클러스터 용량과 서비스 수를 모두 확장합니다.
- SQS를 통해 트래픽 관리: 비동기 처리 패턴을 사용하여 요청을 SQS 대기열로 버퍼링함으로써 대규모 요청을 안정적으로 처리할 수 있습니다.

- ECS의 유연한 스케일링: ECS는 컨테이너 기반 인프라로, 메모리 및 CPU 리소스를 유연하게 확장할 수 있어 대량의 요청을 효과적으로 처리합니다.

- 불규칙한 사용 패턴: ECS는 대기열의 크기에 따라 서비스 인스턴스를 자동으로 확장할 수 있어 불규칙한 사용량에 잘 대응할 수 있습니다.


■ Question #955

한 회사가 Application Load Balancer(ALB) 뒤의 Auto Scaling 그룹에서 Amazon EC2 인스턴스에서 웹 애플리케이션을 실행합니다. 이 애플리케이션은 Amazon Aurora MySQL DB 클러스터에 데이터를 저장합니다. 이 회사는 재해 복구(DR) 솔루션을 만들어야 합니다. DR 솔루션의 허용 복구 시간은 최대 30분입니다. DR 솔루션은 기본 인프라가 정상일 때 고객 사용을 지원할 필요가 없습니다.

어떤 솔루션이 이러한 요구 사항을 충족할까요?

A. ALB와 Auto Scaling 그룹이 있는 두 번째 AWS 지역에 DR 인프라를 배포합니다. Auto Scaling 그룹의 원하는 용량과 최대 용량을 최소값으로 설정합니다. Aurora MySQL DB 클러스터를 Aurora 글로벌 데이터베이스로 변환합니다. ALB 엔드포인트를 사용하여 활성-수동 장애 조치를 위해 Amazon Route 53을 구성합니다.

B. ALUpdate를 사용하여 두 번째 AWS 지역에 DR 인프라를 배포합니다. 두 번째 지역의 EC2 인스턴스를 포함하도록 Auto Scaling 그룹을 업데이트합니다. Amazon Route 53을 사용하여 액티브-액티브 장애 조치를 구성합니다. Aurora MySQL DB 클러스터를 Aurora 글로벌 데이터베이스로 변환합니다.

C. AWS Backup을 사용하여 Aurora MySQL DB 클러스터 데이터를 백업합니다. ALB가 있는 두 번째 AWS 지역에 DR 인프라를 배포합니다. 두 번째 지역의 EC2 인스턴스를 포함하도록 Auto Scaling 그룹을 업데이트합니다. Amazon Route 53을 사용하여 액티브-액티브 장애 조치를 구성합니다. 두 번째 지역에 Aurora MySQL DB 클러스터를 만듭니다. 백업에서 데이터를 복원합니다.

D. AWS Backup을 사용하여 인프라 구성을 백업합니다. 백업을 사용하여 두 번째 AWS 리전에서 필요한 인프라를 만듭니다. Auto Scaling 그룹의 원하는 용량을 0으로 설정합니다. Amazon Route 53을 사용하여 액티브-패시브 장애 조치를 구성합니다. Aurora MySQL DB 클러스터를 Aurora 글로벌 데이터베이스로 변환합니다.

더보기

A. ALB와 Auto Scaling 그룹이 있는 두 번째 AWS 지역에 DR 인프라를 배포합니다. Auto Scaling 그룹의 원하는 용량과 최대 용량을 최소값으로 설정합니다. Aurora MySQL DB 클러스터를 Aurora 글로벌 데이터베이스로 변환합니다. ALB 엔드포인트를 사용하여 활성-수동 장애 조치를 위해 Amazon Route 53을 구성합니다.
- 최소한의 DR 리소스 사용: Auto Scaling 그룹의 최소 및 최대 용량을 낮게 설정함으로써 장애 복구 전까지 비용을 절감할 수 있습니다.

- Aurora 글로벌 데이터베이스 사용: Aurora 글로벌 데이터베이스를 사용하여 지연 시간이 낮은 크로스 리전 복제를 유지하고, 데이터 손실을 줄일 수 있습니다.

- 액티브-패시브 장애 조치: Amazon Route 53을 사용해 액티브-패시브 방식으로 장애 조치를 구성하면, 장애 발생 시 빠르게 전환할 수 있습니다.

이를 통해 30분의 RTO를 달성하고, 효율적인 비용 관리를 유지할 수 있습니다.


■ Question #956

한 회사가 데이터 처리 애플리케이션을 AWS 클라우드로 마이그레이션하고 있습니다. 이 애플리케이션은 중단될 수 없는 여러 개의 단기 일괄 작업을 처리합니다. 각 일괄 작업이 완료된 후 데이터가 생성됩니다. 이 데이터는 30일 동안 액세스되고 2년 동안 보관됩니다. 이 회사는 AWS 클라우드에서 애플리케이션을 실행하는 비용을 최대한 낮추고자 합니다.

어떤 솔루션이 이러한 요구 사항을 충족할까요?

A. 데이터 처리 애플리케이션을 Amazon EC2 Spot Instances로 마이그레이션합니다. Amazon S3 Standard에 데이터를 저장합니다. Amazon S3 Glacier Instant로 데이터를 이동합니다. 30일 후 검색합니다. 2년 후 데이터를 삭제하도록 만료일을 설정합니다.

B. 데이터 처리 애플리케이션을 Amazon EC2 On-Demand Instances로 마이그레이션합니다. Amazon S3 Glacier Instant Retrieval에 데이터를 저장합니다. 30일 후에 S3 Glacier Deep Archive로 데이터를 이동합니다. 2년 후에 데이터를 삭제하도록 만료일을 설정합니다.

C. Amazon EC2 Spot Instances를 배포하여 일괄 작업을 실행합니다. Amazon S3 Standard에 데이터를 저장합니다. 30일 후에 Amazon S3 Glacier Flexible Retrieval로 데이터를 이동합니다. 2년 후에 데이터를 삭제하도록 만료일을 설정합니다.

D. Amazon EC2 On-Demand 인스턴스를 배포하여 일괄 작업을 실행합니다. Amazon S3 Standard에 데이터를 저장합니다. 30일 후에 Amazon S3 Glacier Deep Archive로 데이터를 이동합니다. 2년 후에 데이터를 삭제하도록 만료일을 설정합니다.

더보기

C. Amazon EC2 Spot Instances를 배포하여 일괄 작업을 실행합니다. Amazon S3 Standard에 데이터를 저장합니다. 30일 후에 Amazon S3 Glacier Flexible Retrieval로 데이터를 이동합니다. 2년 후에 데이터를 삭제하도록 만료일을 설정합니다.
- Amazon EC2 Spot Instances는 중단 가능성이 있지만, 단기 일괄 작업의 비용을 낮출 수 있는 매우 저렴한 선택입니다.

- 데이터를 처음에는 Amazon S3 Standard에 저장하고, 30일 후에 접근 빈도가 낮아지면 저렴한 스토리지 클래스인 Amazon S3 Glacier Flexible Retrieval로 이동하여 비용을 절감할 수 있습니다.

- 2년 후 데이터를 자동으로 삭제하도록 만료일을 설정하여 저장 비용을 줄일 수 있습니다.


■ Question #957

회사에서는 하이브리드 네트워크 아키텍처를 설계해야 합니다. 회사의 워크로드는 현재 AWS 클라우드와 온프레미스 데이터 센터에 저장되어 있습니다. 워크로드는 통신하는 데 단일 자릿수 대기 시간이 필요합니다. 회사는 AWS Transit Gateway 전송 게이트웨이를 사용하여 여러 VPC를 연결합니다.

이러한 요구 사항을 가장 비용 효율적으로 충족하는 단계 조합은 무엇입니까? (두 가지를 선택하세요.)

A. 각 VPC에 AWS 사이트 간 VPN 연결을 설정합니다.

B. VPC에 연결된 전송 게이트웨이와 AWS Direct Connect 게이트웨이를 연결합니다.

C. AWS Direct Connect 게이트웨이에 AWS 사이트 간 VPN 연결을 설정합니다.

D. AWS Direct Connect 연결을 설정합니다. Direct Connect 게이트웨이에 대한 전송 가상 인터페이스(VIF)를 만듭니다.

E. AWS 사이트 간 VPN 연결을 VPC에 연결된 전송 게이트웨이와 연결합니다.

더보기

B. VPC에 연결된 전송 게이트웨이와 AWS Direct Connect 게이트웨이를 연결합니다.

- AWS Transit Gateway와 Direct Connect 게이트웨이를 연결하여 온프레미스와 AWS 간의 저지연, 고대역폭 연결을 제공합니다.

D. AWS Direct Connect 연결을 설정합니다. Direct Connect 게이트웨이에 대한 전송 가상 인터페이스(VIF)를 만듭니다.

- Direct Connect를 통해 온프레미스 데이터 센터와 AWS VPC 간의 안정적인 네트워크 연결을 확보하고, VIF를 통해 직접적인 통신을 지원합니다.

이 조합은 저지연 성능과 안정성을 제공하면서도 비용 효율적입니다.


■ Question #958

글로벌 전자상거래 회사가 AWS에서 중요한 워크로드를 실행합니다. 워크로드는 Multi-AZ 배포를 위해 구성된 Amazon RDS for PostgreSQL DB 인스턴스를 사용합니다. 고객은 회사에서 데이터베이스 장애 조치를 겪을 때 애플리케이션 시간 초과가 발생한다고 보고했습니다. 이 회사는 장애 조치 시간을 줄이기 위한 복원력 있는 솔루션이 필요합니다.

어떤 솔루션이 이러한 요구 사항을 충족할까요?

A. Amazon RDS 프록시를 만듭니다. 프록시를 DB 인스턴스에 할당합니다.

B. DB 인스턴스에 대한 읽기 복제본을 만듭니다. 읽기 트래픽을 읽기 복제본으로 이동합니다.

C. 성능 통찰력을 활성화합니다. CPU 부하를 모니터링하여 시간 초과를 식별합니다.

D. 정기적으로 자동 스냅샷을 찍습니다. 자동 스냅샷을 여러 AWS 리전에 복사합니다.

더보기

A. Amazon RDS 프록시를 만듭니다. 프록시를 DB 인스턴스에 할당합니다.
- RDS 프록시는 애플리케이션과 데이터베이스 사이에 중간 계층으로 작동하여 연결을 관리하고, 연결 풀링 및 장애 조치 중 연결 복구를 지원합니다. 이렇게 하면 RDS 인스턴스 장애 조치 시 발생하는 일시적인 시간 초과 문제를 줄일 수 있습니다.


■ Question #959

한 회사에 개발 AWS 계정에서 실행되는 여러 Amazon RDS DB 인스턴스가 있습니다. 모든 인스턴스에는 개발 리소스로 식별하는 태그가 있습니다. 이 회사는 개발 DB 인스턴스가 영업 시간 동안만 일정에 따라 실행되기를 원합니다. 

어떤 솔루션이 가장 적은 운영 오버헤드로 이러한 요구 사항을 충족할까요?

A. Amazon CloudWatch 알람을 생성하여 중지해야 할 RDS 인스턴스를 식별합니다. RDS 인스턴스를 시작하고 중지하는 AWS Lambda 함수를 생성합니다.

B. AWS Trusted Advisor 보고서를 만들어 시작 및 중지할 RDS 인스턴스를 식별합니다. RDS 인스턴스를 시작 및 중지하기 위한 AWS Lambda 함수를 만듭니다.

C. AWS Systems Manager State Manager 연결을 생성하여 RDS 인스턴스를 시작 및 중지합니다.

D. RDS 인스턴스를 시작 및 중지하기 위해 AWS Lambda 함수를 호출하는 Amazon EventBridge 규칙을 만듭니다.

더보기

D. RDS 인스턴스를 시작 및 중지하기 위해 AWS Lambda 함수를 호출하는 Amazon EventBridge 규칙을 만듭니다.
- EventBridge 규칙을 사용하면 일정에 따라 자동으로 Lambda 함수를 호출하여 태그가 지정된 RDS 인스턴스를 시작 및 중지 할 수 있습니다. 이 방법은 운영 오버헤드를 최소화하면서 영업 시간에만 RDS 인스턴스를 실행하는 자동화된 접근 방식을 제공합니다.


■ Question #960

소비자 조사 회사가 특정 지역에서 수년간 데이터를 수집했습니다. 이 회사는 이 데이터를 AWS 지역의 Amazon S3 버킷에 저장합니다. 이 회사는 이 데이터를 새로운 지역의 마케팅 회사와 공유하기 시작했습니다. 이 회사는 회사의 AWS 계정에 S3 버킷에 대한 액세스 권한을 부여했습니다. 이 회사는 마케팅 회사가 S3 버킷에서 데이터를 요청할 때 데이터 전송 비용을 최소화하려고 합니다.

어떤 솔루션이 이러한 요구 사항을 충족할까요?

A. 회사의 S3 버킷에서 요청자 지불 기능을 구성합니다.

B. 회사의 S3 버킷에서 마케팅 회사의 S3 버킷 중 하나로 S3 교차 지역 복제 (CRR)를 구성합니다.

C. AWS Resource Access Manager를 구성하여 마케팅 회사의 AWS 계정과 S3 버킷을 공유합니다.

D. S3 Intelligent-Tiering을 사용하도록 회사의 S3 버킷을 구성합니다. S3 버킷을 마케팅 회사의 S3 버킷 중 하나와 동기화합니다.

더보기

A. 회사의 S3 버킷에서 요청자 지불 기능을 구성합니다.
- 요청자 지불 기능을 사용하면 데이터 요청 시 전송 비용을 데이터를 요청하는 마케팅 회사가 부담하게 됩니다. 이 방식은 회사의 AWS 계정에 부과되는 데이터 전송 비용을 줄이고, 데이터를 요청하는 쪽에서 비용을 지불하도록 하여 회사 측의 비용 부담을 최소화할 수 있습니다.

 

반응형

'let's study > AWS SAA-C03' 카테고리의 다른 글

AWS SAA-C03 Examtopics (981 ~ 1000)  (0) 2024.12.27
AWS SAA-C03 Examtopics (961 ~ 980)  (1) 2024.12.26
AWS SAA-C03 Examtopics (921 ~ 940)  (1) 2024.12.26
AWS SAA-C03 Examtopics (901 ~ 920)  (0) 2024.12.25
AWS SAA-C03 Examtopics (881 ~ 900)  (0) 2024.12.25

관련글 더보기