상세 컨텐츠

본문 제목

AWS SAA-C03 Examtopics (721 ~ 740)

let's study/AWS SAA-C03

by DarkSoul.Story 2024. 12. 21. 20:20

본문

반응형
AWS Certified Solutions Architect - Associate 공부하면서 작성된 글로 일부오류가있을수있습니다.

 

■ Question #721

한 회사가 대규모 웹 애플리케이션을 서버리스 마이크로서비스 아키텍처로 재구성하려고 합니다. 이 애플리케이션은 Amazon EC2 인스턴스를 사용하고 Python으로 작성되었습니다. 이 회사는 웹 애플리케이션의 한 구성 요소를 선택하여 마이크로서비스로 테스트했습니다. 이 구성 요소는 매초 수백 개의 요청을 지원합니다. 이 회사는 Python을 지원하는 AWS 솔루션에서 마이크로서비스를 만들고 테스트하려고 합니다. 이 솔루션은 또한 자동으로 확장되어야 하며 최소한의 인프라와 최소한의 운영 지원이 필요합니다.

어떤 솔루션이 이러한 요구 사항을 충족할까요?

A. 최신 Amazon Linux 운영 체제를 실행하는 EC2 인스턴스의 자동 크기 조정이 가능한 Spot Fleet을 사용합니다.
B. 고가용성이 구성된 AWS Elastic Beanstalk 웹 서버 환경을 사용합니다.
C. Amazon Elastic Kubernetes Service(Amazon EKS)를 사용합니다. 자체 관리형 EC2 인스턴스의 Auto Scaling 그룹을 시작합니다.
D. 맞춤으로 개발된 코드를 실행하는 AWS Lambda 함수를 사용합니다.

더보기

D. 맞춤으로 개발된 코드를 실행하는 AWS Lambda 함수를 사용합니다.
- 서버리스 아키텍처: AWS Lambda는 서버리스 컴퓨팅 서비스로, EC2 인스턴스나 Kubernetes 클러스터와 달리 인프라를 직접 관리할 필요가 없습니다. 이는 최소한의 인프라와 운영 지원을 요구하는 회사의 목표에 적합합니다.
- 자동 확장: Lambda는 요청 수에 따라 자동으로 확장됩니다. 매초 수백 개의 요청을 처리할 수 있는 확장성과 유연성을 제공하므로 고가의 인프라 관리가 필요하지 않으며 트래픽이 변동하는 웹 애플리케이션에도 최적화되어 있습니다.
- Python 지원: AWS Lambda는 Python 런타임을 지원하며, 코드 실행 환경으로 사용하기에 적합합니다. 이로 인해 기존 Python 코드를 최소한의 변경으로 Lambda에서 실행할 수 있습니다.
- 비용 효율성: Lambda는 사용한 만큼만 비용을 지불하는 모델을 채택하여, 애플리케이션 트래픽이 많은 시기에도 비용을 효율적으로 관리할 수 있습니다. 서버리스 방식이므로 인프라를 위한 선결제 비용이 없습니다.


■ Question #722

한 회사가 온프레미스 위치에서 AWS 계정으로 AWS Direct Connect 연결을 사용하고 있습니다. AWS 계정에는 동일한 AWS 리전에 30개의 다른 VPC가 있습니다. VPC는 개인 가상 인터페이스(VIF)를 사용합니다. 각 VPC에는 회사의 제어 하에 있는 다른 네트워크와 겹치지 않는 CIDR 블록이 있습니다. 이 회사는 각 VPC가 다른 모든 VPC 및 온프레미스 네트워크와 통신할 수 있도록 하는 동시에 네트워킹 아키텍처를 중앙에서 관리하려고 합니다.

어떤 솔루션이 최소한의 운영 오버헤드로 이러한 요구 사항을 충족할까요?

A. 트랜짓 게이트웨이를 만들고 Direct Connect 연결을 새 트랜짓 VIF와 연결합니다. 트랜짓 게이트웨이의 경로 전파 기능을 켭니다.
B. Direct Connect 게이트웨이를 만듭니다. 새 게이트웨이를 사용하기 위해 개인 VIF를 다시 만듭니다. 새 가상 개인 게이트웨이를 만들어 각 VPC를 연결합니다.
C. 전송 VP 만들기 전송 VPC에 Direct Connect 연결 연결 만들기 지역의 다른 모든 VPC 간에 피어링 연결 만들기 경로 테이블 업데이트
D. 온프레미스에서 각 VPC로 AWS 사이트 간 VPN 연결을 만듭니다. 각 연결에 대해 두 VPN 터널이 모두 UP 상태인지 확인합니다. 경로 전파 기능을 켭니다.

더보기

A. 트랜짓 게이트웨이를 만들고 Direct Connect 연결을 새 트랜짓 VIF와 연결합니다. 트랜짓 게이트웨이의 경로 전파 기능을 켭니다.
- 중앙 관리: 트랜짓 게이트웨이는 AWS 네트워크 트래픽을 중앙에서 관리할 수 있는 솔루션을 제공합니다. 트랜짓 게이트웨이를 사용하여 모든 VPC와 온프레미스 네트워크를 연결하면, 각 VPC 간 연결이 간소화되고 중앙에서 네트워크 아키텍처를 관리할 수 있습니다.
- 확장성: 트랜짓 게이트웨이는 많은 수의 VPC와 온프레미스 네트워크를 연결하는 데 적합하며, AWS Direct Connect 연결과 트랜짓 VIF를 활용해 네트워크 복잡성을 줄일 수 있습니다. 또한 각 VPC를 트랜짓 게이트웨이에 연결하는 방식은 개별 피어링 연결이나 VPN 연결보다 확장성이 높습니다.
- 경로 전파 기능 활성화: 트랜짓 게이트웨이에서 경로 전파 기능을 활성화하면, 별도의 수작업 없이 각 VPC와 온프레미스 네트워크 간의 경로가 자동으로 전파됩니다. 이 기능은 네트워크 경로 관리를 단순화하며 운영 오버헤드를 크게 줄입니다.


■ Question #723

한 회사에 Amazon EC2 인스턴스에서 실행되는 애플리케이션이 있습니다. EC2 인스턴스는 연관된 정책이 있는 IAM 역할을 사용하여 Amazon RDS 데이터베이스에 연결합니다. 이 회사는 실행 중인 애플리케이션을 중단하지 않고도 EC2 인스턴스에 패치를 적용하기 위해 AWS Systems Manager를 사용하려고 합니다.

어떤 솔루션이 이러한 요구 사항을 충족할까요?

A. 새 IAM 역할을 만듭니다. AmazonSSMManagedInstanceCore 정책을 새 IAM 역할에 연결합니다. 새 IAM 역할을 EC2 인스턴스와 기존 IAM 역할에 연결합니다.
B. IAM 사용자를 만듭니다. AmazonSSMManagedInstanceCore 정책을 IAM 사용자에게 연결합니다. Systems Manager를 구성하여 IAM 사용자를 사용하여 EC2 인스턴스를 관리합니다.
C. Systems Manager에서 기본 호스트 구성 관리를 활성화하여 EC2 인스턴스를 관리합니다.
D. 기존 IAM 역할에서 기존 정책을 제거합니다. 기존 IAM 역할에 AmazonSSM Managed InstanceCore 정책을 추가합니다.

더보기

C. Systems Manager에서 기본 호스트 구성 관리를 활성화하여 EC2 인스턴스를 관리합니다.
- 자동 관리 및 간소화된 설정: 기본 호스트 관리 구성은 AWS Systems Manager가 모든 Amazon EC2 인스턴스를 자동으로 관리형 인스턴스로 등록하도록 하며, 수동으로 IAM 역할을 생성하거나 연결할 필요 없이 AWS 계정과 리전에 적용됩니다.
- 즉시 패치 관리 가능: 기본 호스트 관리 구성을 활성화하면, 모든 인스턴스가 Systems Manager의 관리 대상이 되어 Patch Manager를 통해 자동으로 패치를 수행할 수 있습니다. 이렇게 하면 빠르게 관리 구성을 갖출 수 있어 운영 편의성이 높아집니다.
- 기존 애플리케이션과의 중단 없는 통합: 새로 역할을 추가하는 것과 달리, 기존 인스턴스에 대한 변경이 자동으로 적용되므로, 애플리케이션이 중단되지 않으며 모든 인스턴스가 일관된 관리 방식으로 운영될 수 있습니다.


■ Question #724

한 회사가 Amazon Elastic Kubernetes Service(Amazon EKS)와 Kubernetes Horizontal Pod Autoscaler를 사용하여 컨테이너 애플리케이션을 실행합니다. 작업 부하가 하루 종일 일정하지 않습니다. 솔루션 아키텍트는 기존 노드가 클러스터에서 최대 용량에 도달했을 때 노드 수가 자동으로 확장되지 않아 성능 문제가 발생한다는 것을 알아챘습니다.

어떤 솔루션이 가장 적은 관리 오버헤드로 이 문제를 해결할 수 있을까요?

A. 메모리 사용량을 추적하여 노드를 확장합니다.
B. Kubernetes Cluster Autoscaler를 사용하여 클러스터의 노드 수를 관리합니다.
C. AWS Lambda 함수를 사용하여 EKS 클러스터의 크기를 자동으로 조정합니다.
D. Amazon EC2 Auto Scaling 그룹을 사용하여 작업 부하를 분산합니다.

더보기

B. Kubernetes Cluster Autoscaler를 사용하여 클러스터의 노드 수를 관리합니다.
- Kubernetes Cluster Autoscaler는 클러스터의 노드 수를 자동으로 조정하여 클러스터 내의 노드가 최대 용량에 도달했을 때 추가 노드를 자동으로 생성합니다. 또한, 워크로드가 줄어들면 불필요한 노드를 자동으로 제거하여 리소스를 효율적으로 관리할 수 있습니다.
- Horizontal Pod Autoscaler와의 통합: Horizontal Pod Autoscaler는 Pod의 개수를 자동으로 조정하지만, 노드가 부족할 때는 Kubernetes Cluster Autoscaler가 노드의 수를 조정하여 수평 확장 요구 사항을 충족할 수 있도록 합니다. 이 두 오토스케일러는 서로 보완 작용을 하여 클러스터와 워크로드 모두를 유연하게 관리할 수 있게 해줍니다.
- 최소한의 관리 오버헤드: Kubernetes Cluster Autoscaler는 Kubernetes 클러스터와 직접 연동되므로, 추가 스크립트나 인프라 조정 없이 자동으로 노드를 조절할 수 있습니다. 이는 관리 오버헤드를 줄이는 데 매우 효과적입니다.


■ Question #725

한 회사는 매달 Amazon S3 Standard 스토리지에 약 300TB를 유지 관리합니다. S3 객체는 일반적으로 각각 약 50GB 크기이며 글로벌 애플리케이션에서 자주 다중 파트 업로드로 대체됩니다. S3 객체의 수와 크기는 일정하지만 회사의 S3 스토리지 비용은 매달 증가합니다.

이 상황에서 솔루션 아키텍트는 어떻게 비용을 줄여야 할까요?

A. 멀티파트 업로드에서 Amazon S3 전송 가속으로 전환합니다.
B. 완료되지 않은 다중 파트 업로드를 삭제하는 S3 수명 주기 정책을 활성화합니다.
C. S3 인벤토리를 구성하여 객체가 너무 빨리 보관되는 것을 방지합니다.
D. Amazon S3에 저장된 객체 수를 줄이도록 Amazon CloudFront를 구성합니다.

더보기

B. 완료되지 않은 다중 파트 업로드를 삭제하는 S3 수명 주기 정책을 활성화합니다.
- 완료되지 않은 다중 파트 업로드로 인한 불필요한 비용 증가: Amazon S3에서 다중 파트 업로드가 완료되지 않고 중간에 중단되는 경우, 완료되지 않은 부분도 스토리지 비용에 포함됩니다. 이로 인해 객체가 일정하더라도 S3 비용이 증가할 수 있습니다. 완료되지 않은 다중 파트 업로드가 누적되면 매달 추가 비용이 발생할 수 있습니다.
- S3 수명 주기 정책의 활용: S3 수명 주기 정책을 통해 완료되지 않은 다중 파트 업로드를 자동으로 삭제하도록 설정할 수 있습니다. 이를 통해 불필요한 저장 공간을 줄이고 비용을 절감할 수 있습니다.


■ Question #726

한 회사가 모바일 기기에 멀티플레이어 게임을 배포했습니다. 이 게임은 위도와 경도를 기반으로 플레이어의 실시간 위치 추적이 필요합니다. 게임의 데이터 저장소는 위치의 빠른 업데이트와 검색을 지원해야 합니다. 이 게임은 읽기 복제본이 있는 Amazon RDS for PostgreSQL DB 인스턴스를 사용하여 위치 데이터를 저장합니다. 최대 사용 기간 동안 데이터베이스는 업데이트를 읽고 쓰는 데 필요한 성능을 유지할 수 없습니다. 게임의 사용자 기반이 빠르게 증가하고 있습니다.

솔루션 아키텍트는 데이터 계층의 성능을 개선하기 위해 무엇을 해야 합니까?

A. 기존 DB 인스턴스의 스냅샷을 찍습니다. Multi-AZ를 활성화하여 스냅샷을 복원합니다.
B. OpenSearch 대시보드를 사용하여 Amazon RDS에서 Amazon OpenSearch 서비스로 마이그레이션합니다.
C. 기존 DB 인스턴스 앞에 Amazon DynamoDB Accelerator (DAX)를 배포합니다. 게임을 수정하여 DAX를 사용합니다.
D. 기존 DB 인스턴스 앞에 Amazon ElastiCache for Redis 클러스터를 배포합니다. Redis를 사용하도록 게임을 수정합니다.

더보기

D. 기존 DB 인스턴스 앞에 Amazon ElastiCache for Redis 클러스터를 배포합니다. Redis를 사용하도록 게임을 수정합니다.
- ElastiCache for Redis의 고성능 캐싱: Redis는 고성능의 인메모리 데이터 저장소로, 빠른 읽기 및 쓰기 요청을 처리하는 데 적합합니다. 이 캐시는 읽기 요청의 부담을 줄이며, 데이터베이스의 성능을 개선하는 데 큰 도움이 됩니다.
- 빠른 위치 정보 업데이트: 게임에서는 플레이어의 실시간 위치 업데이트가 중요한데, Redis는 낮은 지연 시간과 높은 처리량을 제공하여 실시간 데이터를 처리하는 데 적합합니다. Redis 클러스터에 최근 위치 데이터를 저장하고 빠르게 조회할 수 있으므로, 위치 데이터의 업데이트와 검색 성능이 크게 향상됩니다.


■ Question #727

한 회사가 회사의 AWS 계정에 있는 Amazon DynamoDB 테이블에 중요한 데이터를 저장합니다. IT 관리자가 실수로 DynamoDB 테이블을 삭제했습니다. 삭제로 인해 상당한 데이터 손실이 발생하고 회사 운영이 중단되었습니다. 회사는 앞으로 이런 종류의 중단을 방지하고자 합니다.

어떤 솔루션이 최소한의 운영 오버헤드로 이 요구 사항을 충족할까요?

A. AWS CloudTrail에서 트레일을 구성합니다. 삭제 작업에 대한 Amazon EventBridge 규칙을 만듭니다. 삭제된 DynamoDB 테이블을 자동으로 복원하는 AWS Lambda 함수를 만듭니다.
B. DynamoDB 테이블에 대한 백업 및 복원 계획을 만듭니다. DynamoDB 테이블을 수동으로 복구합니다.
C. DynamoDB 테이블에 삭제 보호를 구성합니다.
D. DynamoDB 테이블에서 지정 시점 복구를 활성화합니다.

더보기

C. DynamoDB 테이블에 삭제 보호를 구성합니다.
- 삭제 방지: 삭제 보호 기능을 사용하면 실수로 인한 테이블 삭제를 방지할 수 있습니다. 삭제가 발생하지 않도록 제어하여 데이터 손실을 미연에 방지합니다.
- 운영 효율성: 한 번 삭제 보호를 설정하면 추가적인 관리가 필요 없으므로 운영 오버헤드가 최소화됩니다.
- 손쉬운 설정: AWS 콘솔이나 API를 통해 삭제 보호를 간단히 설정할 수 있으며, 정기적인 관리 작업 시에도 실수로 테이블이 삭제되지 않도록 할 수 있습니다.


■ Question #728

한 회사에는 스토리지 용량이 부족한 온프레미스 데이터 센터가 있습니다. 이 회사는 대역폭 비용을 최소화하면서 스토리지 인프라를 AWS로 마이그레이션하려고 합니다. 솔루션은 추가 비용 없이 데이터를 즉시 검색할 수 있어야 합니다.

이러한 요구 사항은 어떻게 충족할 수 있습니까?

A. Amazon S3 Glacier Vault를 배포하고 신속한 검색을 활성화합니다. 워크로드에 대한 프로비저닝된 검색 용량을 활성화합니다.
B. 캐시된 볼륨을 사용하여 AWS Storage Gateway를 배포합니다. Storage Gateway를 사용하여 Amazon S3에 데이터를 저장하고 자주 액세스하는 데이터 하위 집합의 사본을 로컬에 보관합니다.
C. 저장된 볼륨을 사용하여 AWS Storage Gateway를 배포하여 로컬에 데이터를 저장합니다. Storage Gateway를 사용하여 데이터의 특정 시점 스냅샷을 Amazon S3에 비동기적으로 백업합니다.
D. AWS Direct Connect를 배포하여 온프레미스 데이터 센터에 연결합니다. AWS Storage Gateway를 구성하여 데이터를 로컬에 저장합니다. Storage Gateway를 사용하여 데이터의 특정 시점 스냅샷을 Amazon S3에 비동기적으로 백업합니다.

더보기

B. 캐시된 볼륨을 사용하여 AWS Storage Gateway를 배포합니다. Storage Gateway를 사용하여 Amazon S3에 데이터를 저장하고 자주 액세스하는 데이터 하위 집합의 사본을 로컬에 보관합니다.
- 대역폭 비용 절감: 캐시된 볼륨을 사용하면 자주 사용하는 데이터만 로컬에 유지하고 나머지 데이터는 Amazon S3에 저장하므로 온프레미스와 AWS 간의 데이터 전송을 최소화하여 대역폭 비용을 절감할 수 있습니다.
- 즉각적인 데이터 검색: 자주 액세스하는 데이터는 로컬에 캐시되어 빠르게 접근할 수 있으며, 나머지 데이터는 Amazon S3에서 필요할 때 바로 검색할 수 있어 요구사항을 충족합니다.
- 비용 효율적 스토리지 관리: Storage Gateway의 캐시된 볼륨을 통해 로컬 스토리지의 필요 용량을 줄이며 AWS S3의 확장성과 내구성을 이용하여 비용을 절감합니다.


■ Question #729

한 회사가 여러 가용성 영역에 걸쳐 VPC에서 3계층 웹 애플리케이션을 실행합니다. Amazon EC2 인스턴스는 애플리케이션 계층에 대한 자동 확장 그룹에서 실행됩니다. 이 회사는 각 리소스의 일일 및 주간 과거 워크로드 추세를 분석하는 자동 확장 계획을 수립해야 합니다. 구성은 예측 및 사용률의 실시간 변경에 따라 리소스를 적절히 확장해야 합니다.

솔루션 아키텍트는 이러한 요구 사항을 충족하기 위해 어떤 확장 전략을 권장해야 합니까?

A. EC2 인스턴스의 평균 CPU 사용률에 따라 단계별 확장을 사용하여 동적 확장을 구현합니다.
B. 예측 및 확장을 위해 예측 확장을 활성화합니다. 대상 추적을 사용하여 동적 확장을 구성합니다.
C. 웹 애플리케이션의 트래픽 패턴을 기반으로 자동화된 예약된 확장 작업을 생성합니다.
D. 간단한 스케일링 정책을 설정합니다. EC2 인스턴스 시작 시간에 따라 쿨다운 기간을 늘립니다.

더보기

B. 예측 및 확장을 위해 예측 확장을 활성화합니다. 대상 추적을 사용하여 동적 확장을 구성합니다.
- 예측 확장: 예측 확장(Predictive Scaling)은 과거의 워크로드 패턴과 추세를 기반으로 미래의 수요를 예측합니다. 이를 통해 미리 EC2 인스턴스를 추가하거나 제거하여 적절한 용량을 확보함으로써 리소스 사용률을 최적화할 수 있습니다.
- 대상 추적 기반 동적 확장(Target Tracking): 실시간 리소스 사용률에 따라 동적 확장을 활성화하면, CPU 사용률과 같은 주요 지표를 기반으로 필요에 따라 신속하게 인스턴스의 수를 조정할 수 있습니다.
- 최적의 운영 효율성: 예측 확장은 일일 및 주간 추세를 고려하고, 대상 추적 기반 동적 확장은 실시간 트래픽 변동에 맞춰 대응하므로, 예측 가능한 트래픽 패턴에 따른 최적의 확장 전략을 제공합니다.


■ Question #730

패키지 배달 회사에 Amazon EC2 인스턴스와 Amazon Aurora MySQL DB 클러스터를 사용하는 애플리케이션이 있습니다. 애플리케이션이 더 대중화되면서 EC2 인스턴스 사용량은 약간만 증가합니다. DB 클러스터 사용량은 훨씬 더 빠른 속도로 증가합니다. 이 회사는 읽기 복제본을 추가하여 단기간 DB 클러스터 사용량을 줄입니다. 그러나 부하는 계속 증가합니다. DB 클러스터 사용량 증가를 유발하는 작업은 모두 배달 세부 정보와 관련된 반복 읽기 명령문입니다. 이 회사는 DB 클러스터에서 반복 읽기의 영향을 완화해야 합니다.

이러한 요구 사항을 가장 비용 효율적으로 충족하는 솔루션은 무엇입니까?

A. 애플리케이션과 DB 클러스터 사이에 Redis 클러스터용 Amazon ElastiCache를 구현합니다.
B. DB 클러스터에 추가 읽기 복제본을 추가합니다.
C. Aurora 읽기 복제본에 대해 Aurora 자동 크기 조정을 구성합니다.
D. 여러 개의 작성자 인스턴스를 갖도록 DB 클러스터를 수정합니다.

더보기

A. 애플리케이션과 DB 클러스터 사이에 Redis 클러스터용 Amazon ElastiCache를 구현합니다.
- 캐싱을 통한 부하 감소: Amazon ElastiCache를 사용하여 Redis 클러스터를 구성하면 반복되는 읽기 작업이 DB 클러스터가 아닌 Redis 캐시에서 처리되므로, 데이터베이스의 부하를 크게 줄일 수 있습니다.
- 비용 효율성: Redis 클러스터는 빠른 인메모리 캐시 서비스로, 데이터베이스에서 자주 조회하는 배달 세부 정보와 같은 데이터를 캐시하여 필요할 때마다 DB 클러스터에서 직접 데이터를 가져오지 않도록 합니다. 이로 인해 전체 데이터베이스 리소스 사용량이 감소하면서 비용이 절감됩니다.
- 속도와 성능: ElastiCache를 활용하면 반복 읽기 명령문이 필요한 애플리케이션의 요청에 대해 매우 빠른 응답 속도를 제공합니다.


■ Question #732

한 회사가 Amazon RDS 데이터베이스가 있는 Amazon EC2 인스턴스에 애플리케이션을 배포했습니다. 이 회사는 최소 권한 원칙을 사용하여 데이터베이스 액세스 자격 증명을 구성했습니다. 이 회사의 보안 팀은 SQL 주입 및 기타 웹 기반 공격으로부터 애플리케이션과 데이터베이스를 보호하려고 합니다.

어떤 솔루션이 최소한의 운영 오버헤드로 이러한 요구 사항을 충족할까요?

A. 보안 그룹과 네트워크 ACL을 사용하여 데이터베이스와 애플리케이션 서버를 보호합니다.
B. AWS WAF를 사용하여 애플리케이션을 보호합니다. RDS 매개변수 그룹을 사용하여 보안 설정을 구성합니다.
C. AWS 네트워크 방화벽을 사용하여 애플리케이션과 데이터베이스를 보호합니다.
D. 다른 기능에 대해 애플리케이션 코드에서 다른 데이터베이스 계정을 사용합니다. 데이터베이스 사용자에게 과도한 권한을 부여하지 마십시오.

더보기

B. AWS WAF를 사용하여 애플리케이션을 보호합니다. RDS 매개변수 그룹을 사용하여 보안 설정을 구성합니다.
- AWS WAF를 통한 웹 애플리케이션 보호: AWS WAF는 SQL 주입 및 기타 웹 기반 공격을 방지하기 위해 웹 애플리케이션에 대한 필터링 기능을 제공합니다. 이를 통해 보안 팀은 최소한의 운영 오버헤드로 웹 애플리케이션을 보호할 수 있습니다.
- RDS 매개변수 그룹을 통한 보안 설정 강화: RDS 매개변수 그룹을 사용하여 데이터베이스의 보안 설정을 구성하면 데이터베이스의 보안 강화에 도움이 되며, 안전한 연결과 보안 매개변수를 쉽게 관리할 수 있습니다.


■ Question #733

전자상거래 회사는 AWS Organizations의 조직에 속하는 AWS 계정에서 애플리케이션을 실행합니다. 애플리케이션은 모든 계정에서 Amazon Aurora PostgreSQL 데이터베이스에서 실행됩니다. 이 회사는 악의적인 활동을 방지해야 하며 데이터베이스에 대한 비정상적인 실패 및 불완전한 로그인 시도를 식별해야 합니다.

어떤 솔루션이 가장 운영 효율적인 방식으로 이러한 요구 사항을 충족할까요?

A. 조직의 루트에 서비스 제어 정책(SCP)을 연결하여 실패한 로그인 시도를 식별합니다.
B. 조직의 구성원 계정에 대해 Amazon GuardDuty에서 Amazon RDS 보호 기능을 활성화합니다.
C. Aurora 일반 로그를 Amazon CloudWatch Logs의 로그 그룹에 게시합니다. 로그 데이터를 중앙 Amazon S3 버킷으로 내보냅니다.
D. AWS CloudTrail에 있는 모든 Aurora PostgreSQL 데이터베이스 이벤트를 중앙 Amazon S3 버킷에 게시합니다.

더보기

B. 조직의 구성원 계정에 대해 Amazon GuardDuty에서 Amazon RDS 보호 기능을 활성화합니다.
- Amazon GuardDuty의 RDS 보호 기능은 데이터베이스에 대한 악의적인 활동 및 비정상적인 로그인 실패와 같은 잠재적 위협을 자동으로 탐지합니다. 또한 비정상적인 데이터베이스 접근 시도를 식별하여 보안 사고 발생 시 즉각적인 대응을 가능하게 합니다.
- 운영 효율성: GuardDuty는 중앙 관리형 서비스로 설정이 간단하며 지속적인 관리 부담이 적습니다. 또한 조직 전체에 대해 GuardDuty를 활성화하면 모든 계정에서 일관되게 모니터링할 수 있습니다.


■ Question #734

한 회사가 자사 기업 데이터 센터에서 us-east-1 지역의 VPC로 AWS Direct Connect 연결을 사용하고 있습니다. 이 회사는 최근 온프레미스 데이터 센터와 eu-west-2 지역 간에 여러 개의 VPC와 Direct Connect 연결을 사용하는 회사를 인수했습니다. 회사와 회사의 VPC에 대한 CIDR 블록은 겹치지 않습니다. 이 회사는 두 지역과 데이터 센터 간의 연결이 필요합니다. 이 회사는 운영 오버헤드를 줄이면서 확장 가능한 솔루션이 필요합니다.

솔루션 아키텍트는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?

A. us-east-1의 VPC와 eu-west-2의 VPC 간에 지역 간 VPC 피어링을 설정합니다.
B. us-east-1의 Direct Connect 연결에서 eu-west-2의 VPC로 개인 가상 인터페이스를 생성합니다.
C. Amazon EC2에서 호스팅하는 완전 메시 VPN 네트워크에서 VPN 어플라이언스를 설정합니다. AWS VPN CloudHub를 사용하여 데이터 센터와 각 VPC 간에 데이터를 송수신합니다.
D. 기존 Direct Connect 연결을 Direct Connect 게이트웨이에 연결합니다. 각 지역의 VPC의 가상 프라이빗 게이트웨이에서 Direct Connect 게이트웨이로 트래픽을 라우팅합니다.

더보기

D. 기존 Direct Connect 연결을 Direct Connect 게이트웨이에 연결합니다. 각 지역의 VPC의 가상 프라이빗 게이트웨이에서 Direct Connect 게이트웨이로 트래픽을 라우팅합니다.
- Direct Connect 게이트웨이 사용: Direct Connect 게이트웨이는 여러 VPC와 여러 리전에 걸쳐 Direct Connect 연결을 확장할 수 있는 기능을 제공하여 확장성을 높입니다. 각 지역에 있는 VPC를 Direct Connect 게이트웨이에 연결하여 운영 오버헤드를 줄일 수 있습니다.
- 지역 간 통신 가능: Direct Connect 게이트웨이를 사용하면 두 지역의 VPC가 서로 통신할 수 있으며, 온프레미스 데이터 센터에서 두 지역의 VPC에 접근할 수 있습니다.
- 운영 오버헤드 감소: 이 솔루션은 Direct Connect 게이트웨이를 통해 단일 관리 지점으로 연결을 중앙화하므로 운영 오버헤드가 줄어듭니다.


■ Question #735

한 회사가 백엔드 프로세서에 점수 업데이트를 스트리밍한 다음 리더보드에 결과를 게시하는 모바일 게임을 개발하고 있습니다. 솔루션 아키텍트는 대규모 트래픽 급증을 처리하고, 수신 순서대로 모바일 게임 업데이트를 처리하고, 처리된 업데이트를 고가용성 데이터베이스에 저장할 수 있는 솔루션을 설계해야 합니다. 또한 이 회사는 솔루션을 유지 관리하는 데 필요한 관리 오버헤드를 최소화하려고 합니다.

솔루션 아키텍트는 이러한 요구 사항을 충족하기 위해 무엇을 해야 할까요?

A. Amazon Kinesis Data Streams에 점수 업데이트를 푸시합니다. AWS Lambda로 Kinesis Data Streams에서 업데이트를 처리합니다. 처리된 업데이트를 Amazon DynamoDB에 저장합니다.
B. Amazon Kinesis Data Streams에 점수 업데이트를 푸시합니다. Auto Scaling을 위해 설정된 Amazon EC2 인스턴스 플릿으로업데이트를 처리합니다. 처리된 업데이트를 Amazon Redshift에 저장합니다.
C. Amazon Simple Notification Service (Amazon SNS) 토픽에 점수 업데이트를 푸시합니다. AWS Lambda 함수를 SNS 토픽에 구독하여 업데이트를 처리합니다. 처리된 업데이트를 Amazon EC2에서 실행되는 SQL 데이터베이스에 저장합니다.
D. Amazon Simple Queue Service (Amazon SQS) 대기열에 점수 업데이트를 푸시합니다. Auto Scaling이 있는 Amazon EC2 인스턴스 플릿을 사용하여 SQS 대기열의 업데이트를 처리합니다. 처리된 업데이트를 Amazon RDS Multi-AZ DB 인스턴스에 저장합니다.

더보기

A. Amazon Kinesis Data Streams에 점수 업데이트를 푸시합니다. AWS Lambda로 Kinesis Data Streams에서 업데이트를 처리합니다. 처리된 업데이트를 Amazon DynamoDB에 저장합니다.
- 대규모 트래픽 처리 및 순서 보장: Amazon Kinesis Data Streams는 데이터 스트리밍 솔루션으로, 높은 처리량과 확장성을 제공하며, 각 파티션 내에서 순서를 보장합니다. 점수 업데이트가 순서대로 처리되도록 하므로 게임의 일관성을 유지합니다.
- 서버리스 솔루션으로 관리 오버헤드 최소화: AWS Lambda는 Kinesis Data Streams와 직접 통합되어 서버리스로 확장 가능한 이벤트 기반 아키텍처를 제공합니다. 이를 통해 서버 유지 관리의 부담을 줄이고 트래픽 급증에 대응할 수 있습니다.
- 고가용성 데이터베이스 저장소: Amazon DynamoDB는 고가용성 NoSQL 데이터베이스로, 빠른 응답 시간을 제공하고 대규모의 비정형 데이터를 처리할 수 있어 점수 데이터를 효과적으로 저장합니다.


■ Question #736

한 회사에는 us-west-2 지역에 배포된 애플리케이션이 있는 여러 AWS 계정이 있습니다. 애플리케이션 로그는 각 계정의 Amazon S3 버킷에 저장됩니다. 이 회사는 단일 S3 버킷을 사용하는 중앙 집중식 로그 분석 솔루션을 구축하려고 합니다. 로그는 us-west-2를 떠나서는 안 되며, 이 회사는 최소한의 운영 오버헤드를 발생시키고자 합니다.

어떤 솔루션이 이러한 요구 사항을 충족하고 가장 비용 효율적일까요?

A. 애플리케이션 S3 버킷 중 하나에서 중앙 S3 버킷으로 객체를 복사하는 S3 수명 주기 정책을 생성합니다.
B. S3 Same-Region Replication을 사용하여 S3 버킷에서 us-west-2의 다른 S3 버킷으로 로그를 복제합니다. 이 S3 버킷을 로그 분석에 사용합니다.
C. PutObject API 작업을 매일 사용하여 버킷의 전체 내용을 us-west-2의 다른 S3 버킷으로 복사하는 스크립트를 작성합니다. 이 S3 버킷을 로그 분석에 사용합니다.
D. S3 버킷에 로그가 전달될 때마다 트리거되는 AWS Lambda 함수를 이 계정에 작성합니다. (s3:ObjectCreated:* 이벤트) 로그를 us-west-2의 다른 S3 버킷에 복사합니다. 이 S3 버킷을 로그 분석에 사용합니다.

더보기

B. S3 Same-Region Replication을 사용하여 S3 버킷에서 us-west-2의 다른 S3 버킷으로 로그를 복제합니다. 이 S3 버킷을 로그 분석에 사용합니다.
- 운영 오버헤드 감소: S3 Same-Region Replication (SRR)은 AWS가 제공하는 자동화된 복제 서비스로, 계정 간에 동일 리전 내에서 데이터를 복제하는 작업을 자동화하여 추가적인 운영 및 관리 오버헤드를 줄여줍니다.
- 비용 효율성: SRR은 로그가 저장될 때마다 자동으로 중앙 집중식 S3 버킷으로 복사하여 비용을 절감합니다. 또한 추가적인 스크립팅이나 복잡한 관리 없이 복제할 수 있어 운영 효율성 또한 높습니다.
- 데이터 지역성: SRR은 동일한 리전인 us-west-2 내에서 데이터를 복제하므로, 로그 데이터가 리전을 벗어나지 않아 데이터 보안 및 규제 준수 요건을 충족합니다.


■ Question #737

한 회사가 전 세계 학생들에게 주문형 교육 비디오를 제공하는 애플리케이션을 보유하고 있습니다. 이 애플리케이션은 또한 권한이 있는 콘텐츠 개발자가 비디오를 업로드할 수 있도록 허용합니다. 데이터는 us-east-2 지역의 Amazon S3 버킷에 저장됩니다. 이 회사는 eu-west-2 지역에 S3 버킷을, ap-southeast-1 지역에 S3 버킷을 만들었습니다. 이 회사는 데이터를 새로운 S3 버킷에 복제하려고 합니다. 이 회사는 비디오를 업로드하는 개발자와 eu-west-2와 ap-southeast-1 근처에서 비디오를 스트리밍하는 학생의 대기 시간을 최소화해야 합니다.

어떤 단계 조합이 애플리케이션을 가장 적게 변경하여 이러한 요구 사항을 충족할 수 있을까요? (두 가지를 선택하세요.)

A. us-east-2 S3 버킷에서 eu-west-2 S3 버킷으로 단방향 복제를 구성합니다. us-east-2 S3 버킷에서 ap-southeast-1 S3 버킷으로 단방향 복제를 구성합니다.
B. us-east-2 S3 버킷에서 eu-west-2 S3 버킷으로 단방향 복제를 구성합니다. eu-west-2 S3 버킷에서 ap-southeast-1 S3 버킷으로 단방향 복제를 구성합니다.
C. 3개 지역에 모두 있는 S3 버킷 간에 양방향 복제를 구성합니다.
D. S3 다중 지역 액세스 포인트를 만듭니다. 비디오 스트리밍을 위해 다중 지역 액세스 포인트의 Amazon 리소스 이름(ARN)을 사용하도록 애플리케이션을 수정합니다. 비디오 업로드를 위해 애플리케이션을 수정하지 마세요.
E. S3 다중 지역 액세스 포인트를 만듭니다. 비디오 스트리밍 및 업로드를 위해 다중 지역 액세스 포인트의 Amazon 리소스 이름(ARN)을 사용하도록 애플리케이션을 수정합니다.

더보기

C. 3개 지역에 모두 있는 S3 버킷 간에 양방향 복제를 구성합니다.
- 양방향 복제를 통해 세 개의 모든 S3 버킷 간 데이터를 동기화할 수 있습니다.
- 이를 통해 개발자가 비디오를 가장 가까운 버킷에 업로드하더라도 자동으로 다른 두 지역에도 복제되어 일관된 데이터를 유지할 수 있습니다.
- 양방향 복제는 모든 지역에서 데이터의 최신 상태를 동기화하여, 대기 시간을 줄이는 데 도움이 됩니다.

E. S3 다중 지역 액세스 포인트를 만듭니다. 비디오 스트리밍 및 업로드를 위해 다중 지역 액세스 포인트의 Amazon 리소스 이름(ARN)을 사용하도록 애플리케이션을 수정합니다.
- 비디오 스트리밍과 업로드 모두에 다중 지역 액세스 포인트 ARN을 사용하도록 애플리케이션을 설정하여, 사용자가 가장 가까운 지역에서 데이터를 전송받을 수 있습니다.
- 이를 통해 글로벌 사용자에게 저지연 액세스를 제공할 수 있으며, 자동으로 각 사용자에게 최적화된 지역에서 서비스가 이루어지게 됩니다.


■ Question #738

한 회사에 새로운 모바일 앱이 있습니다. 전 세계 어디에서나 사용자는 선택한 주제에 대한 지역 뉴스를 볼 수 있습니다. 사용자는 앱 내부에서 사진과 비디오를 게시할 수도 있습니다. 사용자는 종종 콘텐츠가 게시된 후 처음 몇 분 동안 콘텐츠에 액세스합니다. 새 콘텐츠가 기존 콘텐츠를 빠르게 대체한 다음 기존 콘텐츠는 사라집니다. 뉴스의 지역적 특성으로 인해 사용자는 업로드된 AWS 리전 내에서 콘텐츠의 90%를 소비합니다.

어떤 솔루션이 콘텐츠 업로드에 대한 가장 낮은 지연 시간을 제공하여 사용자 경험을 최적화할까요?

A. Amazon S3에 콘텐츠를 업로드하고 저장합니다. 업로드에는 Amazon CloudFront를 사용합니다.
B. Amazon S3에 콘텐츠를 업로드하고 저장합니다. 업로드에는 S3 Transfer Acceleration을 사용합니다.
C. 사용자에게 가장 가까운 지역의 Amazon EC2 인스턴스에 콘텐츠를 업로드합니다. 데이터를 Amazon S3에 복사합니다.
D. 사용자에게 가장 가까운 지역의 Amazon S3에 콘텐츠를 업로드하고 저장합니다. Amazon CloudFront의 여러 배포를 사용합니다.

더보기

B. Amazon S3에 콘텐츠를 업로드하고 저장합니다. 업로드에는 S3 Transfer Acceleration을 사용합니다.
- S3 Transfer Acceleration은 전 세계적으로 분산된 엣지 로케이션을 통해 데이터를 빠르게 전송할 수 있도록 지원하여, 사용자가 가까운 엣지 로케이션에 콘텐츠를 업로드하면 AWS 네트워크를 통해 데이터를 가속화하여 S3 버킷에 도달하게 됩니다.
- 전송 지연이 최소화되기 때문에 사용자가 어디에 있든 데이터 업로드 지연 시간을 줄일 수 있는 장점이 있습니다.


■ Question #739

한 회사가 서버리스 아키텍처를 사용하는 새로운 애플리케이션을 구축하고 있습니다. 아키텍처는 들어오는 요청을 관리하기 위한 Amazon API Gateway REST API와 AWS Lambda 함수로 구성됩니다. 이 회사는 API Gateway REST API에서 수신한 메시지를 여러 대상 Lambda 함수로 보내 처리할 수 있는 서비스를 추가하려고 합니다. 이 서비스는 대상 Lambda 함수가 함수에 필요한 메시지만 수신할 수 있는 메시지 필터링을 제공해야 합니다.

어떤 솔루션이 이러한 요구 사항을 가장 적은 운영 오버헤드로 충족할까요?

A. API Gateway REST API에서 Amazon Simple Notification Service(Amazon SNS) 주제로 요청을 보냅니다. Amazon Simple Queue Service(Amazon SQS) 대기열을 SNS 주제에 구독합니다. 대상 Lambda 함수를 구성하여 다양한 SQS 대기열을 폴링합니다.
B. API Gateway REST API에서 Amazon EventBridge로 요청을 보냅니다. EventBridge를 구성하여 대상 Lambda 함수를 호출합니다.
C. API Gateway REST API에서 Amazon Managed Streaming for Apache Kafka(Amazon MSK)로 요청을 보냅니다. Amazon MSK를 구성하여 대상 Lambda 함수에 메시지를 게시합니다.
D. API Gateway REST API에서 여러 Amazon Simple Queue Service(Amazon SQS) 대기열로 요청을 보냅니다. 대상 Lambda 함수를 구성하여 다양한 SQS 대기열을 폴링합니다.

더보기

A. API Gateway REST API에서 Amazon Simple Notification Service(Amazon SNS) 주제로 요청을 보냅니다. Amazon Simple Queue Service(Amazon SQS) 대기열을 SNS 주제에 구독합니다. 대상 Lambda 함수를 구성하여 다양한 SQS 대기열을 폴링합니다.
- Amazon Simple Notification Service(Amazon SNS) : AWS에서 제공하는 완전 관리형 메시지 전송 및 알림 서비스로, 발행-구독(Pub/Sub) 모델을 기반으로 하여 메시지를 여러 구독자에게 빠르고 확장성 있게 전달합니다. 이를 통해 시스템, 애플리케이션 및 최종 사용자 간의 메시징을 간편하게 구축할 수 있습니다.
- Amazon Simple Queue Service(Amazon SQS) : AWS에서 제공하는 완전 관리형 메시지 대기열 서비스로, 애플리케이션 간의 비동기식 메시징을 가능하게 하여 확장성과 내구성을 갖춘 분산 시스템을 구축하는 데 사용됩니다. SQS는 애플리케이션 구성 요소 간의 메시지 전송을 비동기적으로 처리하여 시스템의 성능과 신뢰성을 높이고, 결합도를 낮춥니다.
- 메시지 필터링 지원: SNS의 구독 필터링 기능으로 각 Lambda 함수가 필요한 메시지만 수신할 수 있습니다.
- 신뢰성과 안정성: SNS와 SQS의 조합은 메시지의 내구성과 신뢰성을 보장하므로, 요청이 손실 없이 각 Lambda 함수로 전달됩니다.
- 확장성: 이 구조는 추가 Lambda 함수가 필요해질 때마다 새로운 SQS 대기열과 구독 규칙을 추가하는 방식으로 확장할 수 있습니다.


■ Question #740

한 회사가 수백만 개의 보관 파일을 Amazon S3로 마이그레이션했습니다. 솔루션 아키텍트는 고객이 제공한 키를 사용하여 모든 보관 데이터를 암호화하는 솔루션을 구현해야 합니다. 솔루션은 기존의 암호화되지 않은 객체와 미래의 객체를 암호화해야 합니다.

어떤 솔루션이 이러한 요구 사항을 충족할까요?

A. Amazon S3 인벤토리 보고서를 필터링하여 암호화되지 않은 객체 목록을 만듭니다. S3 일괄 작업 작업을 구성하여 고객 제공 키(SSE-C)를 사용하여 서버 측 암호화로 목록의 객체를 암호화합니다. S3 기본 암호화 기능을 구성하여 고객 제공 키(SSE-C)를 사용하여 서버 측 암호화를 사용합니다.
B. S3 Storage Lens 메트릭을 사용하여 암호화되지 않은 S3 버킷을 식별합니다. AWS KMS 키(SSE-KMS)를 사용하여 서버 측 암호화를 사용하도록 S3 기본 암호화 기능을 구성합니다.
C. Amazon S3에 대한 AWS 사용 보고서를 필터링하여 암호화되지 않은 객체 목록을 만듭니다. AWS KMS 키(SSE-KMS)를 사용하여 서버 측 암호화로 목록에서 객체를 암호화하도록 AWS Batch 작업을 구성합니다. AWS KMS 키(SSE-KMS)를 사용하여 서버 측 암호화를 사용하도록 S3 기본 암호화 기능을 구성합니다.
D. Amazon S3에 대한 AWS 사용 보고서를 필터링하여 암호화되지 않은 객체 목록을 만듭니다. S3 기본 암호화 기능을 구성하여 고객 제공 키(SSE-C)를 사용하여 서버 측 암호화를 사용합니다.

더보기

A. Amazon S3 인벤토리 보고서를 필터링하여 암호화되지 않은 객체 목록을 만듭니다. S3 일괄 작업 작업을 구성하여 고객 제공 키(SSE-C)를 사용하여 서버 측 암호화로 목록의 객체를 암호화합니다. S3 기본 암호화 기능을 구성하여 고객 제공 키(SSE-C)를 사용하여 서버 측 암호화를 사용합니다.
- S3 인벤토리 보고서를 사용하여 암호화되지 않은 객체를 식별하고, S3 일괄 작업으로 고객 제공 키(SSE-C)를 사용하여 대량의 객체를 암호화할 수 있습니다.
- 또한 S3 기본 암호화 기능을 구성하여 미래에 업로드되는 모든 객체에 대해 자동으로 SSE-C를 적용하도록 설정할 수 있습니다.
- 이 방법은 기존의 암호화되지 않은 객체와 향후 업로드되는 객체 모두를 고객 제공 키(SSE-C)로 암호화할 수 있도록 하므로 요구 사항에 가장 적합한 솔루션입니다.

반응형

'let's study > AWS SAA-C03' 카테고리의 다른 글

AWS SAA-C03 Examtopics (761 ~ 780)  (1) 2024.12.21
AWS SAA-C03 Examtopics (741 ~ 760)  (0) 2024.12.21
AWS SAA-C03 Examtopics (701 ~ 720)  (0) 2024.12.21
AWS SAA-C03 Examtopics (681 ~ 700)  (4) 2024.12.21
AWS SAA-C03 Examtopics (661 ~ 680)  (0) 2024.12.21

관련글 더보기