AWS Certified Solutions Architect - Associate 공부하면서 작성된 글로 일부오류가있을수있습니다. |
■ Question #961
한 회사가 AWS를 사용하여 퍼블릭 전자상거래 웹사이트를 호스팅합니다. 이 웹사이트는 인터넷 트래픽에 AWS Global Accelerator 가속기를 사용합니다. Global Accelerator 가속기는 트래픽을 Auto Scaling 그룹의 진입점인 Application Load Balancer (ALB)로 전달합니다. 이 회사는 최근 웹사이트에서 DDoS 공격을 확인했습니다. 이 회사는 향후 공격을 완화하기 위한 솔루션이 필요합니다.
어떤 솔루션이 최소한의 구현 노력으로 이러한 요구 사항을 충족할까요?
A. 속도 기반 규칙을 사용하여 트래픽을 차단하기 위해 Global Accelerator 가속기에 대한 AWS WAF 웹 ACL을 구성합니다.
B. VPC 네트워크 ACL을 업데이트하여 공격을 차단하기 위해 ALB 메트릭을 읽도록 AWS Lambda 함수를 구성합니다.
C. 속도 기반 규칙을 사용하여 트래픽을 차단하기 위해 ALB에 AWS WAF 웹 ACL을 구성합니다.
D. Global Accelerator 가속기 앞에 Amazon CloudFront 배포를 구성합니다.
C. 속도 기반 규칙을 사용하여 트래픽을 차단하기 위해 ALB에 AWS WAF 웹 ACL을 구성합니다.
- 최소한의 구현 노력으로 ALB 수준에서 DDoS 공격을 완화할 수 있습니다. AWS WAF를 ALB에 연결하면 특정 패턴에 따른 트래픽을 차단할 수 있으며, 특히 속도 기반 규칙을 사용해 지나치게 많은 요청을 보내는 IP 주소나 악성 트래픽을 제한할 수 있습니다.
- AWS Global Accelerator와의 통합이 필요하지 않기 때문에, 이 접근법은 기존 아키텍처의 변경 없이 효율적으로 공격을 방어할 수 있습니다.
■ Question #962
한 회사는 Amazon DynamoDB 테이블을 사용하여 회사가 기기에서 수신하는 데이터를 저장합니다. DynamoDB 테이블은 고객 대면 웹사이트에서 고객 기기의 최근 활동을 표시하는 것을 지원합니다. 이 회사는 쓰기 및 읽기에 대한 프로비저닝된 처리량으로 테이블을 구성했습니다. 이 회사는 매일 고객 기기 데이터에 대한 성능 지표를 계산하려고 합니다. 이 솔루션은 테이블의 프로비저닝된 읽기 및 쓰기 용량에 최소한의 영향을 미쳐야 합니다.
어떤 솔루션이 이러한 요구 사항을 충족할까요?
A. Amazon Athena DynamoDB 커넥터와 함께 Amazon Athena SQL 쿼리를 사용하여 반복적인 일정에 따라 성능 지표를 계산합니다.
B. AWS Glue DynamoDB 내보내기 커넥터와 함께 AWS Glue 작업을 사용하여 반복 일정에 따라 성능 지표를 계산합니다.
C. Amazon Redshift COPY 명령을 사용하여 반복되는 일정에 대한 성능 지표를 계산합니다.
D. Apache Hive 외부 테이블과 함께 Amazon EMR 작업을 사용하여 반복적인 일정에 따라 성능 지표를 계산합니다.
B. AWS Glue DynamoDB 내보내기 커넥터와 함께 AWS Glue 작업을 사용하여 반복 일정에 따라 성능 지표를 계산합니다.
- DynamoDB 테이블의 데이터를 읽고, AWS Glue 작업을 통해 성능 지표를 계산하여 테이블의 프로비저닝된 용량에 최소한의 영향을 미칩니다.
- Glue 작업은 스케줄링 가능하고, 직접 테이블을 쿼리하거나 데이터를 추출하여 성능 분석을 수행할 수 있어 처리량 제약을 최소화합니다.
■ Question #963
솔루션 아키텍트가 AWS에 배포될 새로운 상태 없는 애플리케이션에 대한 클라우드 아키텍처를 설계하고 있습니다. 솔루션 아키텍트는 애플리케이션에 대한 Amazon Machine Image(AMI)와 실행 템플릿을 만들었습니다. 처리해야 하는 작업 수에 따라 필요에 따라 애플리케이션 Amazon EC2 인스턴스를 추가하고 제거하는 동안 처리를 병렬로 실행해야 합니다. 애플리케이션은 느슨하게 결합되어야 합니다. 작업 항목은 내구성 있게 저장되어야 합니다.
어떤 솔루션이 이러한 요구 사항을 충족할까요?
A. Amazon Simple Notification Service(Amazon SNS) 토픽을 만들어 처리해야 할 작업을 보냅니다. CPU 사용량에 따라 EC2 인스턴스를 추가 및 제거하도록 스케일링 정책이 설정된 시작 템플릿을 사용하여 자동 스케일링 그룹을 만듭니다.
B. 처리해야 할 작업을 보관할 Amazon Simple Queue Service(Amazon SQS) 대기열을 만듭니다. 네트워크 사용에 따라 EC2 인스턴스를 추가 및 제거하도록 스케일링 정책이 설정된 시작 템플릿을 사용하여 자동 스케일링 그룹을 만듭니다.
C. 처리해야 할 작업을 보관할 Amazon Simple Queue Service(Amazon SQS) 대기열을 만듭니다. SQS 대기열의 항목 수에 따라 EC2 인스턴스를 추가 및 제거하도록 스케일링 정책이 설정된 시작 템플릿을 사용하여 자동 스케일링 그룹을 만듭니다.
D. Amazon Simple Notification Service(Amazon SNS) 토픽을 만들어 처리해야 할 작업을 보냅니다. 스케일링 정책이 설정된 시작 템플릿을 사용하여 자동 스케일링 그룹을 만들어 SNS 토픽에 게시된 메시지 수에 따라 EC2 인스턴스를 추가 및 제거합니다.
C. 처리해야 할 작업을 보관할 Amazon Simple Queue Service(Amazon SQS) 대기열을 만듭니다. SQS 대기열의 항목 수에 따라 EC2 인스턴스를 추가 및 제거하도록 스케일링 정책이 설정된 시작 템플릿을 사용하여 자동 스케일링 그룹을 만듭니다.
- 작업 항목을 내구성 있게 저장하며, 작업의 수에 따라 EC2 인스턴스 수를 자동으로 조절하여 비용 효율성을 높이고 병렬 처리를 지원합니다. SQS를 통해 느슨한 결합도 또한 보장됩니다.
■ Question #964
글로벌 전자상거래 회사가 모놀리식 아키텍처를 사용합니다. 이 회사는 증가하는 제품 데이터 양을 관리할 솔루션이 필요합니다. 솔루션은 확장 가능해야 하며 모듈식 서비스 아키텍처가 있어야 합니다. 이 회사는 구조화된 데이터베이스 스키마를 유지해야 합니다. 이 회사는 또한 제품 데이터와 제품 이미지를 저장할 스토리지 솔루션이 필요합니다.
어떤 솔루션이 최소한의 운영 오버헤드로 이러한 요구 사항을 충족할까요?
A. Auto Scaling 그룹에서 Amazon EC2 인스턴스를 사용하여 컨테이너화된 애플리케이션을 배포합니다. Application Load Balancer를 사용하여 웹 트래픽을 분산합니다. Amazon RDS DB 인스턴스를 사용하여 제품 데이터와 제품 이미지를 저장합니다.
B. AWS Lambda 함수를 사용하여 기존 모놀리식 애플리케이션을 관리합니다. Amazon DynamoDB를 사용하여 제품 데이터와 제품 이미지를 저장합니다. Lambda 함수 간의 이벤트 기반 통신을 위해 Amazon Simple Notification Service (Amazon SNS)를 사용합니다.
C. Amazon EC2 배포와 함께 Amazon Elastic Kubernetes Service (Amazon EKS)를 사용하여 컨테이너화된 애플리케이션을 배포합니다. Amazon Aurora 클러스터를 사용하여 제품 데이터를 저장합니다. AWS Step Functions를 사용하여 워크플로를 관리합니다. Amazon S3 Glacier Deep Archive에 제품 이미지를 저장합니다.
D. AWS Fargate와 함께 Amazon Elastic Container Service (Amazon ECS)를 사용하여 컨테이너화된 애플리케이션을 배포합니다. Multi-AZ 배포와 함께 Amazon RDS를 사용하여 제품 데이터를 저장합니다. Amazon S3 버킷에 제품 이미지를 저장합니다.
D. AWS Fargate와 함께 Amazon Elastic Container Service(Amazon ECS)를 사용하여 컨테이너화된 애플리케이션을 배포합니다. Multi-AZ 배포와 함께 Amazon RDS를 사용하여 제품 데이터를 저장합니다. Amazon S3 버킷에 제품 이미지를 저장합니다.
- 모듈식 서비스 아키텍처를 제공하며, 컨테이너화를 통해 애플리케이션의 확장성을 높입니다. 또한 Amazon RDS를 통해 구조화된 데이터베이스 스키마를 유지하면서 Amazon S3를 사용해 제품 이미지를 관리하여 운영 오버헤드를 줄입니다.
■ Question #966
한 회사에서 여러 팀이 사용할 Amazon EMR 클러스터를 만들고자 합니다. 이 회사는 각 팀의 빅 데이터 워크로드가 각 팀이 상호 작용해야 하는 AWS 서비스에만 액세스할 수 있도록 하려고 합니다. 이 회사는 워크로드가 클러스터의 기본 EC2 인스턴스에서 Instance Metadata Service Version 2 (IMDSv2)에 액세스하는 것을 원하지 않습니다.
어떤 솔루션이 이러한 요구 사항을 충족할까요?
A. 팀에 필요한 각 AWS 서비스에 대한 인터페이스 VPC 엔드포인트를 구성합니다. 필요한 인터페이스 VPC 엔드포인트를 사용하여 빅데이터 워크로드를 제출합니다.
B. EMR 런타임 역할을 만듭니다. 클러스터를 구성하여 런타임 역할을 사용합니다. 런타임 역할을 사용하여 빅데이터 워크로드를 제출합니다.
C. 각 팀에 필요한 권한이 있는 EC2 IAM 인스턴스 프로필을 만듭니다. 인스턴스 프로필을 사용하여 빅데이터 워크로드를 제출합니다.
D. EnableApplicationScopedIAMRole 옵션이 false로 설정된 EMR 보안 구성을 만듭니다. 보안 구성을 사용하여 빅데이터 워크로드를 제출합니다.
B. EMR 런타임 역할을 만듭니다. 클러스터를 구성하여 런타임 역할을 사용합니다. 런타임 역할을 사용하여 빅데이터 워크로드를 제출합니다.
- Instance Metadata Service Version 2(IMDSv2) : Amazon EC2 인스턴스에서 메타데이터를 보다 안전하게 액세스할 수 있도록 만든 Instance Metadata Service의 최신 버전입니다. EC2 인스턴스 메타데이터 서비스는 인스턴스의 설정 및 관련 정보를 제공하는 엔드포인트로, 애플리케이션이 해당 인스턴스의 메타데이터를 검색할 수 있습니다. IMDSv2는 기존 IMDSv1에 비해 보안이 강화된 형태로 설계되었습니다.
- IMDSv2는 메타데이터 접근 시 세션 기반의 토큰을 요구하는 방식으로, 기존 IMDSv1에 비해 보안을 강화한 Amazon EC2 인스턴스 메타데이터 서비스입니다. 이를 통해 메타데이터에 대한 무단 접근과 공격을 방지할 수 있으며, 기존 애플리케이션과의 호환성도 유지됩니다.
- Instance Metadata Service Version 2(IMDSv2)와의 상호 작용을 방지하면서 특정 AWS 서비스에 대한 액세스를 제한할 수 있습니다. EMR 런타임 역할을 사용하면 각 팀이 서로의 AWS 서비스에 액세스하지 못하도록 필요한 권한만 부여할 수 있습니다. 이를 통해 각 팀은 승인된 AWS 서비스에만 액세스할 수 있으며, IMDSv2에 대한 액세스도 제한됩니다.
■ Question #968
금융 회사는 온프레미스 검색 애플리케이션을 사용하여 다양한 생산자로부터 스트리밍 데이터를 수집합니다. 이 애플리케이션은 검색 및 시각화 기능에 대한 실시간 업데이트를 제공합니다. 이 회사는 AWS로 마이그레이션할 계획이며 AWS 네이티브 솔루션을 사용하려고 합니다.
어떤 솔루션이 이러한 요구 사항을 충족할까요?
A. Amazon EC2 인스턴스를 사용하여 데이터 스트림을 수집하고 처리하여 Amazon S3 버킷에 저장. Amazon Athena를 사용하여 데이터 검색 Amazon Managed Grafana를 사용하여 시각화 생성
B. Amazon EMR을 사용하여 데이터 스트림을 수집하고 처리하여 Amazon Redshift에 저장. Amazon Redshift Spectrum을 사용하여 데이터 검색 Amazon QuickSight를 사용하여 시각화 생성
C. Amazon Elastic Kubernetes Service(Amazon EKS)를 사용하여 데이터 스트림을 수집하고 처리하여 Amazon DynamoDB에 저장 Amazon CloudWatch를 사용하여 그래픽 대시보드를 만들어 데이터를 검색하고 시각화합니다.
D. Amazon Kinesis Data Streams를 사용하여 Amazon OpenSearch Service로 데이터 스트림을 수집하고 처리합니다. OpenSearch Service를 사용하여 데이터를 검색합니다. Amazon QuickSight를 사용하여 시각화를 만듭니다.
D. Amazon Kinesis Data Streams를 사용하여 Amazon OpenSearch Service로 데이터 스트림을 수집하고 처리합니다. OpenSearch Service를 사용하여 데이터를 검색합니다. Amazon QuickSight를 사용하여 시각화를 만듭니다.
- 스트리밍 데이터 수집과 실시간 처리에 Amazon Kinesis Data Streams를 사용하고, Amazon OpenSearch Service를 통해 실시간 검색 및 분석을 수행하며, Amazon QuickSight를 통해 시각화를 제공합니다.
- 이를 통해 AWS 네이티브 서비스를 활용해 데이터 수집, 처리, 분석 및 시각화를 통합적으로 수행할 수 있습니다.
■ Question #969
현재 한 회사가 Linux 머신에서 ASP.NET을 사용하는 온프레미스 애플리케이션을 실행하고 있습니다. 이 애플리케이션은 리소스를 많이 사용하고 고객에게 직접 서비스를 제공합니다. 이 회사는 애플리케이션을 .NET으로 현대화하려고 합니다. 이 회사는 컨테이너에서 애플리케이션을 실행하고 Amazon CloudWatch 메트릭에 따라 확장하려고 합니다. 또한 이 회사는 운영 유지 관리 활동에 소요되는 시간을 줄이고자 합니다.
어떤 솔루션이 이러한 요구 사항을 가장 적은 운영 오버헤드로 충족할까요?
A. AWS App2Container를 사용하여 애플리케이션을 컨테이너화합니다. AWS CloudFormation 템플릿을 사용하여 애플리케이션을 AWS Fargate의 Amazon Elastic Container Service (Amazon ECS)에 배포합니다.
B. AWS App2Container를 사용하여 애플리케이션을 컨테이너화합니다. AWS CloudFormation 템플릿을 사용하여 Amazon EC2 인스턴스의 Amazon Elastic Container Service (Amazon ECS)에 애플리케이션을 배포합니다.
C. AWS App Runner를 사용하여 애플리케이션을 컨테이너화합니다. App Runner를 사용하여 AWS Fargate의 Amazon Elastic Container Service (Amazon ECS)에 애플리케이션을 배포합니다.
D. AWS App Runner를 사용하여 애플리케이션을 컨테이너화합니다. App Runner를 사용하여 Amazon EC2 인스턴스의 Amazon Elastic Kubernetes Service(Amazon EKS)에 애플리케이션을 배포합니다.
A. AWS App2Container를 사용하여 애플리케이션을 컨테이너화합니다. AWS CloudFormation 템플릿을 사용하여 애플리케이션을 AWS Fargate의 Amazon Elastic Container Service(Amazon ECS)에 배포합니다.
- 이 솔루션은 운영 오버헤드를 줄이면서 애플리케이션의 현대화를 지원합니다. AWS App2Container는 온프레미스 .NET 애플리케이션을 손쉽게 컨테이너로 전환하며, AWS Fargate를 사용하면 EC2 인스턴스를 직접 관리하지 않고도 Amazon ECS를 통해 컨테이너를 실행할 수 있습니다.
- 이를 통해 확장성 및 자동화된 관리 기능을 쉽게 확보할 수 있습니다.
■ Question #970
한 회사가 AWS 클라우드에서 새로운 내부 웹 애플리케이션을 설계하고 있습니다. 새로운 애플리케이션은 AWS 관리 서비스에서 여러 직원의 사용자 이름과 비밀번호를 안전하게 검색하고 저장해야 합니다.
어떤 솔루션이 최소한의 운영 오버헤드로 이러한 요구 사항을 충족할까요?
A. 직원 자격 증명을 AWS Systems Manager Parameter Store에 저장합니다. AWS CloudFormation과 BatchGetSecretValue API를 사용하여 Parameter Store에서 사용자 이름과 비밀번호를 검색합니다.
B. AWS Secrets Manager에 직원 자격 증명을 저장합니다. AWS CloudFormation과 AWS Batch를 BatchGetSecretValue API와 함께 사용하여 Secrets Manager에서 사용자 이름과 비밀번호를 검색합니다.
C. 직원 자격 증명을 AWS Systems Manager Parameter Store에 저장합니다. AWS CloudFormation과 AWS Batch를 BatchGetSecretValue API와 함께 사용하여 Parameter Store에서 사용자 이름과 비밀번호를 검색합니다.
D. AWS Secrets Manager에 직원 자격 증명을 저장합니다. AWS CloudFormation과 BatchGetSecretValue API를 사용하여Secrets Manager에서 사용자 이름과 비밀번호를 검색합니다.
D. AWS Secrets Manager에 직원 자격 증명을 저장합니다. AWS CloudFormation과 BatchGetSecretValue API를 사용하여 Secrets Manager에서 사용자 이름과 비밀번호를 검색합니다.
- 이 솔루션은 최소한의 운영 오버헤드로 자격 증명을 안전하게 관리할 수 있습니다. AWS Secrets Manager는 자격 증명을 안전하게 저장하고 자동으로 회전할 수 있는 기능을 제공하여 운영 비용을 줄입니다. 또한 BatchGetSecretValue API를 사용하여 자격 증명을 안전하게 검색할 수 있습니다.
- BatchGetSecretValue API는 AWS Secrets Manager에서 사용자가 여러 개의 비밀 값을 한 번에 검색할 수 있도록 해주는 기능입니다. 이 API를 사용하면 여러 개의 비밀 정보를 동시에 가져올 수 있어, 개별 호출로 인해 발생하는 API 호출 비용과 네트워크 대기 시간을 줄이는 데 유용합니다.
■ Question #971
ap-northeast-1 지역에 있는 한 회사는 수천 대의 AWS Outposts 서버를 보유하고 있습니다. 이 회사는 전 세계의 원격 위치에 서버를 배포했습니다. 모든 서버는 100개의 파일로 구성된 새로운 소프트웨어 버전을 정기적으로 다운로드합니다. 모든 서버가 새로운 소프트웨어 버전을 실행하기 전에 상당한 지연이 발생합니다. 이 회사는 새로운 소프트웨어 버전의 배포 지연을 줄여야 합니다.
어떤 솔루션이 최소한의 운영 오버헤드로 이 요구 사항을 충족할까요?
A. ap-northeast-1에 Amazon S3 버킷을 만듭니다. CachingDisabled 캐시 정책을 포함하는 ap-northeast-1에 Amazon CloudFront 배포를 설정합니다. S3 버킷을 원본으로 구성합니다. 서명된 URL을 사용하여 소프트웨어를 다운로드합니다.
B. ap-northeast-1에 Amazon S3 버킷을 만듭니다. us-east-1 리전에 두 번째 S3 버킷을 만듭니다. 버킷 간 복제를 구성합니다. ap-northeast-1을 기본 오리진으로, us-east-1을 보조 오리진으로 사용하는 Amazon CloudFront 배포를 설정합니다. 서명된 URL을 사용하여 소프트웨어를 다운로드합니다.
C. ap-northeast-1에서 Amazon S3 버킷을 만듭니다. Amazon S3 Transfer Acceleration을 구성합니다. S3 Transfer Acceleration 엔드포인트를 사용하여 소프트웨어를 다운로드합니다.
D. ap-northeast-1에 Amazon S3 버킷을 만듭니다. Amazon CloudFront 배포를 설정합니다. S3 버킷을 원본으로 구성합니다. 서명된 URL을 사용하여 소프트웨어를 다운로드합니다.
D. ap-northeast-1에 Amazon S3 버킷을 만듭니다. Amazon CloudFront 배포를 설정합니다. S3 버킷을 원본으로 구성합니다. 서명된 URL을 사용하여 소프트웨어를 다운로드합니다.
- Amazon S3 버킷 생성: 모든 새로운 소프트웨어 버전을 S3 버킷에 저장합니다. S3는 매우 안정적이고 확장 가능한 스토리지 솔루션입니다.
- CloudFront 배포 설정: S3 버킷을 CloudFront 배포의 원본으로 지정합니다. CloudFront는 전 세계적으로 분산된 엣지 위치에 콘텐츠를 캐시하여 전송합니다. 이를 통해 원격 서버가 더 가까운 CloudFront 엣지 서버에서 소프트웨어를 다운로드할 수 있습니다.
- 서명된 URL 사용: 보안 강화를 위해 서명된 URL을 사용해 인증된 서버만 다운로드하도록 설정할 수 있습니다.
이를 통해 각 서버는 가까운 CloudFront 엣지에서 소프트웨어를 빠르게 다운로드하고, 전송 지연을 최소화하면서 데이터 전송 속도를 높일 수 있습니다. 또한, CloudFront의 캐싱 기능은 반복 다운로드 시 네트워크 부하를 줄여줍니다.
■ Question #972
한 회사가 현재 Microsoft Windows Server를 사용하여 온프레미스 주식 거래 애플리케이션을 실행하고 있습니다. 이 회사는 애플리케이션을 AWS 클라우드로 마이그레이션하려고 합니다. 이 회사는 여러 가용성 영역에 걸쳐 블록 스토리지에 대한 저지연 액세스를 제공하는 고가용성 솔루션을 설계해야 합니다.
어떤 솔루션이 최소한의 구현 노력으로 이러한 요구 사항을 충족할까요?
A. Amazon EC2 인스턴스에서 두 개의 가용성 영역에 걸쳐 있는 Windows Server 클러스터를 구성합니다. 두 클러스터 노드에 애플리케이션을 설치합니다. 두 클러스터 노드 간의 공유 스토리지로 Amazon FSx for Windows File Server를 사용합니다.
B. Amazon EC2 인스턴스에서 두 개의 가용성 영역에 걸쳐 있는 Windows Server 클러스터를 구성합니다. 두 클러스터 노드에 애플리케이션을 설치합니다. EC2 인스턴스에 연결된 스토리지로 Amazon Elastic Block Store (Amazon EBS) General Purpose SSD (gp3) 볼륨을 사용합니다. 애플리케이션 수준 복제를 설정하여 한 가용성 영역의 한 EBS 볼륨에서 두 번째 가용성 영역의 다른 EBS 볼륨으로 데이터를 동기화합니다.
C. 두 개의 가용성 영역에 있는 Amazon EC2 인스턴스에 애플리케이션을 배포합니다. 한 EC2 인스턴스를 활성 모드로 구성하고 두 번째 EC2 인스턴스를 대기 모드로 구성합니다. Amazon FSx for NetApp ONTAP Multi-AZ 파일 시스템을 사용하여 Internet Small Computer Systems Interface (iSCSI) 프로토콜을 사용하여 데이터에 액세스합니다.
D. 두 개의 가용성 영역에 있는 Amazon EC2 인스턴스에 애플리케이션을 배포합니다. 한 EC2 인스턴스를 활성 모드로 구성하고 두 번째 EC2 인스턴스를 대기 모드로 구성합니다. EC2 인스턴스에 연결된 스토리지로 Amazon Elastic Block Store (Amazon EBS) Provisioned IOPS SSD (io2) 볼륨을 사용합니다. 한 가용성 영역의 한 io2 볼륨에서 두 번째 가용성 영역의 다른 io2 볼륨으로 데이터를 동기화하도록 Amazon EBS 수준 복제를 설정합니다.
A. Amazon EC2 인스턴스에서 두 개의 가용성 영역에 걸쳐 있는 Windows Server 클러스터를 구성합니다. 두 클러스터 노드에 애플리케이션을 설치합니다. 두 클러스터 노드 간의 공유 스토리지로 Amazon FSx for Windows File Server를 사용합니다.
- 간편한 구성: Amazon FSx for Windows File Server는 AWS 클라우드에서 네이티브 Windows 파일 시스템을 완전히 지원하는 파일 스토리지 서비스입니다. Windows 애플리케이션과 환경과의 호환성, Active Directory 통합, SMB 프로토콜 지원 등을 통해 Windows 기반 워크로드에 적합한 파일 서버 솔루션을 제공합니다. 이 서비스는 고성능, 고가용성, 자동 백업 및 데이터 보호 기능을 통해 사용자가 파일 공유와 관리를 쉽게 할 수 있도록 지원합니다.
- 고가용성 및 저지연 성능: FSx는 자동으로 두 개의 가용성 영역에 걸쳐 복제를 지원하여 고가용성을 제공하며, 블록 스토리지와 유사한 파일 시스템의 저지연 성능을 제공합니다.
- 관리 오버헤드 감소: 관리형 서비스인 FSx는 설정과 유지 관리를 간소화하므로 운영 부담을 줄일 수 있습니다.
■ Question #973
한 회사가 인터넷 연결 애플리케이션 로드 밸런서(ALB)로 웹 애플리케이션을 설계하고 있습니다. 이 회사는 ALB가 공개 인터넷에서 HTTPS 웹 트래픽을 수신해야 합니다. ALB는 포트 443에서 Amazon EC2 인스턴스에 호스팅된 웹 애플리케이션 서버로 HTTPS 트래픽만 보내야 합니다. ALB는 포트 8443에서 HTTPS를 통해 웹 애플리케이션 서버의 상태 검사를 수행해야 합니다.
ALB와 연관된 보안 그룹의 어떤 구성 조합이 이러한 요구 사항을 충족할까요? (세 가지를 선택하세요.)
A. 포트 443에 대해 0.0.0.0/0에서 들어오는 HTTPS 트래픽을 허용합니다.
B. 포트 443에 대해 0.0.0.0/0으로의 모든 아웃바운드 트래픽을 허용합니다.
C. 웹 애플리케이션 인스턴스에 대한 포트 443의 HTTPS 아웃바운드 트래픽을 허용합니다.
D. 웹 애플리케이션 인스턴스에서 포트 443에 대한 HTTPS 인바운드 트래픽을 허용합니다.
E. 포트 8443에서 상태 점검을 위해 웹 애플리케이션 인스턴스에 대한 HTTPS 아웃바운드 트래픽을 허용합니다.
F. 포트 8443에서 상태 점검을 위해 웹 애플리케이션 인스턴스에서 HTTPS 인바운드 트래픽을 허용합니다.
요구사항 분석
1. ALB가 공개 인터넷에서 HTTPS 트래픽을 수신해야 함 (포트 443에서 수신)
2. ALB가 포트 443에서 EC2 인스턴스에 HTTPS 트래픽만 전달해야 함
3. ALB가 포트 8443에서 EC2 인스턴스의 상태 검사를 수행해야 함
A. 포트 443에 대해 0.0.0.0/0에서 들어오는 HTTPS 트래픽을 허용합니다.
- 이 설정은 ALB가 인터넷으로부터 HTTPS 트래픽을 수신하도록 허용합니다. 이 조건은 요구사항 1을 충족시킵니다.
C. 웹 애플리케이션 인스턴스에 대한 포트 443의 HTTPS 아웃바운드 트래픽을 허용합니다.
- 여기에서 ‘아웃바운드’란 EC2 인스턴스가 응답을 보낼 수 있는 것을 의미합니다.
- 만약 인스턴스가 로드 밸런서나 외부 네트워크와 통신할 때, 인스턴스의 보안 그룹이 기본적으로 모든 아웃바운드 트래픽을 허용하지 않는다면, 이를 명시적으로 설정해야 할 수도 있습니다. 이 설정은 요구사항 2의 일부 조건을 만족시킬 수 있습니다.
E. 포트 8443에서 상태 점검을 위해 웹 애플리케이션 인스턴스에 대한 HTTPS 아웃바운드 트래픽을 허용합니다.
- 상태 점검의 경우, 인스턴스에서 ALB로의 응답을 허용해야 합니다. 이 설정은 요구사항 3을 충족시킵니다.
■ Question #974
한 회사가 AWS에서 애플리케이션을 호스팅합니다. 이 애플리케이션은 사용자에게 사진을 업로드하고 Amazon S3 버킷에 사진을 저장할 수 있는 기능을 제공합니다. 이 회사는 Amazon CloudFront와 사용자 지정 도메인 이름을 사용하여 eu-west-1 지역의 S3 버킷에 사진 파일을 업로드하려고 합니다.
어떤 솔루션이 이러한 요구 사항을 충족할까요? (두 가지를 선택하세요.)
A. AWS Certificate Manager(ACM)를 사용하여 us-east-1 Region에서 퍼블릭 인증서를 만듭니다. CloudFront에서 인증서를 사용합니다.
B. AWS Certificate Manager(ACM)를 사용하여 eu-west-1에서 퍼블릭 인증서를 만듭니다. CloudFront에서 인증서를 사용합니다.
C. CloudFront에서 업로드를 허용하도록 Amazon S3를 구성합니다. S3 Transfer Acceleration을 구성합니다.
D. CloudFront 원본 액세스 제어(OAC)에서 업로드를 허용하도록 Amazon S3를 구성합니다.
E. CloudFront에서 업로드를 허용하도록 Amazon S3를 구성합니다. Amazon S3 웹사이트 엔드포인트를 구성합니다.
요구사항 분석
- CloudFront를 통해 Amazon S3 버킷으로 사진 파일을 업로드하려고 하며, 사용자 지정 도메인 이름과 함께 보안 HTTPS 통신을 위해 퍼블릭 인증서가 필요
A. AWS Certificate Manager(ACM)를 사용하여 us-east-1 Region에서 퍼블릭 인증서를 만듭니다. CloudFront에서 인증서를 사용합니다.
- CloudFront는 전 세계 엣지 위치에서 콘텐츠를 제공하기 때문에, CloudFront에서 사용하는 SSL/TLS 인증서는 us-east1 리전에서 생성해야 합니다. 이는 AWS의 정책으로, ACM을 통해 CloudFront에서 사용할 수 있는 퍼블릭 인증서는 us-east-1 리전에만 생성 가능합니다.
C. CloudFront에서 업로드를 허용하도록 Amazon S3를 구성합니다. S3 Transfer Acceleration을 구성합니다.
- S3 Transfer Acceleration은 S3에 대한 업로드 속도를 개선하는 기능으로, 전 세계 어디서든 사용자에게 더 빠른 업로드 성능을 제공합니다. Transfer Acceleration은 CloudFront와 함께 사용하여 S3 버킷으로의 업로드를 가속화할 수 있습니다.
- Transfer Acceleration을 사용하면 CloudFront의 엣지 로케이션을 통해 S3로 업로드되기 때문에 사용자에게 더 좋은 성능을 제공할 수 있습니다.
■ Question #975
날씨 예보 회사는 다양한 센서에서 지속적으로 온도 판독값을 수집합니다. 기존 데이터 수집 프로세스는 판독값을 수집하여 더 큰 Apache Parquet 파일에 집계합니다. 그런 다음 프로세스는 KMS 관리 키(CSE-KMS)를 사용하여 클라이언트 측 암호화를 사용하여 파일을 암호화합니다. 마지막으로 프로세스는 각 달력 날짜에 대한 별도의 접두사가 있는 Amazon S3 버킷에 파일을 씁니다. 이 회사는 특정 달력 날짜에 대한 샘플 이동 평균을 얻기 위해 데이터에 대한 가끔씩 SQL 쿼리를 실행하려고 합니다.
어떤 솔루션이 이러한 요구 사항을 가장 비용 효율적으로 충족할까요?
A. Amazon Athena를 구성하여 암호화된 파일을 읽습니다. Amazon S3에서 직접 데이터에 대한 SQL 쿼리를 실행합니다.
B. Amazon S3 Select를 사용하여 Amazon S3에 있는 데이터에 대해 직접 SQL 쿼리를 실행합니다.
C. 암호화된 파일을 읽도록 Amazon Redshift를 구성합니다. Redshift Spectrum과 Redshift 쿼리 편집기 v2를 사용하여 Amazon S3에서 직접 데이터에 대한 SQL 쿼리를 실행합니다.
D. 암호화된 파일을 읽도록 Amazon EMR Serverless를 구성합니다. Apache SparkSQL을 사용하여 Amazon S3에서 직접 데이터에 대한 SQL 쿼리를 실행합니다.
요구사항 분석
- 특정 날짜에 대해 샘플 이동 평균을 얻기 위해 SQL 쿼리를 가끔 실행하려고 합니다.
- 데이터를 Amazon S3 버킷에 저장하며, 각 날짜마다 접두사를 가지고 있습니다.
- 데이터를 수집한 후 클라이언트 측 암호화(CSE-KMS)를 사용해 암호화된 Apache Parquet 파일 형태로 저장합니다.
주요 요구사항은 비용 효율성이며, 또한 암호화된 Parquet 파일에 대해 SQL 쿼리를 실행해야 합니다.
A. Amazon Athena를 구성하여 암호화된 파일을 읽습니다. Amazon S3에서 직접 데이터에 대한 SQL 쿼리를 실행합니다.
- Amazon Athena는 S3에 저장된 데이터를 대상으로 SQL 쿼리를 실행할 수 있는 서비스입니다. Athena는 서버리스로 동작하며, 데이터를 직접 쿼리하므로 인프라 관리가 필요 없습니다.
- Athena는 Amazon S3에서 저장된 Parquet 파일을 효율적으로 처리할 수 있으며, CSE-KMS를 사용해 암호화된 파일을 읽는 것도 지원합니다.
- 또한, Athena는 사용한 만큼만 비용을 지불하는 구조로, 가끔씩 SQL 쿼리를 실행하는 요구사항에 매우 적합합니다.
- 이러한 이유로, Athena를 사용해 S3의 암호화된 파일에 대해 SQL 쿼리를 실행하는 것이 가장 적절하고 비용 효율적인 솔루션입니다.
■ Question #976
한 회사가 AWS에서 새로운 애플리케이션을 구현하고 있습니다. 이 회사는 여러 AWS 지역 내의 여러 가용성 영역에 걸쳐 여러 Amazon EC2 인스턴스에서 애플리케이션을 실행합니다. 이 애플리케이션은 인터넷을 통해 사용할 수 있습니다. 사용자는 전 세계에서 애플리케이션에 액세스합니다. 이 회사는 애플리케이션에 액세스하는 각 사용자가 사용자 위치에 가장 가까운 EC2 인스턴스로 전송되도록 하려고 합니다.
어떤 솔루션이 이러한 요구 사항을 충족할까요?
A. Amazon Route 53 지리적 위치 라우팅 정책을 구현합니다. 인터넷 연결 애플리케이션 로드 밸런서를 사용하여 동일한 지역 내의 모든 가용성 영역에 트래픽을 분산합니다.
B. Amazon Route 53 지리적 근접성 라우팅 정책을 구현합니다. 인터넷 연결 네트워크 로드 밸런서를 사용하여 동일한 지역 내의 모든 가용성 영역에 트래픽을 분산합니다.
C. Amazon Route 53 다중값 응답 라우팅 정책을 구현합니다. 인터넷 연결 애플리케이션 로드 밸런서를 사용하여 동일한 지역 내의 모든 가용성 영역에 트래픽을 분산합니다.
D. Amazon Route 53 가중 라우팅 정책을 구현합니다. 인터넷 연결 네트워크 로드 밸런서를 사용하여 동일한 지역 내의 모든 가용성 영역에 트래픽을 분산합니다.
요구사항 분석
- 여러 AWS 리전과 가용성 영역에 걸쳐 EC2 인스턴스를 실행합니다.
- 전 세계 사용자가 애플리케이션에 액세스합니다.
- 각 사용자가 자신에게 가장 가까운 EC2 인스턴스로 연결되어야 합니다.
B. Amazon Route 53 지리적 근접성 라우팅 정책을 구현합니다. 인터넷 연결 네트워크 로드 밸런서를 사용하여 동일한 지역 내의 모든 가용성 영역에 트래픽을 분산합니다.
- 지리적 근접성 라우팅은 사용자의 지리적 위치를 기준으로 가장 가까운 리전으로 트래픽을 자동으로 라우팅하여 최적의 성능을 제공합니다.
- 네트워크 로드 밸런서는 각 리전 내에서 가용성 영역에 걸쳐 트래픽을 효율적으로 분산할 수 있습니다.
이 조합은 전 세계 사용자가 애플리케이션에 접근할 때 가장 가까운 리전의 인스턴스로 연결되도록 보장합니다.
■ Question #977
금융 서비스 회사가 민감한 금융 거래를 처리하기 위해 AWS에서 새로운 애플리케이션을 출시할 계획입니다. 이 회사는 Amazon EC2 인스턴스에 애플리케이션을 배포합니다. 이 회사는 데이터베이스로 Amazon RDS for MySQL을 사용합니다. 이 회사의 보안 정책에 따라 데이터는 저장 시와 전송 시 암호화되어야 합니다.
어떤 솔루션이 이러한 요구 사항을 가장 적은 운영 오버헤드로 충족할까요?
A. AWS KMS 관리 키를 사용하여 Amazon RDS for MySQL에 대한 휴면 암호화를 구성합니다. 전송 중 암호화를 위해 AWS Certificate Manager (ACM) SSL/TLS 인증서를 구성합니다.
B. AWS KMS 관리 키를 사용하여 Amazon RDS for MySQL에 대한 휴면 암호화를 구성합니다. 전송 중 암호화를 위한 IPsec 터널을 구성합니다.
C. Amazon RDS for MySQL에 데이터를 저장하기 전에 타사 애플리케이션 수준 데이터 암호화를 구현합니다. 전송 중 암호화를 위해 AWS Certificate Manager (ACM) SSL/TLS 인증서를 구성합니다.
D. AWS KMS 관리 키를 사용하여 Amazon RDS for MySQL에 대한 휴면 암호화를 구성합니다. VPN 연결을 구성하여 전송 중인 데이터를 암호화하기 위한 개인 연결을 활성화합니다.
요구사항 분석
- 데이터의 저장 시 암호화: Amazon RDS for MySQL의 데이터는 저장 시 암호화되어야 합니다.
- 전송 시 암호화: 애플리케이션과 RDS 간의 데이터가 전송될 때 암호화가 적용되어야 합니다.
- 운영 오버헤드 최소화: 관리 및 설정 복잡성을 줄이는 것이 목표입니다.
A. AWS KMS 관리 키를 사용하여 Amazon RDS for MySQL에 대한 휴면 암호화를 구성합니다. 전송 중 암호화를 위해 AWS Certificate Manager(ACM) SSL/TLS 인증서를 구성합니다.
- 휴면 데이터 암호화: AWS KMS를 통해 Amazon RDS for MySQL의 데이터 암호화를 구성하면, 데이터가 자동으로 암호화되며 관리 오버헤드가 적습니다. RDS 콘솔이나 AWS CLI에서 간단한 설정만으로 암호화를 활성화할 수 있습니다.
- 전송 중 암호화: AWS Certificate Manager (ACM)를 통해 SSL/TLS 인증서를 설정하면, RDS와 애플리케이션 간의 연결이 안전하게 암호화됩니다. RDS는 자체적으로 SSL/TLS를 지원하므로, 추가적인 복잡한 설정 없이 암호화를 적용할 수 있습니다.
- 운영 오버헤드: KMS 관리 키와 ACM의 SSL/TLS 인증서는 AWS에서 자동으로 관리되므로, 사용자 입장에서는 복잡한 설정이나 추가 작업이 필요하지 않습니다.
■ Question #978
한 회사가 온프레미스 Oracle 데이터베이스를 Amazon RDS for Oracle 데이터베이스로 마이그레이션하고 있습니다. 이 회사는 규제 요건을 충족하기 위해 90일 동안 데이터를 보관해야 합니다. 또한 이 회사는 최대 14일 동안 특정 시점으로 데이터베이스를 복원할 수 있어야 합니다.
어떤 솔루션이 이러한 요건을 가장 적은 운영 오버헤드로 충족할까요?
A. Amazon RDS 자동 백업을 만듭니다. 보관 기간을 90일로 설정합니다.
B. 매일 Amazon RDS 수동 스냅샷을 만듭니다. 90일 이상 된 수동 스냅샷을 삭제합니다.
C. Oracle용 Amazon Aurora Clone 기능을 사용하여 point-in-time 복원을 만듭니다. 90일 이상 된 복제본을 삭제합니다.
D. Amazon RDS용 AWS Backup을 사용하여 90일의 보존 기간을 갖는 백업 계획을 만듭니다.
요구사항 분석
- 데이터를 90일 동안 보관해야 합니다.
- 최대 14일 동안 특정 시점으로 데이터베이스를 복원할 수 있어야 합니다.
- 운영 오버헤드를 최소화해야 합니다.
D. Amazon RDS용 AWS Backup을 사용하여 90일의 보존 기간을 갖는 백업 계획을 만듭니다.
- AWS Backup은 RDS 인스턴스를 포함한 다양한 AWS 서비스의 백업을 중앙에서 관리할 수 있는 서비스입니다. AWS Backup을 사용하면 백업 보존 기간을 최대 90일까지 설정할 수 있으며, 백업과 삭제를 자동화할 수 있습니다.
- 또한, AWS Backup은 Amazon RDS의 자동 백업을 사용하여 포인트 인 타임 복원(point-in-time recovery) 기능을 지원하므로, 14일 동안 특정 시점으로 복원할 수 있는 요구사항도 충족할 수 있습니다.
- 운영 오버헤드가 매우 낮습니다. AWS Backup은 백업 정책과 보존 기간을 자동으로 관리하므로 사용자가 수동으로 백업과 삭제를 관리할 필요가 없습니다.
■ Question #979
한 회사가 관계형 데이터베이스를 사용하여 사용자 데이터와 애플리케이션 구성을 저장하는 새로운 애플리케이션을 개발하고 있습니다. 이 회사는 애플리케이션이 꾸준히 사용자를 늘릴 것으로 예상합니다. 이 회사는 데이터베이스 사용이 가변적이고 읽기가 많으며 가끔 쓰기가 있을 것으로 예상합니다. 이 회사는 데이터베이스 솔루션의 비용을 최적화하려고 합니다. 이 회사는 필요한 성능을 제공하는 AWS 관리형 데이터베이스 솔루션을 사용하려고 합니다.
어떤 솔루션이 이러한 요구 사항을 가장 비용 효율적으로 충족할까요?
A. Amazon RDS에 데이터베이스를 배포합니다. Provisioned IOPS SSD 스토리지를 사용하여 읽기 및 쓰기 작업에 대한 일관된 성능을 보장합니다.
B. Amazon Aurora Serverless에 데이터베이스를 배포하여 실제 사용량에 따라 데이터베이스 용량을 자동으로 확장하여 작업 부하를 수용합니다.
C. Amazon DynamoDB에 데이터베이스를 배포합니다. 온디맨드 용량 모드를 사용하여 작업 부하를 수용하기 위해 처리량을 자동으로 확장합니다.
D. Amazon RDS에 데이터베이스를 배포합니다. 자기 저장소를 사용하고 읽기 복제본을 사용하여 작업 부하를 수용합니다.
요구사항 분석
- 관계형 데이터베이스를 사용해야 함
- 데이터베이스 사용이 가변적이며, 읽기가 많고 가끔 쓰기가 있음
- 비용을 최적화하려고 함
- AWS 관리형 데이터베이스 솔루션을 원함
B.Amazon Aurora Serverless에 데이터베이스를 배포하여 실제 사용량에 따라 데이터베이스 용량을 자동으로 확장하여 작업 부하를 수용합니다.
- Amazon Aurora Serverless는 가변적인 작업 부하를 자동으로 확장하거나 축소할 수 있는 솔루션입니다. 이 회사의 요구사항인 "가변적인 데이터베이스 사용"에 적합하며, 필요할 때만 용량을 자동으로 조정하여 비용을 절감할 수 있습니다. 읽기 및 쓰기 작업이 가변적일 때, 실제 사용량에 기반해 자동으로 용량을 확장하고 축소하는 기능이 있어 매우 효율적입니다.
- 비용 최적화 측면에서도 Aurora Serverless는 부하가 낮을 때 비용을 줄이고, 부하가 높을 때 필요한 성능을 자동으로 제공합니다.
■ Question #980
한 회사가 VPC 내부의 여러 Amazon EC2 인스턴스에 애플리케이션을 호스팅합니다. 이 회사는 각 고객을 위해 전용 Amazon S3 버킷을 만들어 Amazon S3에 관련 정보를 저장합니다. 이 회사는 EC2 인스턴스에서 실행되는 애플리케이션이 회사의 AWS 계정에 속한 S3 버킷에만 안전하게 액세스할 수 있도록 하려고 합니다.
어떤 솔루션이 최소한의 운영 오버헤드로 이러한 요구 사항을 충족할까요?
A. VPC에 연결된 Amazon S3에 대한 게이트웨이 엔드포인트를 만듭니다. 애플리케이션에 필요한 특정 버킷에만 액세스할 수 있도록 IAM 인스턴스 프로필 정책을 업데이트합니다.
B. Amazon S3에만 액세스할 수 있는 보안 그룹이 있는 퍼블릭 서브넷에 NAT 게이트웨이를 만듭니다. NAT 게이트웨이를 사용하도록 경로 테이블을 업데이트합니다.
C. Deny 작업과 다음 조건 키를 사용하여 VPUpdate IAM 인스턴스 프로필 정책에 연결된 Amazon S3에 대한 게이트웨이 엔드포인트를 만듭니다.
{
"StringNotEquals" : {
"s3 : ResourceAccoint" : [ "CompanyAWAScctNumber"]
}
D.퍼블릭 서브넷에 NAT 게이트웨이를 만듭니다. NAT 게이트웨이를 사용하도록 경로 테이블을 업데이트합니다. Deny 작업과 다음 조건 키를 사용하여 모든 버킷에 버킷 정책을 할당합니다.
{
"StringNotEquals" : {
"s3 : ResourceAccoint" : [ "CompanyAWAScctNumber"]
}
요구사항 분석
- EC2 인스턴스가 회사의 AWS 계정 내에 있는 특정 S3 버킷에만 접근 가능해야 함
- 안전하게 접근해야 함
- 최소한의 운영 오버헤드를 요구함
C. Deny 작업과 다음 조건 키를 사용하여 VPUpdate IAM 인스턴스 프로필 정책에 연결된 Amazon S3에 대한 게이트웨이 엔드포인트를 만듭니다.
"s3:ResourceAccount": 이 조건 키는 특정 S3 리소스(버킷이나 객체)의 소유 계정(즉, 리소스를 소유한 AWS 계정 ID)을 기반으로 접근을 제어합니다. S3 리소스의 소유 계정이 "CompanyAWSAccountNumber"와 일치하지 않는 경우 접근을 거부하는 정책을 설정합니다. 즉, EC2 인스턴스는 특정 AWS 계정에서 소유한 S3 리소스에만 접근할 수 있게 됩니다. 이 조건을 사용하면, 회사의 EC2 인스턴스가 동일한 회사 계정에서 소유한 S3 버킷에만 접근하도록 제한할 수 있습니다.
- 게이트웨이 엔드포인트와 IAM 정책을 결합하여 특정 S3 버킷에 대한 액세스를 제어합니다.
- 조건 키 "s3:ResourceAccount"와 "StringNotEquals"를 활용해, 애플리케이션이 특정 AWS 계정 내의 버킷에만 접근하도록 설정합니다. 이는 특정 회사의 계정 버킷만 허용하고, 나머지 모든 버킷 접근을 차단하는 방식입니다.
- 안전한 VPC 연결을 유지하면서 S3 리소스에 대한 세분화된 접근 제어가 가능하므로, 보안과 관리 오버헤드를 모두 줄일 수 있습니다.
AWS SAA-C03 Examtopics (1001 ~ 1019) (1) | 2024.12.27 |
---|---|
AWS SAA-C03 Examtopics (981 ~ 1000) (0) | 2024.12.27 |
AWS SAA-C03 Examtopics (941 ~ 960) (0) | 2024.12.26 |
AWS SAA-C03 Examtopics (921 ~ 940) (1) | 2024.12.26 |
AWS SAA-C03 Examtopics (901 ~ 920) (0) | 2024.12.25 |