AWS Certified Solutions Architect - Associate 공부하면서 작성된 글로 일부 오류가 있을수 있습니다. |
■ Question #481
한 회사가 AWS 클라우드에서 3계층 웹 애플리케이션을 호스팅합니다. Multi-AZAmazon RDS for MySQL 서버는 데이터베이스 계층을 형성하고 Amazon ElastiCache는 캐시 계층을 형성합니다. 이 회사는 고객이 데이터베이스에 항목을 추가할 때 캐시에 데이터를 추가하거나 업데이트하는 캐싱 전략을 원합니다. 캐시의 데이터는 항상 데이터베이스의 데이터와 일치해야 합니다.
어떤 솔루션이 이러한 요구 사항을 충족할까요?
A. 지연 로딩 캐싱 전략 구현
B. 쓰기-스루 캐싱 전략 구현
C. TTL 캐싱 전략 추가 구현
D. AWS AppConfig 캐싱 전략 구현
요구 사항 분석 : 회사는 다음과 같은 요구 사항을 충족해야 합니다.
항상 최신 상태 유지
- 캐시의 데이터는 데이터베이스와 항상 일치해야 합니다.
- 고객이 데이터베이스에 항목을 추가할 때 캐시도 즉시 업데이트되어야 합니다.
캐싱 전략
- 데이터의 동기화 문제를 방지하기 위해 적절한 캐싱 전략이 필요합니다.
B. 쓰기-스루 캐싱 전략 구현
- 쓰기-스루(Write-Through)는 데이터베이스에 쓰는 동안 캐시에도 데이터를 즉시 쓰는 전략입니다.
- 고객이 데이터베이스에 항목을 추가하거나 업데이트하면 캐시에 자동으로 동기화됩니다.
- 이 전략은 캐시와 데이터베이스 간 데이터 일관성을 보장합니다.
- 쓰기-스루 전략은 요구 사항을 완벽히 충족하며, 캐시와 데이터베이스가 항상 동기화 상태를 유지합니다.
■ Question #482
한 회사가 온프레미스 위치에서 100GB의 과거 데이터를 Amazon S3 버킷으로 마이그레이션하려고 합니다. 이 회사는 온프레미스에서 초당 100메가비트(Mbps)의 인터넷 연결을 사용합니다. 이 회사는 S3 버킷으로 전송되는 데이터를 암호화해야 합니다. 이 회사는 새로운 데이터를 Amazon S3에 직접 저장합니다.
어떤 솔루션이 운영 오버헤드를 최소화하면서 이러한 요구 사항을 충족할까요?
A. AWS CLI에서 s3 sync 명령을 사용하여 데이터를 S3 버킷으로 직접 이동합니다.
B. AWS DataSync를 사용하여 온프레미스 위치에서 S3 버킷으로 데이터를 마이그레이션합니다.
C. AWS Snowball을 사용하여 데이터를 S3 버킷으로 이동합니다.
D. 온프레미스 위치에서 AWS로 IPsec VPN을 설정합니다. AWS CLI에서 s3 cp 명령을 사용하여 데이터를 S3 버킷으로 직접 이동합니다.
요구 사항 분석
- 데이터 크기 : 100GB의 과거 데이터를 S3로 전송해야 합니다.
- 인터넷 연결 속도 : 초당 100Mbps의 인터넷 연결을 사용합니다. 이는 약 12.5MB/s로, 이 속도에서 100GB를 전송하는 데 약 2.2시간이 소요됩니다. (이론적 최대 속도 기준).
- 데이터 암호화 : 전송 중 데이터를 암호화해야 합니다.
- 운영 오버헤드 최소화 : 복잡한 설정 및 운영 관리 작업을 최소화해야 합니다.
B. AWS DataSync를 사용하여 온프레미스 위치에서 S3 버킷으로 데이터를 마이그레이션합니다.
안정적인 데이터 전송
- 네트워크 불안정 상황에서도 자동 재시도 및 복구를 지원합니다.
- 데이터 압축 및 병렬 처리로 전송 시간을 단축할 수 있습니다.
운영 오버헤드 감소
- DataSync는 초기 설정 후 데이터 전송을 자동으로 관리하므로, 관리 부담이 적습니다.
- 증분 데이터 전송 기능도 지원하므로 미래의 데이터 동기화에도 유리합니다.
암호화 지원
- TLS를 사용해 데이터를 암호화하며, S3 서버 측 암호화(SSE)를 통해 저장 중 데이터를 보호합니다.
확장성
- 미래에 추가 데이터 전송 요구가 발생하거나, 더 큰 데이터 세트를 전송할 경우에도 효율적으로 처리할 수 있습니다.
- A (AWS CLI) : 소규모 또는 단기적인 데이터 전송에는 간단하고 비용 효율적입니다.
■ Question #483
한 회사가 Windows 컨테이너에서 .NET 6 Framework에서 실행되는 Windows 작업을 컨테이너화했습니다. 이 회사는 AWS 클라우드에서 이 작업을 실행하려고 합니다. 작업은 10분마다 실행됩니다. 작업의 런타임은 1분에서 3분 사이입니다.
어떤 솔루션이 이러한 요구 사항을 가장 비용 효율적으로 충족할까요?
A. 작업의 컨테이너 이미지를 기반으로 AWS Lambda 함수를 만듭니다. Amazon EventBridge를 구성하여 10분마다 함수를 호출합니다.
B. AWS Batch를 사용하여 AWS Fargate 리소스를 사용하는 작업을 만듭니다. 작업 스케줄링을 10분마다 실행되도록 구성합니다.
C. AWS Fargate에서 Amazon Elastic Container Service(Amazon ECS)를 사용하여 작업을 실행합니다. 작업의 컨테이너 이미지를 기반으로 10분마다 실행되도록 예약된 작업을 만듭니다.
D. AWS Fargate에서 Amazon Elastic Container Service(Amazon ECS)를 사용하여 작업을 실행합니다. 작업의 컨테이너 이미지를 기반으로 독립형 작업을 만듭니다. Windows 작업 스케줄러를 사용하여 10분마다 작업을 실행합니다.
요구 사항 분석
- 작업 실행 빈도 : 작업은 10분마다 실행됩니다.
- 작업 런타임 : 작업은 1분에서 3분 정도 실행됩니다.
- Windows 컨테이너 : .NET 6 Framework 기반 작업은 Windows 컨테이너에서 실행됩니다.
- 비용 효율성 : 짧은 런타임과 간헐적 실행을 고려할 때, 리소스 비용을 최소화해야 합니다.
C. AWS Fargate에서 Amazon Elastic Container Service(Amazon ECS)를 사용하여 작업을 실행합니다. 작업의 컨테이너 이미지를 기반으로 10분마다 실행되도록 예약된 작업을 만듭니다.
- Amazon ECS는 Windows 컨테이너를 지원하며, AWS Fargate를 사용하여 서버리스로 작업을 실행할 수 있습니다.
- 예약된 작업(Scheduled Task)을 사용하여 작업을 10분마다 실행하도록 구성할 수 있습니다.
- AWS Fargate는 작업 실행 시간에만 비용이 발생하므로 짧은 작업에 적합합니다.
- Windows 컨테이너 지원, 예약된 작업 스케줄링, 비용 효율성을 모두 충족합니다.
■ Question #484
한 회사가 여러 독립형 AWS 계정에서 통합된 다중 계정 아키텍처로 전환하려고 합니다. 이 회사는 다양한 사업부를 위해 여러 개의 새로운 AWS 계정을 만들 계획입니다. 이 회사는 중앙 집중식 기업 디렉토리 서비스를 사용하여 이러한 AWS 계정에 대한 액세스를 인증해야 합니다.
이러한 요구 사항을 충족하기 위해 솔루션 아키텍트는 어떤 작업 조합을 권장해야 합니까? (두 가지를 선택하세요.)
A. AWS Organizations에서 모든 기능을 켜고 새 조직을 만듭니다. 조직에서 새 AWS 계정을 만듭니다.
B. Amazon Cognito ID 풀을 설정합니다. Amazon Cognito 인증을 수락하도록 AWS IAM Identity Center (AWS Single Sign-On)를 구성합니다.
C. AWS 계정을 관리하기 위한 서비스 제어 정책(SCP)을 구성합니다. AWS Directory Servic에 AWS IAM Identity Center (AWS Single Sign-On)를 추가합니다.
D. AWS Organizations에서 새 조직을 만듭니다. 조직의 인증 메커니즘을 구성하여 AWS Directory Service를 직접 사용합니다.
E. 조직에 AWS IAM Identity Center (AWS Single Sign-On)를 설정합니다. IAM Identity Center를 구성하고 회사의 기업 디렉토리 서비스와 통합합니다.
요구 사항 분석:회사는 다음과 같은 요구 사항을 가지고 있습니다.
- 다중 계정 관리 : 여러 AWS 계정을 중앙에서 관리할 수 있어야 합니다.
- 중앙 집중식 인증 : 회사의 기업 디렉토리 서비스를 사용하여 각 계정에 대한 액세스를 인증해야 합니다.
- 새로운 AWS 계정 생성 및 관리 : 다양한 사업부를 위해 새로운 AWS 계정을 생성하고 이를 효율적으로 관리해야 합니다.
A. AWS Organizations에서 모든 기능을 켜고 새 조직을 만듭니다. 조직에서 새 AWS 계정을 만듭니다.
- AWS Organizations는 중앙 집중식으로 여러 AWS 계정을 관리하고 새 계정을 생성할 수 있는 서비스입니다.
- "모든 기능"을 켜면 서비스 제어 정책(SCP)과 같은 고급 기능을 사용할 수 있습니다.
- 조직을 통해 새 AWS 계정을 쉽게 생성하고 관리할 수 있습니다.
- 다중 계정 관리 요구 사항을 충족합니다.
E. 조직에 AWS IAM Identity Center(AWS Single Sign-On)를 설정합니다. IAM Identity Center를 구성하고 회사의 기업 디렉토리 서비스와 통합합니다.
- IAM Identity Center(AWS SSO)는 AWS 계정 액세스를 중앙에서 관리하며, 기업 디렉토리 서비스(예: Active Directory)와 통합할 수 있습니다.
- 조직의 모든 AWS 계정에 대한 인증을 중앙에서 관리할 수 있습니다.
- 중앙 집중식 인증 요구 사항을 충족합니다.
■ Question #485
한 회사가 오래된 뉴스 영상에서 AWS에 비디오 아카이브를 저장할 수 있는 솔루션을 찾고 있습니다. 이 회사는 비용을 최소화해야 하며 이러한 파일을 복원할 필요가 거의 없습니다. 파일이 필요할 때 최대 5분 내에 사용할 수 있어야 합니다.
가장 비용 효율적인 솔루션은 무엇입니까?
A. Amazon S3 Glacier에 비디오 아카이브를 저장하고 긴급 검색을 사용합니다.
B. Amazon S3 Glacier에 비디오 아카이브를 저장하고 표준 검색을 사용합니다.
C. 비디오 아카이브를 Amazon S3 Standard-Infrequent Access(S3 Standard-IA)에 저장합니다.
D. 비디오 아카이브를 Amazon S3 One Zone-Infrequent Access(S3 One Zone-IA)에 저장합니다.
요구 사항 분석
- 저장 비용 최소화 : 비디오 아카이브는 복원할 일이 거의 없으므로 비용 효율성이 최우선입니다.
- 복원 시간 : 파일이 필요할 때 최대 5분 내에 복원 가능해야 합니다.
- 아카이브 데이터 : 데이터는 주로 장기 보관을 목적으로 하며, 자주 액세스되지 않습니다.
A. Amazon S3 Glacier에 비디오 아카이브를 저장하고 긴급 검색을 사용합니다.
- Amazon S3 Glacier는 데이터 장기 보관을 위한 매우 비용 효율적인 스토리지입니다.
- 긴급 검색(Expedited Retrieval)을 사용하면 데이터를 1~5분 내에 복원할 수 있습니다.
- 긴급 검색은 추가 비용이 발생하지만, 복원 요청이 드물 경우 비용에 큰 영향을 미치지 않습니다.
- 비용 효율성과 5분 내 복원 요구 사항을 모두 충족합니다.
■ Question #486
회사는 AWS에서 3계층 애플리케이션을 구축하고 있습니다. 프레젠테이션 계층은 정적 웹사이트를 제공합니다. 논리 계층은 컨테이너화된 애플리케이션입니다. 이 애플리케이션은 관계형 데이터베이스에 데이터를 저장합니다. 회사는 배포를 간소화하고 운영 비용을 절감하고자 합니다.
어떤 솔루션이 이러한 요구 사항을 충족할까요?
A. Amazon S3를 사용하여 정적 콘텐츠를 호스팅합니다. 컴퓨팅 파워를 위해 AWS Fargate와 함께 Amazon Elastic Container Service(Amazon ECS)를 사용합니다. 데이터베이스에 관리형 Amazon RDS 클러스터를 사용합니다
B. Amazon CloudFront를 사용하여 정적 콘텐츠를 호스팅합니다. 컴퓨팅 파워를 위해 Amazon EC2와 함께 Amazon Elastic Container Service(Amazon ECS)를 사용합니다. 데이터베이스에 관리형 Amazon RDS 클러스터를 사용합니다
C. Amazon S3를 사용하여 정적 콘텐츠를 호스팅합니다. 컴퓨팅 파워를 위해 AWS Fargate와 함께 Amazon Elastic Kubernetes Service(Amazon EKS)를 사용합니다. 데이터베이스에 관리형 Amazon RDS 클러스터를 사용합니다
D. Amazon EC2 예약 인스턴스를 사용하여 정적 콘텐츠를 호스팅합니다. 컴퓨팅 파워를 위해 Amazon EC2와 함께 Amazon Elastic Kubernetes Service(Amazon EKS)를 사용합니다. 데이터베이스에 관리형 Amazon RDS 클러스터를 사용합니다.
요구 사항 분석
배포 간소화
- 배포 프로세스가 단순해야 하며, 관리 작업을 줄여야 합니다.
운영 비용 절감
- 비용 효율적인 솔루션을 찾아야 합니다.
구성 요소
- 프레젠테이션 계층: 정적 웹사이트 호스팅
- 논리 계층: 컨테이너화된 애플리케이션
- 데이터 계층: 관계형 데이터베이스
A. Amazon S3를 사용하여 정적 콘텐츠를 호스팅합니다. 컴퓨팅 파워를 위해 AWS Fargate와 함께 Amazon Elastic Container Service (Amazon ECS)를 사용합니다. 데이터베이스에 관리형 Amazon RDS 클러스터를 사용합니다.
Amazon S3
- 정적 콘텐츠 호스팅에 비용 효율적이고, 관리가 간단합니다.
AWS Fargate와 Amazon ECS
- 컨테이너를 서버리스 방식으로 실행하므로 관리 오버헤드가 없습니다.
- 필요한 리소스만 사용하는 방식으로 비용 절감 가능.
Amazon RDS
- 관계형 데이터베이스를 완전 관리형 서비스로 제공하여 데이터베이스 관리 작업을 줄입니다.
- 모든 요구 사항(배포 간소화, 비용 절감)을 충족합니다.
■ Question #487
한 회사가 애플리케이션을 위한 스토리지 솔루션을 찾고 있습니다. 솔루션은 고가용성과 확장성이 있어야 합니다. 또한 솔루션은 파일 시스템으로 작동해야 하며, AWS와 온프레미스에서 네이티브 프로토콜을 통해 여러 Linux 인스턴스에서 마운트할 수 있어야 하며 최소 크기 요구 사항이 없어야 합니다. 이 회사는 온프레미스 네트워크에서 VPC로 액세스할 수 있도록 사이트 간 VPN을 설정했습니다.
어떤 스토리지 솔루션이 이러한 요구 사항을 충족합니까?
A. Amazon FSx Multi-AZ 배
B. Amazon Elastic Block Store(Amazon EBS) 다중 연결 볼
C. 여러 마운트 대상이 있는 Amazon Elastic File System(Amazon EFS
D. 단일 마운트 대상과 여러 액세스 포인트가 있는 Amazon Elastic File System(Amazon EFS)
요구 사항 분석
- 고가용성과 확장성 : 솔루션은 AWS에서 고가용성을 제공하고, 데이터 스토리지가 확장 가능해야 합니다.
- 파일 시스템으로 작동 : Linux 인스턴스에서 네이티브 파일 시스템처럼 마운트 가능해야 합니다.
- 온프레미스 및 AWS에서의 접근 : 파일 시스템은 온프레미스 및 AWS 환경에서 사용할 수 있어야 하며, 사이트 간 VPN을 통해 연결이 가능해야 합니다.
- 최소 크기 요구 사항 없음 : 초기 스토리지 크기에 제한이 없어야 합니다.
C. 여러 마운트 대상이 있는 Amazon Elastic File System(Amazon EFS)
- EFS는 고가용성과 확장성을 제공하며, Linux 인스턴스에서 네이티브 파일 시스템처럼 작동합니다.
- 여러 마운트 대상을 사용하면 온프레미스와 AWS 환경 모두에서 동시에 액세스할 수 있습니다.
- EFS는 최소 크기 제한이 없으며, 사용한 만큼만 요금이 부과됩니다.
- 사이트 간 VPN을 통해 온프레미스 네트워크에서도 접근 가능합니다.
- 모든 요구 사항(고가용성, 파일 시스템, 온프레미스 및 AWS 액세스, 최소 크기 제한 없음)을 충족합니다.
■ Question #488
4년 된 미디어 회사가 AWS Organizations 모든 기능 기능 세트를 사용하여 AWS 계정을 구성하고 있습니다. 회사의 재무 팀에 따르면, 멤버 계정의 청구 정보는 멤버 계정의 루트 사용자를 포함하여 누구에게도 접근할 수 없어야 합니다.
어떤 솔루션이 이러한 요구 사항을 충족할까요?
A. 모든 재무 팀 사용자를 IAM 그룹에 추가합니다. 그룹에 Billing이라는 AWS 관리 정책을 연결합니다.
B. 루트 사용자를 포함하여 모든 사용자에게 청구 정보에 대한 액세스를 거부하는 ID 기반 정책을 연결합니다.
C. 청구 정보에 대한 액세스를 거부하는 서비스 제어 정책(SCP)을 만듭니다. SCP를 루트 조직 단위(OU)에 연결합니다.
D. Organizations 모든 기능 기능 세트에서 Organizations 통합 청구 기능 세트로 변환합니다.
요구 사항 분석
- 청구 정보 보호 : 멤버 계정의 루트 사용자를 포함하여 어떤 사용자도 청구 정보에 접근할 수 없어야 합니다.
- AWS Organizations : AWS Organizations에서 모든 기능 세트를 사용하여 멤버 계정을 관리하고 있습니다.
C. 청구 정보에 대한 액세스를 거부하는 서비스 제어 정책(SCP)을 만듭니다. SCP를 루트 조직 단위(OU)에 연결합니다.
- 서비스 제어 정책(SCP)는 AWS Organizations에서 멤버 계정의 루트 사용자와 IAM 사용자 모두에게 적용됩니다
- SCP는 청구 정보 관련 작업(예: `aws-portal:*Billing`)을 명시적으로 거부할 수 있습니다.
- SCP는 루트 사용자도 제한할 수 있으므로 요구 사항을 충족합니다.
- SCP를 사용하면 루트 계정을 포함한 모든 사용자의 청구 정보 액세스를 차단할 수 있습니다.
■ Question #489
전자상거래 회사가 온프레미스 창고 솔루션과 통합된 AWS 클라우드에서 애플리케이션을 실행합니다. 이 회는는 Amazon Simple Notification Service(Amazon SNS)를 사용하여 온프레미스 HTTPS 엔드포인트로 주문 메시지를 보내 창고 애플리케이션이 주문을 처리할 수 있도록 합니다. 로컬 데이터 센터 팀은 일부 주문 메시지가 수신되지 않았음을 감지했습니다.
솔루션 아키텍트는 전달되지 않은 메시지를 보관하고 최대 14일 동안 메시지를 분석해야 합니다.
어떤 솔루션이 최소한의 개발 노력으로 이러한 요구 사항을 충족할 수 있을까요?
A. 보관 기간이 14일인 Amazon Kinesis Data Stream 대상이 있는 Amazon SNS 배달 못한 편지 대기열을 구성합니다.
B. 애플리케이션과 Amazon SNS 간에 보관 기간이 14일인 Amazon Simple Queue Service(Amazon SQS) 대기열을 추가합니다.
C. 보관 기간이 14일인 Amazon Simple Queue Service(Amazon SQS) 대상이 있는 Amazon SNS 배달 못한 편지 대기열을 구성합니다.
D. TTL 속성이 14일의 보관 기간으로 설정된 Amazon DynamoDB 대상이 있는 Amazon SNS 배달 못한 편지 대기열을 구성합니다.
요구 사항 분석
- 메시지 전달 실패 해결 : 온프레미스 HTTPS 엔드포인트로 전송된 주문 메시지가 수신되지 않는 문제를 해결해야 합니다.
- 전달 실패 메시지 보관 : 최대 14일간 전달되지 않은 메시지를 보관하여 분석할 수 있어야 합니다.
- 최소한의 개발 노력 : 새로운 시스템을 개발하거나 복잡한 변경 없이 구현이 간단해야 합니다.
C. 보관 기간이 14일인 Amazon Simple Queue Service(Amazon SQS) 대상이 있는 Amazon SNS 배달 못한 편지 대기열을 구성합니다.
- Amazon Simple Queue Service (SQS)는 AWS에서 제공하는 완전 관리형 메시지 대기열 서비스로, 분산 시스템 간 비동기 메시지 처리를 지원합니다. Amazon SQS는 애플리케이션 구성 요소 간 메시지를 안정적으로 저장, 송신, 수신, 삭제할 수 있도록 설계되었습니다. 이를 통해 비동기 워크플로우, 작업 분산, 비동기화된 애플리케이션 통합 등을 구현할 수 있습니다.
- Amazon Simple Notification Service (SNS)는 AWS에서 제공하는 완전 관리형 메시징 서비스로, 애플리케이션 간 메시지를 발행/구독(Publish/Subscribe) 방식으로 전송합니다. Amazon SNS는 알림 전송, 워크플로우 트리거, 분산 시스템 간 통신등 다양한 메시징 요구를 지원합니다.
- SNS는 기본적으로 배달 못한 메시지를 SQS DLQ로 전송할 수 있습니다.
- Amazon SNS Dead-Letter Queue (DLQ)는 메시지 전달 실패를 처리하기 위한 메커니즘으로, SNS가 메시지를 전달할 수 없을 때 실패한 메시지를 저장할 Amazon SQS 대기열입니다. DLQ를 사용하면 실패한 메시지를 수집하여 문제 원인을 분석하고 손실 데이터를 복구할 수 있습니다.
- SQS는 메시지를 최대 14일간 보관할 수 있으므로 요구 사항을 충족합니다.
- 설정이 간단하고 기존 아키텍처를 변경할 필요가 없습니다.
- SNS DLQ를 SQS로 구성하면, SNS와 온프레미스 HTTPS 엔드포인트 간 기존 통합을 유지하면서 실패 메시지를 안전하게 보관할 수 있습니다.
■ Question #490
게임 회사에서는 Amazon DynamoDB를 사용하여 지리적 위치, 플레이어 데이터, 리더보드와 같은 사용자 정보를 저장합니다. 이 회사는 최소한의 코딩으로 Amazon S3 버킷에 대한 연속 백업을 구성해야 합니다. 백업은 애플리케이션의 가용성에 영향을 미치지 않아야 하며 테이블에 정의된 읽기 용량 단위(RCU)에 영향을 미치지 않아야 합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?
A. Amazon EMR 클러스터를 사용합니다. Apache Hive 작업을 만들어 데이터를 Amazon S3에 백업합니다.
B. 연속 백업으로 DynamoDB에서 Amazon S3로 직접 데이터를 내보냅니다. 테이블에 대한 지정 시간 복구를 켭니다.
C. Amazon DynamoDB Streams를 구성합니다. 스트림을 사용하고 데이터를 Amazon S3 버킷으로 내보내는 AWS Lambda 함수를 만듭니다.
D. 정기적으로 데이터베이스 테이블에서 Amazon S3로 데이터를 내보내는 AWS Lambda 함수를 만듭니다. 테이블에 대한 지정 시간 복구를 켭니다.
요구 사항 분석
- 백업 연속성 : Amazon S3 버킷에 연속적으로 백업해야 합니다.
- 애플리케이션 가용성 유지 : 백업 과정에서 DynamoDB 테이블의 성능이나 가용성에 영향을 미치지 않아야 합니다.
- RCU 영향 없음 : 읽기 용량 단위(RCU)를 소모하지 않아야 합니다.
- 최소한의 코딩 : 백업 솔루션은 간단히 구성할 수 있어야 하며, 코딩 작업을 최소화해야 합니다.
B. 연속 백업으로 DynamoDB에서 Amazon S3로 직접 데이터를 내보냅니다. 테이블에 대한 지정 시간 복구를 켭니다.
- DynamoDB의 내장 기능인 Amazon DynamoDB Export to S3를 사용하여 데이터를 S3로 내보낼 수 있습니다.
- 이 기능은 RCU를 소모하지 않으며, DynamoDB Streams나 Lambda를 사용하지 않고도 백업을 구성할 수 있습니다.
- 지정 시간 복구(PITR)는 DynamoDB 테이블의 데이터 변경 이력을 유지하고, 백업과 복구를 지원합니다.
- RCU에 영향을 주지 않으며, 애플리케이션 가용성을 유지하고 최소한의 코딩으로 구성할 수 있습니다.
■ Question #491
솔루션 아키텍트가 은행의 신용카드 데이터 검증 요청을 처리하는 비동기 애플리케이션을 설계하고 있습니다. 애플리케이션은 안전해야 하며 각 요청을 최소한 한 번은 처리할 수 있어야 합니다.
이러한 요구 사항을 가장 비용 효율적으로 충족하는 솔루션은 무엇입니까?
A. AWS Lambda 이벤트 소스 매핑을 사용합니다. Amazon Simple Queue Service(Amazon SQS) 표준 대기열을 이벤트 소스로 설정합니다. 암호화를 위해 AWS Key Management Service(SSE-KMS)를 사용합니다. Lambda 실행 역할에 kms:Decrypt 권한을 추가합니다.
B. AWS Lambda 이벤트 소스 매핑을 사용합니다. Amazon Simple Queue Service(Amazon SQS) FIFO 대기열을 이벤트 소스로 사용합니다. 암호화를 위해 SQS 관리 암호화 키(SSE-SQS)를 사용합니다. Lambda 함수에 암호화 키 호출 권한을 추가합니다.
C. AWS Lambda 이벤트 소스 매핑을 사용합니다. Amazon Simple Queue Service(Amazon SQS) FIFO 대기열을 이벤트 소스로 설정합니다. AWS KMS 키(SSE-KMS)를 사용합니다. Lambda 실행 역할에 대한 kms:Decrypt 권한을 추가합니다.
D. AWS Lambda 이벤트 소스 매핑을 사용합니다. Amazon Simple Queue Service(Amazon SQS) 표준 대기열을 이벤트 소스로 설정합니다. 암호화에 AWS KMS 키(SSE-KMS)를 사용합니다. Lambda 함수에 대한 암호화 키 호출 권한을 추가합니다.
요구 사항 분석
- 안전성 : 애플리케이션은 데이터 전송 및 저장 중 암호화를 통해 보안을 유지해야 합니다.
- 최소한 한 번 처리 : 비동기 메시지는 중복 처리를 허용하며, 최소한 한 번은 처리되어야 합니다.
- 비용 효율성 : 솔루션은 비용을 최소화해야 합니다.
- Lambda와 SQS 통합 : Lambda 이벤트 소스 매핑을 통해 SQS 대기열의 메시지를 처리해야 합니다.
A. AWS Lambda 이벤트 소스 매핑을 사용합니다. Amazon Simple Queue Service(Amazon SQS) 표준 대기열을 이벤트 소스로 설정합니다. 암호화를 위해 AWS Key Management Service (SSE-KMS)를 사용합니다. Lambda 실행 역할 kms:Decrypt 권한을 추가합니다.
- SQS 표준 대기열은 최소 한 번의 메시지 전송을 보장하며, 순서 보장은 없습니다.
- AWS KMS를 사용해 대기열 데이터를 암호화하며, Lambda 실행 역할에 `kms:Decrypt` 권한을 부여합니다.
- 이 설정은 안전성(암호화)과 최소한 한 번의 메시지 처리 요구를 충족합니다.
- 비용 효율성 : SQS 표준 대기열은 FIFO 대기열보다 저렴하며, 순서 보장이 필요 없는 경우 비용 효율적입니다.
- 요구 사항을 충족하며, 비용 효율적인 솔루션입니다.
■ Question #492
한 회사에 개발 작업을 위한 여러 AWS 계정이 있습니다. 일부 직원은 지속적으로 대형 Amazon EC2 인스턴스를 사용하여 회사가 개발 계정의 연간 예산을 초과하게 되었습니다. 회사는 이러한 계정에서 AWS 리소스 생성을 중앙에서 제한하려고 합니다.
어떤 솔루션이 최소한의 개발 노력으로 이러한 요구 사항을 충족할 수 있을까요?
A. 승인된 EC2 생성 프로세스를 사용하는 AWS Systems Manager 템플릿을 개발합니다. 승인된 Systems Manager 템플릿을 사용하여 EC2 인스턴스를 프로비저닝합니다.
B. AWS Organizations를 사용하여 계정을 조직 단위(OU)로 구성합니다. 서비스 제어 정책(SCP)을 정의하고 연결하여 EC2 인스턴스 유형의 사용을 제어합니다.
C. EC2 인스턴스가 생성될 때 AWS Lambda 함수를 호출하는 Amazon EventBridge 규칙을 구성합니다. 허용되지 않는 EC2 인스턴스 유형을 중지합니다.
D. 직원이 허용되는 EC2 인스턴스 유형을 만들 수 있도록 AWS Service Catalog 제품을 설정합니다. 직원이 Service Catalog 제품을 사용하여 EC2 인스턴스를 배포할 수 있는지 확인합니다.
요구 사항 분석
- AWS 리소스 생성 제한 : 특정 EC2 인스턴스 유형의 생성을 중앙에서 제한해야 합니다.
- 개발 계정의 비용 관리 : 예산 초과 문제를 방지하기 위해 허용되지 않는 EC2 인스턴스 유형을 생성하지 못하도록 해야 합니다.
- 최소한의 개발 노력 : 복잡한 시스템 개발 없이 간단히 설정 가능한 솔루션을 선호합니다.
B. AWS Organizations를 사용하여 계정을 조직 단위(OU)로 구성합니다. 서비스 제어 정책(SCP)을 정의하고 연결하여 EC2 인스턴스 유형의 사용을 제어합니다.
- SCP(Service Control Policy)는 AWS Organizations에서 계정에 대해 리소스 사용을 제어하는 정책입니다.
- SCP는 특정 EC2 인스턴스 유형을 명시적으로 허용 또는 거부할 수 있습니다.
- 예: 허용된 EC2 인스턴스 유형을 제외한 모든 유형의 생성을 제한할 수 있습니다.
- SCP는 중앙 집중식 제어를 제공하며, 직원의 EC2 인스턴스 생성 작업을 완벽히 제한할 수 있습니다.
- 추가적인 개발 없이 AWS Organizations에서 간단히 설정할 수 있습니다.
■ Question #493
한 회사가 인공지능(AI)을 사용하여 고객 서비스 전화의 품질을 판단하고자 합니다. 이 회사는 현재 영어를 포함한 4개 언어로 전화를 관리하고 있습니다. 이 회사는 앞으로 새로운 언어를 제공할 예정입니다. 이 회사는 기계 학습(ML) 모델을 정기적으로 유지할 리소스가 없습니다.
이 회사는 고객 서비스 전화 녹음에서 서면 감정 분석 보고서를 작성해야 합니다. 고객 서비스 전화 녹음 텍스트는 영어로 번역되되야 합니다.
이러한 요구 사항을 충족하는 단계 조합은 무엇입니까? (세 가지를 선택하세요.)
A. Amazon Comprehend를 사용하여 오디오 녹음을 영어로 번역합니다.
B. Amazon Lex를 사용하여 서면 감정 분석 보고서를 만듭니다.
C. Amazon Polly를 사용하여 오디오 녹음을 텍스트로 변환합니다.
D. Amazon Transcribe를 사용하여 모든 언어의 오디오 녹음을 텍스트로 변환합니다.
E. Amazon Translate를 사용하여 모든 언어의 텍스트를 영어로 번역합니다.
F. Amazon Comprehend를 사용하여 감정 분석 보고서를 만듭니다.
요구 사항 분석
- 오디오 녹음을 텍스트로 변환 : 고객 서비스 전화 녹음을 텍스트로 변환해야 합니다.
- 다국어 지원 : 4개의 언어를 지원하며, 추가 언어가 있을 수 있으므로 확장 가능해야 합니다.
- 영어로 번역 : 번역된 텍스트는 영어로 변환되어야 합니다.
- 감정 분석 : 텍스트에서 감정 분석을 수행하여 서면 보고서를 생성해야 합니다.
- 리소스 최소화 : 회사는 ML 모델을 유지할 리소스가 부족하므로 관리 부담이 적어야 합니다.
D. Amazon Transcribe를 사용하여 모든 언어의 오디오 녹음을 텍스트로 변환합니다.
- Amazon Transcribe는 음성을 텍스트로 변환하는 서비스로, 다국어 오디오 파일을 텍스트로 변환할 수 있습니다.
- 다양한 언어를 지원하며, 추가 언어가 필요할 경우 확장 가능합니다.
- 오디오 녹음을 텍스트로 변환하는 요구 사항을 충족합니다.
E. Amazon Translate를 사용하여 모든 언어의 텍스트를 영어로 번역합니다.
- Amazon Translate는 다양한 언어 간 텍스트 번역을 지원하는 서비스입니다.
- 다국어 텍스트를 영어로 번역할 수 있으며, 추가 언어를 쉽게 확장할 수 있습니다.
- 텍스트를 영어로 번역하는 요구 사항을 충족합니다.
F. Amazon Comprehend를 사용하여 감정 분석 보고서를 만듭니다.
- Amazon Comprehend는 텍스트에서 감정을 분석하고 요약하는 기능을 제공합니다.
- 번역된 영어 텍스트를 감정 분석하여 서면 보고서를 생성할 수 있습니다.
- 감정 분석 및 보고서 생성 요구 사항을 충족합니다.
■ Question #494
한 회사가 Amazon EC2 인스턴스를 사용하여 내부 시스템을 호스팅합니다. 배포 작업의 일부로 관리자가 AWS CLI를 사용하여 EC2 인스턴스를 종료하려고 합니다. 그러나 관리자는 403(액세스 거부) 오류 메시지를 받습니다.
관리자는 다음 IAM 정책이 첨부된 IAM 역할을 사용하고 있습니다.
{
"Version": "2012-10-17",
"Statement": [
{
"Effect": "Allow",
"Action": ["ec2:TerminateInstances"],
"Resource": ["*"]
},
{
"Effect": "Deny",
"Action": ["ec2:TerminateInstances"],
"Condition": {
"NotIpAddress": {
"aws:SourceIp": [
"192.0.2.0/24",
"203.0.113.0/24"
]
}
},
"Resource": ["*"]
}
]
}
요청이 실패한 원인은 무엇입니까?
A. EC2 인스턴스에 Deny 문이 있는 리소스 기반 정책이 있습니다.
B. 정책 문에 주체가 지정되지 않았습니다.
C. "Action" 필드는 EC2 인스턴스를 종료하는 데 필요한 작업을 허용하지 않습니다.
D. EC2 인스턴스를 종료하라는 요청이 CIDR 블록 192.0.2.0/24 또는 203.0.113.0/24에서 시작되지 않았습니다.
문제 분석
관리자가 EC2 인스턴스를 종료하려 할 때 403(액세스 거부) 오류가 발생했습니다. 이 오류의 원인을 분석하기 위해 제공된 IAM 정책을 검토합니다.
첫 번째 Statement (Allow)
- EC2 인스턴스를 종료('TerminateInstances')하는 작업이 허용됩니다.
- 리소스는 모든 EC2 인스턴스를 대상으로 하며, 별도의 조건은 없습니다.
두 번째 Statement (Deny)
- EC2 인스턴스를 종료하는 작업이 특정 조건에서 거부됩니다.
- 조건: 요청이 CIDR 블록 '192.0.2.0/24' 또는 '203.0.113.0/24'*에서 시작되지 않은 경우(즉, 다른 IP 주소에서 요청된 경우)
IAM 정책 평가 순서
- AWS는 Deny가 Allow보다 우선합니다. 따라서, 조건에 맞는 Deny가 있으면 요청이 차단됩니다.
오류 원인 분석
- 403 오류 발생 조건 : 요청이 EC2 인스턴스를 종료하려 했으나, Deny 조건에 의해 차단되었음을 의미합니다.
- Deny 조건의 적용 여부 : 요청의 'SourceIp'가 '192.0.2.0/24' 또는 '203.0.113.0/24' 범위에 포함되지 않았다면 Deny 조건이 적용됩니다.
결론 : 요청이 Deny 조건에 정의된 CIDR 블록('192.0.2.0/24', '203.0.113.0/24') 외부에서 요청이 시작되었기 때문에 EC2 인스턴스 종료 요청이 차단되었습니다.
■ Question #495
회사에서 내부 감사를 실시하고 있습니다. 이 회사는 회사의 AWS Lake Formation 데이터 레이크와 연결된 Amazon S3 버킷의 데이터에 민감한 고객 또는 직원 데이터가 포함되지 않았는지 확인하려고 합니다. 이 회사는 여권 번호와 신용카드 번호를 포함한 개인 식별 정보(PII) 또는 재무 정보를 검색하려고 합니다.
어떤 솔루션이 이러한 요구 사항을 충족할까요?
A. 계정에서 AWS Audit Manager를 구성합니다. 감사를 위해 PCI DSS(Payment Card Industry Data Security Standards)를 선택ㄷ합니다.
B. S3 버킷에서 Amazon S3 인벤토리를 구성합니다. 인벤토리를 쿼리하도록 Amazon Athena를 구성합니다.
C. 필요한 데이터 유형에 대해 관리되는 식별자를 사용하는 데이터 검색 작업을 실행하도록 Amazon Macie를 구성합니다.
D. Amazon S3 Select를 사용하여 S3 버킷에서 보고서를 실행합니다.
요구 사항 분석
- 민감한 데이터 검색 : S3 버킷 내 데이터를 스캔하여 개인 식별 정보(PII) 및 재무 정보(예: 여권 번호, 신용카드 번호 등)를 탐지해야 합니다.
- AWS Lake Formation 통합 : S3 버킷 데이터가 Lake Formation과 연동되어 있으며, 민감한 데이터를 탐지할 수 있어야 합니다.
- 간단한 구현 : 기존 AWS 서비스와 통합하여 빠르고 효율적인 데이터 검사를 수행해야 합니다.
C. 필요한 데이터 유형에 대해 관리되는 식별자를 사용하는 데이터 검색 작업을 실행하도록 Amazon Macie를 구성합니다.
- Amazon Macie는 S3 버킷 데이터를 스캔하여 PII(여권 번호, 신용카드 번호 등) 및 기타 민감한 정보를 탐지하는 서비스입니다.
- 관리형 식별자를 사용하면 특정 유형의 민감한 데이터를 자동으로 탐지할 수 있습니다.
- Lake Formation과 연계된 S3 버킷 데이터를 스캔하여 원하는 결과를 빠르게 얻을 수 있습니다.
- 민감한 데이터 탐지 요구 사항을 완벽히 충족하며, 최소한의 설정으로 구현 가능합니다.
■ Question #496
한 회사가 온프레미스 서버를 사용하여 애플리케이션을 호스팅합니다. 회사의 스토리지 용량이 부족합니다. 애플리케이션은 블록 스토리지와 NFS 스토리지를 모두 사용합니다. 회사에는 기존 애플리케이션을 재설계하지 않고도 로컬 캐싱을 지원하는 고성능 솔루션이 필요합니다.
솔루션 아키텍트는 이러한 요구 사항을 충족하기 위해 어떤 작업 조합을 취해야 합니까? (두 가지 선택)
A. Amazon S3를 온프레미스 서버에 파일 시스템으로 마운트합니다.
B. NFS 스토리지를 대체하기 위해 AWS Storage Gateway 파일 게이트웨이를 배포합니다.
C. AWS Snowball Edge를 배포하여 온프레미스 서버에 NFS 마운트를 프로비저닝합니다.
D. AWS Storage Gateway 볼륨 게이트웨이를 배포하여 블록 스토리지를 대체합니다.
E. Amazon Elastic File System(Amazon EFS) 볼륨을 배포하여 온프레미스 서버에 마운트합니다.
요구 사항 분석
- 스토리지 부족 문제 해결 : 온프레미스 환경에서 스토리지를 확장할 수 있는 솔루션이 필요합니다.
- 블록 및 NFS 스토리지 지원 : 애플리케이션은 블록 스토리지와 NFS 스토리지를 모두 사용하며, 이를 대체해야 합니다.
- 기존 애플리케이션 재설계 없이 : 애플리케이션을 변경하지 않고 온프레미스 환경과 통합 가능한 솔루션이어야 합니다.
- 로컬 캐싱 지원 : 고성능을 위해 로컬 캐싱 기능이 필요합니다.
B. NFS 스토리지를 대체하기 위해 AWS Storage Gateway 파일 게이트웨이를 배포합니다.
- AWS Storage Gateway 파일 게이트웨이는 NFS와 SMB 프로토콜을 지원하는 솔루션입니다.
- 온프레미스 환경에 파일 기반 스토리지를 제공하며, AWS S3와 통합해 데이터를 클라우드에 저장합니다.
- 로컬 캐싱을 지원하여 고성능 애플리케이션 요구를 충족합니다.
- NFS 스토리지를 대체하고, 온프레미스와 AWS 간의 통합을 제공합니다.
D. AWS Storage Gateway 볼륨 게이트웨이를 배포하여 블록 스토리지를 대체합니다.
- AWS Storage Gateway 볼륨 게이트웨이는 온프레미스 환경에서 iSCSI 블록 스토리지를 제공합니다.
- 데이터를 AWS S3에 백업하며, 로컬 캐싱을 통해 고성능을 지원합니다.
- 블록 스토리지 요구 사항을 충족하며, 기존 애플리케이션 변경 없이 통합 가능합니다.
■ Question #497
한 회사에 동일한 AWS 리전의 Amazon S3 버킷에서 대량의 데이터를 읽고 쓰는 서비스가 있습니다. 이 서비스는 VPC의 프라이빗 서브넷 내의 Amazon EC2 인스턴스에 배포됩니다. 이 서비스는 퍼블릭 서브넷의 NAT 게이트웨이를 통해 Amazon S3와 통신합니다. 그러나 이 회사는 데이터 출력 비용을 줄이는 솔루션을 원합니다.
이러한 요구 사항을 가장 비용 효율적으로 충족하는 솔루션은 무엇입니까?
A. 퍼블릭 서브넷에 전용 EC2 NAT 인스턴스를 프로비저닝합니다. 이 인스턴스의 탄력적 네트워크 인터페이스를 모든 S3 트래픽의 데상으로 사용하도록 프라이빗 서브넷의 경로 테이블을 구성합니다.
B. 프라이빗 서브넷에 전용 EC2 NAT 인스턴스를 프로비저닝합니다. 이 인스턴스의 탄력적 네트워크 인터페이스를 모든 S3 트래픽의 대상으로 사용하도록 퍼블릭 서브넷의 경로 테이블을 구성합니다.
C. VPC 게이트웨이 엔드포인트를 프로비저닝합니다. 게이트웨이 엔드포인트를 모든 S3 트래픽의 경로로 사용하도록 프라이빗 서브넷의 경로 테이블을 구성합니다.
D. 두 번째 NAT 게이트웨이를 프로비저닝합니다. 모든 S3 트래픽에 대한 대상으로 이 NAT 게이트웨이를 사용하도록 개인 서브넷의 경로 테이블을 구성합니다.
요구 사항 분석
현재 아키텍처
- VPC의 프라이빗 서브넷에서 EC2 인스턴스가 Amazon S3와 통신하기 위해 퍼블릭 서브넷의 NAT 게이트웨이를 사용
- 이는 NAT 게이트웨이 데이터 처리 비용을 발생시킵니다.
요구 사항
- Amazon S3와의 통신에서 데이터 출력 비용을 줄이는 솔루션 필요.
- Amazon S3는 동일한 AWS 리전에 위치.
C. VPC 게이트웨이 엔드포인트를 프로비저닝합니다. 게이트웨이 엔드포인트를 모든 S3 트래픽의 경로로 사용하도록 프라이빗 서브넷의 경로 테이블을 구성합니다.
- VPC 게이트웨이 엔드포인트는 프라이빗 서브넷에서 Amazon S3로의 트래픽을 퍼블릭 인터넷을 거치지 않고 직접 라우팅합니다.
- NAT 게이트웨이를 우회하여 데이터 전송 비용을 제거합니다.
- 게이트웨이 엔드포인트는 설정이 간단하며 추가적인 데이터 처리 비용이 없습니다.
- S3와의 통신에서 데이터 출력 비용을 효과적으로 줄일 수 있습니다.
■ Question #498
한 회사에서 Amazon S3를 사용하여 S3 버킷에 고해상도 사진을 저장합니다. 애플리케이션 변경을 최소화하기 위해 이 회사는 사진을 S3 객체의 최신 버전으로 저장합니다. 이 회사는 가장 최근의 두 가지 사진 버전만 보관해야 합니다.
이 회사는 비용을 절감하고자 합니다. 이 회사는 S3 버킷을 큰 비용으로 파악했습니다.
어떤 솔루션이 운영 오버헤드를 최소화하면서 S3 비용을 절감할 수 있을까요?
A. S3 Lifecycle을 사용하여 만료된 객체 버전을 삭제하고 가장 최근의 두 버전을 보관합니다.
B. AWS Lambda 함수를 사용하여 이전 버전을 확인하고 가장 최근의 두 버전을 제외한 모든 버전을 삭제합니다.
C. S3 Batch Operations를 사용하여 현재가 아닌 객체 버전을 삭제하고 가장 최근의 두 버전만 보관합니다.
D. S3 버킷에서 버전 관리를 비활성화하고 가장 최근의 두 버전을 보관합니다.
요구 사항 분석
- 저장 정책 : S3 객체의 최신 두 버전만 유지하고 이전 버전은 삭제해야 합니다.
- 비용 절감 : 불필요한 S3 스토리지 사용을 줄여 비용을 절감해야 합니다.
- 운영 오버헤드 최소화 : 자동화된 솔루션을 선호하며, 수동 작업이나 복잡한 구현은 피해야 합니다.
- 애플리케이션 변경 최소화 : 기존 애플리케이션 로직에 영향을 주지 않아야 합니다.
A. S3 Lifecycle을 사용하여 만료된 객체 버전을 삭제하고 가장 최근의 두 버전을 보관합니다.
- 자동화된 관리 : S3 Lifecycle 정책은 AWS Management Console 또는 CLI를 통해 간단히 설정할 수 있으며, S3가 자동으로 정책을 실행하므로 추가 관리가 필요 없습니다.
- 스토리지 비용 절감 : 오래된 객체 버전이나 불필요한 데이터를 삭제하거나 저비용 스토리지 클래스로 전환하여 비용을 효과적으로 관리합니다.
- 운영 오버헤드 최소화 : 사용자 지정 코드, 수동 작업, 외부 서비스가 필요하지 않습니다. 모든 작업은 S3의 기본 기능으로 처리됩니다.
- 유연한 정책 설정 : 객체의 나이 또는 상태(예: 이전 버전)에 따라 삭제 규칙을 설정할 수 있어, 애플리케이션 변경 없이 요구 사항에 맞는 관리가 가능합니다.
- 신뢰성과 안정성 : AWS의 네이티브 기능으로, 설정된 정책은 일관되게 실행되며 데이터 관리의 신뢰성을 보장합니다.
■ Question #499
회사에서는 1Gbps AWS Direct Connect 연결 비용을 최소화해야 합니다. 회사의 평균 연결 사용률은 10% 미만입니다. 솔루션 아키텍트는 보안을 손상시키지 않으면서 비용을 절감할 수 있는 솔루션을 추천해야 합니다.
어떤 솔루션이 이러한 요구 사항을 충족할까요?
A. 새로운 1Gbps Direct Connect 연결을 설정합니다. 다른 AWS 계정과 연결을 공유합니다.
B. AWS Management Console에서 새로운 200Mbps Direct Connect 연결을 설정합니다.
C. AWS Direct Connect 파트너에게 연락하여 1Gbps 연결을 주문합니다. 다른 AWS 계정과 연결을 공유합니다.
D. AWS Direct Connect 파트너에게 연락하여 기존 AWS 계정에 대한 200Mbps 호스팅 연결을 주문합니다.
요구 사항 분석
- 비용 절감 : 1Gbps Direct Connect 연결의 평균 사용률이 10% 미만이므로, 연결 대역폭을 줄이거나 더 저렴한 옵션으로 전환해야 합니다.
- 보안 유지 : 비용 절감 과정에서 보안은 손상되지 않아야 합니다.
- 효율적 활용 : 실제 필요 대역폭에 맞는 Direct Connect 옵션을 선택해야 합니다.
D. AWS Direct Connect 파트너에게 연락하여 기존 AWS 계정에 대한 200Mbps 호스팅 연결을 주문합니다.
- AWS Direct Connect 파트너를 통해 200Mbps 호스팅 연결을 주문할 수 있습니다.
- 호스팅 연결은 필요한 대역폭만 제공하므로, 200Mbps 옵션은 현재 사용률(10%)에 맞는 비용 효율적인 선택입니다.
- 보안은 AWS Direct Connect를 통해 기본적으로 유지됩니다.
- 현재 사용률과 맞는 대역폭(200Mbps)으로 비용 절감을 극대화할 수 있습니다.
■ Question #500
회사에 온프레미스에 여러 개의 Windows 파일 서버가 있습니다. 회사에서 파일을 Amazon FSx for Windows File Server 파일 시스템으로 마이그레이션하고 통합하려고 합니다. 액세스 권한이 변경되지 않도록 파일 권한을 보존해야 합니다.
이러한 요구 사항을 충족하는 솔루션은 무엇입니까? (두 가지 선택)
A. 온프레미스에 AWS DataSync 에이전트를 배포합니다. DataSync 작업을 예약하여 데이터를 FSx for Windows File Server 파일 시스템으로 전송합니다.
B. AWS CLI를 사용하여 각 파일 서버의 공유를 Amazon S3 버킷에 복사합니다. AWS DataSync 작업을 예약하여 데이터를 FSx for Windows File Server 파일 시스템으로 전송합니다.
C. 각 파일 서버에서 드라이브를 제거합니다. 드라이브를 AWS로 배송하여 Amazon S3로 가져옵니다. AWS DataSync 작업을 예약하여 데이터를 FSx for Windows File Server 파일 시스템으로 전송합니다.
D. AWS Snowcone 장치를 주문합니다. 장치를 온프레미스 네트워크에 연결합니다. 장치에서 AWS DataSync 에이전트를 시작합니다. DataSync 작업을 예약하여 데이터를 FSx for Windows File Server 파일 시스템으로 전송합니다.
E. AWS Snowball Edge Storage Optimized 기기를 주문합니다. 기기를 온프레미스 네트워크에 연결합니다. AWS CLI를 사용하여 데이터를 기기에 복사합니다. 기기를 다시 AWS로 보내 Amazon S3로 가져옵니다. AWS DataSync 작업을 예약하여 데이터를 FSx for Windows File Server 파일 시스템으로 전송합니다.
요구 사항 분석
- 파일 마이그레이션 : 온프레미스 Windows 파일 서버 데이터를 Amazon FSx for Windows File Server로 마이그레이션
- 파일 권한 보존 : NTFS 파일 권한(ACL)이 변경되지 않고 유지되어야 함
- 효율적이고 신뢰성 있는 방법 : 대규모 데이터 전송 및 마이그레이션 작업을 안전하고 효율적으로 수행해야 함
A. 온프레미스에 AWS DataSync 에이전트를 배포합니다. DataSync 작업을 예약하여 데이터를 FSx for Windows File Server 파일 시스템으로 전송합니다.
- AWS DataSync는 대규모 데이터 전송에 최적화된 AWS 서비스로, Windows 파일 서버의 NTFS 권한(ACL)을 유지하며 데이터를 FSx로 전송할 수 있습니다.
- DataSync 에이전트를 온프레미스에 설치하여 작업을 설정하면 데이터와 파일 권한 모두 보존됩니다.
장점
- NTFS ACL 보존
- 설정이 간단하며, 대규모 데이터 전송에 적합
D. AWS Snowcone 장치를 주문합니다. 장치를 온프레미스 네트워크에 연결합니다. 장치에서 AWS DataSync 에이전트를 시작합니다. DataSync 작업을 예약하여 데이터를 FSx for Windows File Server 파일 시스템으로 전송합니다.
- Snowcone은 AWS에서 제공하는 데이터 전송 장치로, DataSync 에이전트를 실행하여 데이터를 AWS로 전송할 수 있습니다.
- Snowcone은 작은 규모의 데이터(최대 8TB) 전송에 적합하며, NTFS 권한을 보존하면서 데이터를 FSx로 전송할 수 있습니다.
장점
- 네트워크 대역폭이 제한적이거나 오프라인 데이터 전송이 필요한 경우 적합
- DataSync를 지원하므로 NTFS 권한을 유지하며 데이터를 FSx로 전송 가능
AWS SAA-C03 Examtopics (521 ~ 540) (1) | 2024.12.20 |
---|---|
AWS SAA-C03 Examtopics (501 ~ 520) (0) | 2024.12.20 |
AWS SAA-C03 Examtopics (461 ~ 480) (1) | 2024.12.20 |
AWS SAA-C03 Examtopics (441 ~ 460) (2) | 2024.12.19 |
AWS SAA-C03 Examtopics (421 ~ 440) (0) | 2024.12.17 |