AWS Certified Solutions Architect - Associate 공부하면서 작성된 글로 일부오류가있을수있습니다. |
■ Question #621
온라인 사진 공유 회사가 us-west-1 지역에 있는 Amazon S3 버킷에 사진을 저장합니다. 이 회사는 us-east-1 지역에 있는 모든 새 사진의 사본을 저장해야 합니다.
어떤 솔루션이 최소한의 운영 노력으로 이 요구 사항을 충족할까요?
A. us-east-1에 두 번째 S3 버킷을 만듭니다. S3 Cross-Region Replication을 사용하여 기존 S3 버킷에서 두 번째 S3 버킷으로 사진을 복사합니다.
B. 기존 S3 버킷의 교차 출처 리소스 공유(CORS) 구성을 만듭니다. CORS 규칙의 AllowedOrigin 요소에 us-east-1을 지정합니다.
C. 여러 가용성 영역에 걸쳐 us-east-1에 두 번째 S3 버킷을 만듭니다. 두 번째 S3 버킷에 사진을 저장하는 S3 라이프사이클 규칙을 만듭니다.
D. us-east-1에 두 번째 S3 버킷을 만듭니다. 객체 생성 및 업데이트 이벤트에 대한 S3 이벤트 알림을 구성하여 AWS Lambda 함수를 호출하여 기존 S3 버킷에서 두 번째 S3 버킷으로 사진을 복사합니다.
요구 사항
- 사진을 us-west-1에서 us-east-1으로 복사하여 두 지역에 저장
- 최소한의 운영 노력으로 구현.
A. us-east-1에 두 번째 S3 버킷을 만듭니다. S3 Cross-Region Replication을 사용하여 기존 S3 버킷에서 두 번째 S3 버킷으로 사진을 복사합니다.
- S3 Cross-Region Replication(CRR)은 자동화된 솔루션으로, 한 S3 버킷에서 다른 S3 버킷으로 객체를 복사합니다.
- 운영 오버헤드가 최소화되며 새로 생성된 사진만 복사됩니다.
■ Question #622
한 회사가 구독자를 위해 새로운 웹 애플리케이션을 만들고 있습니다. 이 애플리케이션은 정적 단일 페이지와 영구 데이터베이스 계층으로 구성됩니다. 이 애플리케이션은 오전 4시간 동안 수백만 명의 사용자를 보유하지만, 나머지 시간 동안에는 수천 명의 사용자만 보유합니다. 이 회사의 데이터 아키텍트는 스키마를 빠르게 진화시킬 수 있는 기능을 요청했습니다.
어떤 솔루션이 이러한 요구 사항을 충족하고 가장 큰 확장성을 제공할까요? (두 가지를 선택하세요.)
A. Amazon DynamoDB를 데이터베이스 솔루션으로 배포합니다. 주문형 용량을 프로비저닝합니다.
B. Amazon Aurora를 데이터베이스 솔루션으로 배포합니다. 서버리스 DB 엔진 모드를 선택합니다.
C. Amazon DynamoDB를 데이터베이스 솔루션으로 배포합니다. DynamoDB 자동 확장이 활성화되어 있는지 확인합니다.
D. 정적 콘텐츠를 Amazon S3 버킷에 배포합니다. S3 버킷을 원본으로 하여 Amazon CloudFront 배포를 프로비저닝합니다.
E. Auto Scaling 그룹의 Amazon EC2 인스턴스 플릿에 정적 콘텐츠용 웹 서버를 배포합니다. Amazon Elastic File System (Amazon EFS) 볼륨에서 콘텐츠를 주기적으로 새로 고치도록 인스턴스를 구성합니다.
요구 사항
- 정적 단일 페이지 애플리케이션 호스팅
- 영구 데이터베이스 계층 제공
- 수백만 명의 사용자를 수용할 수 있는 확장성
- 데이터베이스의 스키마 진화를 지원해야 함
- 비용 효율성 및 관리 오버헤드 감소
A. Amazon DynamoDB를 데이터베이스 솔루션으로 배포합니다. 주문형 용량을 프로비저닝합니다.
- 확장성: DynamoDB는 초당 수백만 요청을 처리할 수 있는 고도로 확장 가능한 NoSQL 데이터베이스입니다.
- 스키마 유연성: DynamoDB는 스키마리스로, 스키마 진화를 쉽게 지원합니다.
- 용량 관리: 주문형 용량 모드는 사용량에 따라 자동으로 확장/축소되므로 관리 오버헤드가 최소화됩니다.
- 데이터 계층에 이상적입니다.
D. 정적 콘텐츠를 Amazon S3 버킷에 배포합니다. S3 버킷을 원본으로 하여 Amazon CloudFront 배포를 프로비저닝합니다.
- 정적 단일 페이지 애플리케이션에 가장 적합한 솔루션입니다.
- S3는 고도로 확장 가능하며 비용 효율적입니다.
- CloudFront는 전 세계적으로 콘텐츠를 캐싱하여 대규모 사용자 트래픽을 처리하는 데 이상적입니다.
- A. DynamoDB 주문형 모드는 영구 데이터 계층의 확장성과 스키마 진화를 지원합니다.
- D. S3와 CloudFront는 정적 콘텐츠를 제공하기 위한 가장 비용 효율적이고 확장 가능한 솔루션입니다.
■ Question #623
한 회사가 Amazon API Gateway를 사용하여 타사 서비스 제공자가 액세스하는 REST API를 관리합니다. 회사는 REST API를 SQL 주입 및 크로스 사이트 스크립팅 공격으로부터 보호해야 합니다.
이러한 요구 사항을 충족하는 가장 운영 효율적인 솔루션은 무엇입니까?
A. AWS Shield를 구성합니다.
B. AWS WAF를 구성합니다.
C. Amazon CloudFront 배포를 사용하여 API Gateway를 설정합니다. CloudFront에서 AWS Shield를 구성합니다.
D. Amazon CloudFront 배포를 사용하여 API Gateway를 설정합니다. CloudFront에서 AWS WAF를 구성합니다.
B. AWS WAF를 구성합니다.
SQL 주입 및 크로스 사이트 스크립팅(XSS) 방어
- AWS WAF는 SQL 주입 및 XSS 공격을 방어하기 위한 가장 직접적인 보안 솔루션입니다.
- API Gateway와 직접 통합하여 애플리케이션 계층 보안을 강화할 수 있습니다.
CloudFront 불필요
- CloudFront는 전 세계 콘텐츠 전송 및 캐싱을 최적화하는 서비스로, 이 질문에서는 요구 사항에 해당하지 않습니다.
- 불필요한 CloudFront 설정을 추가할 필요가 없습니다.
운영 효율성
- AWS WAF를 API Gateway와 바로 연결하면 구성이 단순하고 관리 오버헤드가 적습니다.
- 추가적인 복잡성과 비용을 피할 수 있습니다.
기준 | B. API Gateway + WAF | D. CloudFront + WAF + API Gateway |
적합성 | SQL Injection 및 XSS 방어가 적합 | SQL Injection 및 XSS 방어가 적합 |
추가적 필요 | CloudFront가 필요하지 않음 | CloudFront가 명시적 요구사항은 아님 |
운영 복잡성 | 단순 구성 | 추가적인 CloudFront 구성 필요 |
비용 | API Gateway 및 WAF 비용만 발생 | CloudFront + WAF + API Gateway 비용 추가 |
■ Question #624
한 회사가 사용자에게 AWS 리소스에 대한 액세스를 제공하고자 합니다. 이 회사에는 1,500명의 사용자가 있으며 회사 네트워크의 Active Directory 사용자 그룹을 통해 온프레미스 리소스에 대한 액세스를 관리합니다. 그러나 이 회사는 사용자가 리소스에 액세스하기 위해 다른 ID를 유지 관리하기를 원하지 않습니다. 솔루션 아키텍트는 온프레미스 리소스에 대한 액세스를 보존하는 동시에 AWS 리소스에 대한 사용자 액세스를 관리해야 합니다.
솔루션 아키텍트는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?
A. 회사의 각 사용자에 대해 IAM 사용자를 만듭니다. 각 사용자에게 적절한 정책을 첨부합니다.
B. Active Directory 사용자 풀과 함께 Amazon Cognito를 사용합니다. 적절한 정책이 첨부된 역할을 만듭니다.
C. 적절한 정책이 첨부된 교차 계정 역할을 정의합니다. 역할을 Active Directory 그룹에 매핑합니다.
D. SAML(Security Assertion Markup Language) 2.0 기반 페더레이션을 구성합니다. 적절한 정책이 첨부된 역할을 만듭니다. 역할을 Active Directory 그룹에 매핑합니다.
D. SAML(Security Assertion Markup Language) 2.0 기반 페더레이션을 구성합니다. 적절한 정책이 첨부된 역할을 만듭니다. 역할을 Active Directory 그룹에 매핑합니다.
Active Directory와 AWS 리소스의 통합
- SAML 2.0 기반 페더레이션은 Active Directory와 AWS IAM을 통합하여 사용자가 기존 Active Directory 자격 증명을 사용해 AWS 리소스에 액세스할 수 있도록 합니다.
- 이는 사용자에게 별도의 AWS IAM 사용자 계정을 생성하지 않아도 되므로 관리 오버헤드가 감소합니다.
중앙 관리
- Active Directory 그룹을 통해 AWS 리소스 접근 권한을 중앙에서 관리할 수 있습니다. 이는 기존 온프레미스 리소스 관리 방식과 일관성을 유지합니다.
역할 및 정책 활용
- SAML 2.0을 통해 로그인한 사용자가 AWS IAM 역할을 사용하여 특정 AWS 리소스에 접근할 수 있도록 정책을 정의할 수 있습니다.
- 역할 기반 접근 제어를 통해 보안과 관리 효율성을 높일 수 있습니다.
SAML 페더레이션 설정의 장점
- 단일 로그인(SSO): Active Directory 자격 증명을 사용해 AWS 리소스에 액세스할 수 있으므로 사용자가 추가 자격 증명을 관리할 필요가 없습니다.
- 보안 강화: SAML 기반 페더레이션은 세션 기반 인증을 제공하며, 권한은 역할 기반으로 관리됩니다.
- 운영 효율성: 사용자 계정 관리가 Active Directory에서 이루어지므로 IAM 사용자 관리 부담을 제거합니다.
■ Question #625
한 회사가 여러 애플리케이션 로드 밸런서 뒤에 웹사이트를 호스팅하고 있습니다. 이 회사는 전 세계적으로 콘텐츠에 대한 다른 배포 권한을 가지고 있습니다. 솔루션 아키텍트는 배포 권한을 위반하지 않고 사용자에게 올바른 콘텐츠가 제공되도록 해야 합니다.
솔루션 아키텍트는 이러한 요구 사항을 충족하기 위해 어떤 구성을 선택해야 합니까?
A. AWS WAF로 Amazon CloudFront를 구성합니다.
B. AWS WAF로 애플리케이션 로드 밸런서 구성
C. 지리적 위치 정책으로 Amazon Route 53 구성
D. 지리적 근접성 라우팅 정책으로 Amazon Route 53 구성
C. 지리적 위치 정책으로 Amazon Route 53 구성
지리적 위치 정책
- Amazon Route 53의 지리적 위치 라우팅 정책은 요청의 출발지를 기반으로 사용자에게 콘텐츠를 라우팅할 수 있습니다.
- 이를 통해 배포 권한에 따라 특정 지역에서만 특정 콘텐츠를 제공할 수 있습니다.
전 세계 콘텐츠 배포 규정 준수
- 이 솔루션은 사용자의 위치(예: 국가, 대륙 또는 특정 지역)에 따라 올바른 콘텐츠를 제공하여 배포 권한을 준수합니다.
간단한 구성
- Route 53의 지리적 위치 라우팅 정책을 사용하면 복잡한 설정 없이도 요청을 올바른 애플리케이션 로드 밸런서 또는 콘템츠 리소스로 라우팅할 수 있습니다.
지리적 위치 라우팅의 작동 방식
- 요청 위치 기반: Route 53은 사용자의 요청 IP 주소를 기반으로 지리적 위치를 확인합니다.
- 정책 구성: 각 지리적 위치에 특정 콘텐츠를 제공하도록 로드 밸런서나 리소스를 매핑할 수 있습니다.
■ Question #626
한 회사가 사내에 데이터를 저장합니다. 데이터 양이 회사의 가용 용량을 초과하여 증가하고 있습니다. 회사는 사내 위치에서 Amazon S3 버킷으로 데이터를 마이그레이션하려고 합니다. 회사는 전송 후 데이터 무결성을 자동으로 검증하는 솔루션이 필요합니다.
어떤 솔루션이 이러한 요구 사항을 충족할까요?
A. AWS Snowball Edge 장치를 주문합니다. Snowball Edge 장치를 구성하여 S3 버킷으로 온라인 데이터 전송을 수행합니다.
B. 온프레미스에 AWS DataSync 에이전트를 배포합니다. DataSync 에이전트를 구성하여 S3 버킷으로 온라인 데이터 전송을 수행합니다.
C. 온프레미스에서 Amazon S3 파일 게이트웨이 생성 S3 파일 게이트웨이를 구성하여 S3 버킷으로 온라인 데이터 전송을 수행합니다.
D. 온프레미스에서 Amazon S3 Transfer Acceleration에서 가속기를 구성합니다. S3 버킷으로 온라인 데이터 전송을 수행하도록 가속기를 구성합니다.
B. 온프레미스에 AWS DataSync 에이전트를 배포합니다. DataSync 에이전트를 구성하여 S3 버킷으로 온라인 데이터 전송을 수행합니다.
데이터 무결성 검증
- AWS DataSync는 데이터를 전송하는 동안 자동으로 데이터 무결성을 검증합니다.
- 이 기능은 데이터 전송 후 원본 데이터와 S3에 저장된 데이터가 동일한지 확인합니다.
온라인 데이터 전송
- DataSync는 네트워크를 통해 대량의 데이터를 Amazon S3로 효율적으로 전송할 수 있습니다.
- 온프레미스 위치에서 S3로 데이터를 전송하는 데 최적화되어 있습니다.
운영 간소화
- DataSync는 간단한 설정으로 작업을 자동화하여 운영 오버헤드를 줄입니다.
- 증분 복사를 지원하여 이미 전송된 데이터는 재전송하지 않습니다.
AWS DataSync 주요 기능
- 데이터 무결성 검증: 전송 중 데이터가 손상되지 않았는지 확인
- 자동화: 증분 복사 및 데이터 전송 자동화
- 지원 프로토콜: NFS 및 SMB와 같은 온프레미스 스토리지 프로토콜을 지원
■ Question #627
한 회사에서 두 개의 DNS 서버를 AWS로 마이그레이션하려고 합니다. 서버는 총 약 200개의 존을 호스팅하고 매일 평균 100만 개의 요청을 받습니다. 이 회사는 두 서버의 관리와 관련된 운영 오버헤드를 최소화하면서 가용성을 극대화하려고 합니다.
솔루션 아키텍트는 이러한 요구 사항을 충족하기 위해 무엇을 권장해야 합니까?
A. Amazon Route 53 콘솔에서 200개의 새로운 호스팅 영역을 만듭니다. 영역 파일을 가져옵니다.
B. 단일 대형 Amazon EC2 인스턴스 시작 영역 타일 가져오기. Amazon CloudWatch 알람 및 알림을 구성하여 회사에 다운타임을 경고합니다.
C. AWS Server Migration Service(AWS SMS)를 사용하여 서버를 AWS로 마이그레이션합니다. Amazon CloudWatch 알람 및 알림을 구성하여 회사에 다운타임에 대한 경고를 보냅니다.
D. 두 개의 가용성 영역에 걸쳐 자동 확장 그룹에서 Amazon EC2 인스턴스를 시작합니다. 영역 파일을 가져옵니다. 자동 확장 그룹에 대해 원하는 용량을 1로, 최대 용량을 3으로 설정합니다. CPU 사용률에 따라 확장하도록 확장 알람을 구성합니다.
A. Amazon Route 53 콘솔에서 200개의 새로운 호스팅 영역을 만듭니다. 영역 파일을 가져옵니다.
운영 오버헤드 최소화
- Amazon Route 53은 완전 관리형 DNS 서비스로, DNS 서버를 직접 관리할 필요 없이 높은 가용성과 낮은 지연 시간을 제공합니다.
- EC2 기반 솔루션(AWS SMS, Auto Scaling 그룹 등)은 운영 오버헤드가 더 크므로 회사의 요구 사항에 부합하지 않습니다.
가용성 극대화
- Route 53은 AWS 글로벌 인프라를 활용하여 높은 가용성을 제공하며, 요청 부하를 효과적으로 처리할 수 있습니다.
- Route 53은 자동 복구와 다중 지역을 활용해 장애를 신속히 처리합니다.
DNS 관리 간소화
- 200개의 호스팅 영역을 쉽게 생성할 수 있으며, 기존 DNS 서버의 영역 파일을 Route 53으로 가져올 수 있습니다.
- Amazon Route 53 콘솔이나 API를 사용하여 DNS 레코드를 쉽게 관리할 수 있습니다.
요청 처리 능력
- Route 53은 매일 수백만 개의 요청을 처리할 수 있는 확장 가능한 인프라를 제공합니다.
- 회사의 100만 개 요청 처리 요구 사항을 쉽게 충족합니다.
Route 53의 주요 이점
- 완전 관리형 서비스: 별도의 인프라 관리 없이 사용 가능
- 글로벌 네트워크: AWS의 전 세계 엣지 로케이션을 활용하여 빠르고 안정적인 DNS 응답 제공
- Zone 파일 가져오기: 기존 DNS 영역 데이터를 손쉽게 Route 53으로 이동 가능
■ Question #628
글로벌 기업이 AWS Organizations의 여러 AWS 계정에서 애플리케이션을 실행합니다. 이 회사의 애플리케이션은 멀티파트 업로드를 사용하여 AWS Regions의 여러 Amazon S3 버킷에 데이터를 업로드합니다. 이 회사는 비용 준수 목적으로 불완전한 멀티파트 업로드를 보고하려고 합니다.
어떤 솔루션이 가장 적은 운영 오버헤드로 이러한 요구 사항을 충족할까요?
A. AWS Config를 구성하여 완료되지 않은 멀티파트 업로드 객체 수를 보고하는 규칙을 설정합니다.
B. 불완전한 멀티파트 업로드 객체 수를 보고하기 위한 서비스 제어 정책(SCP)을 생성합니다.
C. S3 Storage Lens를 구성하여 완료되지 않은 멀티파트 업로드 객체 수를 보고합니다.
D. 불완전한 멀티파트 업로드 객체 수를 보고하기 위해 S3 다중 지역 액세스 포인트를 생성합니다.
C. S3 Storage Lens를 구성하여 완료되지 않은 멀티파트 업로드 객체 수를 보고합니다.
S3 Storage Lens의 기능
- Amazon S3 Storage Lens는 S3 스토리지 사용 및 활동을 분석하고 관련 메트릭과 인사이트를 제공하는 관리형 솔루션입니다.
- 불완전한 멀티파트 업로드 객체 수를 포함한 다양한 메트릭을 자동으로 수집, 보고 및 시각화할 수 있습니다.
- S3 Storage Lens는 멀티 계정과 멀티 리전에 걸쳐 데이터를 집계할 수 있습니다. 이는 AWS Organizations의 여러 계정을 사용하는 글로벌 기업에 이상적입니다.
운영 오버헤드 감소
- S3 Storage Lens는 구성 후 자동으로 데이터를 수집하고 대시보드에 표시하므로 추가적인 운영 작업이 필요하지 않습니다.
- 비용 효율적이며 설정이 간단합니다.
비용 준수 목적에 부합
- S3 Storage Lens는 불완전한 멀티파트 업로드와 같은 비용 비효율적인 활동을 파악하고 관리하는 데 유용합니다.
S3 Storage Lens의 주요 장점
- 멀티 계정 및 멀티 리전 데이터를 중앙 집중식으로 관리
- 불완전한 멀티파트 업로드 객체와 같은 비용 비효율적인 작업을 모니터링
- 대시보드 및 보고서를 통해 가시성을 제공하여 비용 최적화를 지원
- AWS Organizations와 통합되어 전체 조직에서 스토리지 사용량을 분석
■ Question #629
한 회사가 Amazon RDS for MySQL에서 프로덕션 데이터베이스를 운영합니다. 이 회사는 보안 규정 준수를 위해 데이터베이스 버전을 업그레이드하려고 합니다. 이 데이터베이스에는 중요한 데이터가 포함되어 있기 때문에 이 회사는 데이터를 잃지 않고 기능을 업그레이드하고 테스트할 수 있는 빠른 솔루션을 원합니다.
어떤 솔루션이 가장 적은 운영 오버헤드로 이러한 요구 사항을 충족할까요?
A. RDS 수동 스냅샷을 만듭니다. MySQL용 Amazon RDS의 새 버전으로 업그레이드합니다.
B. 네이티브 백업 및 복원을 사용합니다. 업그레이드된 새로운 버전의 Amazon RDS for MySQL로 데이터를 복원합니다.
C. AWS Database Migration Service(AWS DMS)를 사용하여 데이터를 업그레이드된 새로운 버전의 Amazon RDS for MySQL로 복제합니다.
D. Amazon RDS Blue/Green 배포를 사용하여 프로덕션 변경 사항을 배포하고 테스트합니다.
D. Amazon RDS Blue/Green 배포를 사용하여 프로덕션 변경 사항을 배포하고 테스트합니다.
RDS Blue/Green 배포의 기능
- Amazon RDS Blue/Green 배포는 최소한의 다운타임으로 프로덕션 데이터베이스 변경 사항을 배포하고 테스트할 수 있는 관리형 솔루션입니다.
- Blue 환경: 현재 프로덕션 데이터베이스
- Green 환경: 업그레이드 및 테스트용으로 새로운 데이터베이스 환경을 생성
- 데이터가 자동으로 동기화되므로 데이터 손실 위험이 없습니다.
- 테스트 후 문제가 없으면 Green 환경을 프로덕션으로 전환할 수 있습니다.
데이터 무결성과 보안 준수
- RDS Blue/Green 배포는 데이터를 실시간으로 복제하여 테스트 환경과 프로덕션 환경 간의 데이터 동기화를 보장합니다.
- 업그레이드된 데이터베이스 버전을 테스트한 후 문제 없이 안전하게 전환할 수 있습니다.
운영 오버헤드 최소화
- AWS에서 제공하는 관리형 솔루션이므로 복잡한 수동 작업 없이 설정할 수 있습니다.
- 업그레이드 프로세스가 자동화되어 효율적이고 신속합니다.
RDS Blue/Green 배포의 장점
- 업그레이드와 테스트 환경을 쉽게 설정 가능
- 데이터 손실 없이 실시간 동기화
- 문제 발생 시 Blue 환경으로 신속히 복귀 가능
- 관리형 서비스로 간단한 설정과 운영
■ Question #630
솔루션 아키텍트는 하루에 한 번 실행되고 완료하는 데 최대 2시간이 걸릴 수 있는 데이터 처리 작업을 만들고 있습니다. 작업이 중단되면 처음부터 다시 시작해야 합니다.
솔루션 아키텍트는 이 문제를 가장 비용 효율적인 방식으로 어떻게 해결해야 할까요?
A. Cron 작업에 의해 트리거되는 Amazon EC2 예약 인스턴스에서 로컬로 실행되는 스크립트를 생성합니다.
B. Amazon EventBridge에서 예약된 이벤트에 의해 트리거되는 AWS Lambda 함수를 생성합니다.
C. Amazon EventBridge에서 예약된 이벤트에 의해 트리거되는 Amazon Elastic Container Service (Amazon ECS) Fargate 작업을 사용합니다.
D. Amazon EventBridge 예약된 이벤트에 의해 트리거되는 Amazon EC2에서 실행되는 Amazon Elastic Container Service (Amazon ECS) 작업을 사용합니다.
C. Amazon EventBridge에서 예약된 이벤트에 의해 트리거되는 Amazon Elastic Container Service (Amazon ECS) Fargate 작업을 사용합니다.
비용 효율성
- Amazon ECS Fargate는 컨테이너 작업을 실행하기 위해 EC2 인스턴스를 관리할 필요 없이 서버리스 방식으로 작동합니다.
- 사용한 만큼만 비용을 지불하므로 하루에 한 번 실행되는 짧은 작업에 적합합니다.
안정성과 관리 편의성
- 작업이 예약된 시간에 실행되며, 인프라를 관리할 필요가 없습니다.
- 작업이 실패하면 처음부터 다시 시작할 수 있도록 설정할 수 있습니다.
EventBridge와의 통합
- EventBridge는 작업 실행을 예약하거나 이벤트 기반으로 트리거할 수 있는 관리형 서비스로, ECS Fargate 작업과 완벽하게 통합됩니다.
- 추가 설정 없이 작업 스케줄링을 간편하게 처리할 수 있습니다.
작업 지속 시간
- Lambda는 15분 제한이 있어 최대 2시간이 걸리는 작업에는 적합하지 않습니다.
- Fargate 작업은 긴 시간 동안 실행 가능한 컨테이너 기반 솔루션이므로 이 시나리오에 적합합니다.
■ Question #631
소셜 미디어 회사가 AWS 클라우드에 사용자 프로필, 관계 및 상호작용 데이터베이스를 저장하려고 합니다. 이 회사는 데이터베이스의 모든 변경 사항을 모니터링하는 애플리케이션이 필요합니다. 이 애플리케이션은 데이터 엔터티 간의 관계를 분석하고 사용자에게 권장 사항을 제공해야 합니다.
어떤 솔루션이 최소한의 운영 오버헤드로 이러한 요구 사항을 충족할까요?
A. Amazon Neptune을 사용하여 정보를 저장합니다. Amazon Kinesis Data Streams를 사용하여 데이터베이스의 변경 사항을 처리합니다.
B. Amazon Neptune을 사용하여 정보를 저장합니다. Neptune Streams를 사용하여 데이터베이스의 변경 사항을 처리합니다.
C. Amazon Quantum Ledger Database(Amazon QLDB)를 사용하여 정보를 저장합니다. Amazon Kinesis Data Streams를 사용하여 데이터베이스의 변경 사항을 처리합니다.
D. Amazon Quantum Ledger Database(Amazon QLDB)를 사용하여 정보를 저장합니다. Neptune Streams를 사용하여 데이터베이스의 변경 사항을 처리합니다.
B. Amazon Neptune을 사용하여 정보를 저장합니다. Neptune Streams를 사용하여 데이터베이스의 변경 사항을 처리합니다.
그래프 데이터베이스의 적합성
- 소셜 미디어 데이터베이스는 사용자 프로필, 관계 및 상호작용과 같은 복잡한 관계를 저장하고 쿼리하는 데 적합한 그래프 데이터베이스가 필요합니다.
- Amazon Neptune은 AWS에서 관리하는 그래프 데이터베이스 서비스로, 데이터 간의 관계와 패턴 분석에 이상적입니다.
Neptune Streams의 데이터 변경 처리
- Neptune Streams는 데이터베이스 변경 사항(삽입, 업데이트, 삭제)을 처리하는 네이티브 솔루션으로, 최소한의 운영 오버헤드로 변경 사항을 캡처하고 처리할 수 있습니다.
- 이 기능은 별도의 데이터 스트림 서비스(Amazon Kinesis 등)를 구성할 필요 없이 데이터 변경 사항을 실시간으로 제공할 수 있습니다.
운영 오버헤드 감소
- Neptune Streams는 Amazon Neptune에 네이티브로 통합되어 있어 별도의 외부 스트리밍 서비스나 애플리케이션 설정을 최소화하여 운영 오버헤드를 줄입니다.
사용자 권장 사항 제공
- Amazon Neptune은 관계형 데이터를 효과적으로 처리할 수 있는 Gremlin 및 SPARQL과 같은 쿼리 언어를 지원하므로 사용자 권장 사항을 생성하기 위한 복잡한 쿼리를 쉽게 실행할 수 있습니다.
■ Question #632
한 회사가 대량의 데이터를 저장하는 새로운 애플리케이션을 만들고 있습니다. 데이터는 매시간 분석되고 여러 가용성 영역에 배포된 여러 Amazon EC2 Linux 인스턴스에 의해 수정됩니다. 필요한 저장 공간의 양은 향후 6개월 동안 계속 증가할 것입니다.
솔루션 아키텍트는 이러한 요구 사항을 충족하기 위해 어떤 저장 솔루션을 권장해야 합니까?
A. Amazon S3 Glacier에 데이터를 저장합니다. S3 Glacier 볼트 정책을 업데이트하여 애플리케이션 인스턴스에 대한 액세스를 허용합니다.
B. Amazon Elastic Block Store(Amazon EBS) 볼륨에 데이터를 저장합니다. 애플리케이션 인스턴스에 EBS 볼륨을 마운트합니다.
C. Amazon Elastic File System(Amazon EFS) 파일 시스템에 데이터를 저장합니다. 애플리케이션 인스턴스에 파일 시스템을 마운트합니다.
D. 애플리케이션 인스턴스 간에 공유되는 Amazon Elastic Block Store(Amazon EBS) 프로비저닝된 IOPS 볼륨에 데이터를 저장합니다.
C. Amazon Elastic File System(Amazon EFS) 파일 시스템에 데이터를 저장합니다. 애플리케이션 인스턴스에 파일 시스템을 마운트합니다.
공유 스토리지 요구 사항 충족
- EFS는 여러 Amazon EC2 인스턴스에서 동시에 파일 시스템을 마운트하고 데이터를 공유할 수 있는 공유 파일 스토리지를 제공합니다.
- 이는 애플리케이션이 여러 가용성 영역(AZ)에 배포된 여러 EC2 인스턴스에서 데이터를 수정해야 하는 요구 사항과 일치합니다.
확장성
- Amazon EFS는 사용량에 따라 자동으로 확장 및 축소되므로 저장 공간 증가에 대비할 수 있습니다.
- 사용량 기반 과금 방식으로 비용 효율성을 제공합니다.
고가용성과 내구성
- Amazon EFS는 여러 AZ에 걸쳐 데이터 복제를 기본으로 제공하므로 고가용성과 데이터 내구성을 보장합니다.
POSIX 파일 시스템
- EFS는 Linux 기반 EC2 인스턴스에서 지원되는 POSIX 호환 파일 시스템을 제공하므로 애플리케이션에서 파일 시스템 인터페이스를 사용하여 데이터를 처리할 수 있습니다.
■ Question #633
한 회사가 Amazon RDS for PostgreSQL Multi-AZ DB 인스턴스에 데이터를 저장하는 애플리케이션을 관리합니다. 트래픽 증가로 인해 성능 문제가 발생합니다. 이 회사는 데이터베이스 쿼리가 느린 성능의 주요 원인이라고 판단합니다.
솔루션 아키텍트는 애플리케이션의 성능을 개선하기 위해 무엇을 해야 합니까?
A. 다중 AZ 대기 복제본에서 읽기 트래픽을 제공합니다.
B. 전송 가속을 사용하도록 DB 인스턴스를 구성합니다.
C. 소스 DB 인스턴스에서 읽기 복제본을 만듭니다. 읽기 복제본에서 읽기 트래픽을 제공합니다.
D. 애플리케이션과 Amazon RDS 간에 Amazon Kinesis Data Firehose를 사용하여 데이터베이스 요청의 동시성을 높입니다.
C. 소스 DB 인스턴스에서 읽기 복제본을 만듭니다. 읽기 복제본에서 읽기 트래픽을 제공합니다.
읽기 복제본(Read Replica)의 목적
- 읽기 복제본은 읽기 전용 트래픽을 처리할 수 있도록 RDS에서 제공하는 기능입니다.
- 읽기 복제본을 사용하면 원본 데이터베이스 인스턴스에서 일부 읽기 작업을 오프로딩하여 성능을 향상시킬 수 있습니다.
- 이는 트래픽 증가로 인한 읽기 쿼리 부하를 분산하는 데 적합합니다.
Multi-AZ와 읽기 복제본의 차이
- Multi-AZ 배포는 고가용성과 데이터 복구를 위한 구성으로, 읽기 트래픽을 처리하는 데 사용되지 않습니다.
- 읽기 복제본은 애플리케이션이 읽기 트래픽을 처리할 별도의 데이터베이스 인스턴스를 제공하여 성능 병목을 해소합니다.
데이터베이스 성능 병목 해결
- 데이터베이스 쿼리가 성능 문제의 주요 원인일 경우, 읽기 복제본을 생성하고 읽기 전용 쿼리를 복제본에서 처리하도록 애플리케이션을 구성하는 것이 적절한 해결책입니다.
■ Question #634
한 회사가 다양한 기계에서 매일 10GB의 원격 측정 데이터를 수집합니다. 이 회사는 소스 데이터 계정의 Amazon S3 버킷에 데이터를 저장합니다. 이 회사는 이 데이터를 분석에 사용하기 위해 여러 컨설팅 기관을 고용했습니다. 각 기관은 분석가를 위해 데이터에 대한 읽기 액세스 권한이 필요합니다. 이 회사는 보안과 운영 효율성을 극대화하는 솔루션을 선택하여 소스 데이터 계정의 데이터를 공유해야 합니다.
어떤 솔루션이 이러한 요구 사항을 충족할까요?
A. 각 기관의 데이터를 복제하기 위해 S3 글로벌 테이블을 구성합니다.
B. S3 버킷을 제한된 시간 동안 공개합니다. 기관에만 알립니다.
C. 기관이 소유한 계정에 대한 S3 버킷의 교차 계정 액세스를 구성합니다.
D. 소스 데이터 계정의 각 분석가에 대해 IAM 사용자를 설정합니다. 각 사용자에게 S3 버킷에 대한 액세스 권한을 부여합니다.
C. 기관이 소유한 계정에 대한 S3 버킷의 교차 계정 액세스를 구성합니다.
교차 계정 액세스
- Amazon S3는 교차 계정 액세스를 통해 데이터를 효율적으로 공유할 수 있는 기능을 제공합니다.
- 소스 데이터 계정의 S3 버킷 정책을 구성하여 컨설팅 기관 계정에 읽기 액세스 권한을 부여하면 데이터를 안전하게 공유할 수 있습니다.
- 이는 보안과 운영 효율성을 극대화하면서 데이터를 직접 복사하거나 사용자 계정을 개별적으로 관리할 필요가 없습니다.
효율적인 관리
- 각 기관은 자신의 AWS 계정 내에서 데이터에 액세스할 수 있으므로 운영 오버헤드가 감소합니다.
- 소스 데이터 계정은 단순히 S3 버킷 정책만 관리하면 되므로 간단하고 확장 가능하며 안전합니다.
■ Question #635
한 회사가 CIFS 및 NFS 파일 공유를 위해 기본 AWS 지역에서 Amazon FSx for NetApp ONTAP을 사용합니다. Amazon EC2 인스턴스에서 실행되는 애플리케이션은 파일 공유에 액세스합니다. 이 회사는 보조 지역에서 스토리지 재해 복구(DR) 솔루션이 필요합니다. 보조 지역에서 복제되는 데이터는 기본 지역과 동일한 프로토콜을 사용하여 액세스해야 합니다.
어떤 솔루션이 최소한의 운영 오버헤드로 이러한 요구 사항을 충족할까요?
A. AWS Lambda 함수를 만들어 데이터를 Amazon S3 버킷에 복사합니다. S3 버킷을 보조 리전에 복제합니다.
B. AWS Backup을 사용하여 FSx for ONTAP 볼륨의 백업을 만듭니다. 볼륨을 보조 리전에 복사합니다. 백업에서 새 FSx for ONTAP 인스턴스를 만듭니다.
C. 보조 지역에서 FSx for ONTAP 인스턴스를 만듭니다. NetApp SnapMirror를 사용하여 기본 지역에서 보조 지역으로 데이터를 복제합니다.
D. Amazon Elastic File System(Amazon EFS) 볼륨을 만듭니다. 현재 데이터를 볼륨으로 마이그레이션합니다. 볼륨을 보조 리전에 복제합니다.
C. 보조 지역에서 FSx for ONTAP 인스턴스를 만듭니다. NetApp SnapMirror를 사용하여 기본 지역에서 보조 지역으로 데이터를 복제합니다.
Amazon FSx for NetApp ONTAP와 NetApp SnapMirror 통합
- NetApp SnapMirror는 FSx for ONTAP 인스턴스에서 기본적으로 지원되는 데이터 복제 기술입니다.
- SnapMirror는 CIFS(Windows 파일 공유) 및 NFS(Linux 파일 공유)와 같은 프로토콜을 유지하며 데이터를 복제할 수 있습니다.
- 이를 통해 기본 지역의 FSx for ONTAP와 동일한 환경을 보조 지역에서 설정할 수 있습니다.
재해 복구 요구 사항 충족
- 보조 지역에서 동일한 CIFS 및 NFS 프로토콜을 사용할 수 있으므로 애플리케이션이 변경 없이 동일한 방식으로 파일 공유에 액세스할 수 있습니다.
- NetApp SnapMirror는 지능적인 증분 복제를 제공하여 네트워크 대역폭 사용을 최소화하면서 데이터의 최신 상태를 유지할 수 있습니다.
운영 오버헤드 감소
- SnapMirror는 FSx for ONTAP에 기본적으로 통합되어 있어 운영 오버헤드가 최소화됩니다.
- 별도의 백업 스케줄 관리나 추가적인 복잡한 구성 없이 복제가 자동으로 이루어질 수 있습니다.
■ Question #636
개발팀은 AWS Lambda 함수를 사용하는 이벤트 기반 애플리케이션을 만들고 있습니다. 파일이 Amazon S3 버킷에 추가되면 이벤트가 생성됩니다. 개발팀은 현재 Amazon S3에서 Amazon Simple Notification Service(Amazon SNS)를 이벤트 대상으로 구성했습니다.
솔루션 아키텍트는 Amazon S3의 이벤트를 확장 가능한 방식으로 처리하기 위해 무엇을 해야 합니까?
A. Lambda에서 이벤트가 실행되기 전에 Amazon Elastic Container Service(Amazon ECS)에서 이벤트를 처리하는 SNS 구독을 생성합니다.
B. Lambda에서 이벤트가 실행되기 전에 Amazon Elastic Kubernetes Service(Amazon EKS)에서 이벤트를 처리하는 SNS 구독을 만듭니다.
C. Amazon Simple Queue Service(Amazon SQS)로 이벤트를 전송하는 SNS 구독을 만듭니다. Lambda 함수를 트리거하도록 SOS 대기열을 구성합니다.
D. AWS Server Migration Service(AWS SMS)로 이벤트를 전송하는 SNS 구독을 만듭니다. SMS 이벤트에서 폴링하도록 Lambda 함수를 구성합니다.
C. Amazon Simple Queue Service(Amazon SQS)로 이벤트를 전송하는 SNS 구독을 만듭니다. Lambda 함수를 트리거하도록 SQS 대기열을 구성합니다.
확장 가능한 이벤트 처리
- SQS를 사용하면 SNS에서 Lambda로 직접 이벤트를 트리거하는 것보다 더 안정적이고 확장 가능한 이벤트 처리를 구현할 수 있습니다.
- SQS는 비동기 처리를 제공하며, 이벤트를 버퍼링하여 대량의 트래픽에서도 손실 없이 안정적으로 처리할 수 있습니다.
SNS-SQS-Lambda 패턴
- SNS는 이벤트를 게시하고 SQS는 이를 큐에 저장하며, Lambda는 SQS에서 이벤트를 가져와 처리합니다.
- 이 패턴은 확장성 및 신뢰성을 제공하며, 메시지 지연이나 일시적인 장애에도 데이터를 안전하게 저장할 수 있습니다.
확장성 및 페일오버 지원
- 대량의 트래픽이 발생해도 SQS는 대기열에 이벤트를 저장하여 처리 병목 현상을 방지합니다.
- Lambda는 SQS의 이벤트를 동적 병렬 실행으로 처리할 수 있습니다.
운영 오버헤드 감소
- 이 패턴은 AWS 서비스 간의 기본 통합을 활용하여 운영 오버헤드를 최소화합니다.
- Lambda가 SQS를 폴링하므로 별도의 이벤트 관리 로직이 필요하지 않습니다.
■ Question #637
솔루션 아키텍트가 Amazon API Gateway 뒤에 새로운 서비스를 설계하고 있습니다. 서비스에 대한 요청 패턴은 예측할 수 없으며 초당 0개의 요청에서 500개 이상으로 갑자기 바뀔 수 있습니다. 백엔드 데이터베이스에 유지해야 하는 데이터의 총 크기는 현재 1GB 미만이며 향후 증가는 예측할 수 없습니다. 간단한 키-값 요청을 사용하여 데이터를 쿼리할 수 있습니다.
어떤 AWS 서비스 조합이 이러한 요구 사항을 충족할까요? (두 가지를 선택하세요.)
A. AWS Fargate
B. AWS Lambda
C. Amazon DynamoDB
D. Amazon EC2 Auto Scaling
E. MySQL-compatible Amazon Aurora
요구 사항 분석
- 요청 패턴이 예측할 수 없고, 초당 0에서 500개 이상으로 급증합니다.
- 데이터는 1GB 미만의 크기이고, 간단한 키-값 요청을 사용하여 쿼리합니다.
B. AWS Lambda
- Lambda는 서버리스 환경으로, 요청 수가 적을 때 비용이 거의 발생하지 않으며, 갑작스러운 요청 급증에도 자동으로 확장 가능합니다.
- API Gateway와 쉽게 통합되며, 예측 불가능한 요청 패턴에 적합한 확장성과 비용 효율성을 제공합니다.
C. Amazon DynamoDB
- DynamoDB는 키-값 및 문서 데이터베이스로, 고성능, 낮은 지연 시간으로 간단한 키-값 쿼리에 적합합니다.
- 온디맨드 모드를 사용하면 요청량이 갑작스럽게 증가해도 자동으로 확장할 수 있습니다.
- 데이터 크기가 1GB 미만이므로 DynamoDB의 고성능 처리에 이상적이며, 관리 오버헤드가 거의 없습니다.
■ Question #638
한 회사가 전 세계의 회사 직원들과 연구 데이터를 수집하여 공유합니다. 이 회사는 Amazon S3 버킷에 데이터를 수집하여 저장하고 AWS 클라우드에서 데이터를 처리하려고 합니다. 이 회사는 회사 직원들과 데이터를 공유합니다. 이 회사는 운영 오버헤드를 최소화하는 AWS 클라우드의 보안 솔루션이 필요합니다.
어떤 솔루션이 이러한 요구 사항을 충족할까요?
A. AWS Lambda 함수를 사용하여 S3 사전 서명 URL을 만듭니다. 직원들에게 URL을 사용하도록 지시합니다.
B. 각 직원에 대해 IAM 사용자를 만듭니다. 각 직원에 대해 S3 액세스를 허용하기 위한 IAM 정책을 만듭니다. 직원들에게 AWS Management Console을 사용하도록 지시합니다.
C. S3 파일 게이트웨이를 만듭니다. 업로드를 위한 공유와 다운로드를 위한 공유를 만듭니다. 직원들이 로컬 컴퓨터에 공유를 마운트하여 S3 파일 게이트웨이를 사용할 수 있도록 허용합니다.
D. AWS Transfer Family SFTP 엔드포인트를 구성합니다. 사용자 지정 ID 공급자 옵션을 선택합니다. AWS Secrets Manager를 사용하여 사용자 자격 증명을 관리합니다. 직원들에게 Transfer Family를 사용하도록 지시합니다.
요구 사항 분석
- 데이터를 Amazon S3에 저장하고 데이터를 회사 직원들과 공유해야 합니다.
- 운영 오버헤드를 최소화하면서 데이터를 보안적으로 관리해야 합니다.
A. AWS Lambda 함수를 사용하여 S3 사전 서명 URL을 만듭니다. 직원들에게 URL을 사용하도록 지시합니다.
- S3 사전 서명 URL은 S3 버킷에 대한 임시 액세스를 제공하여 권한 없는 사용자가 데이터를 보지 못하도록 보안을 유지합니다.
- 운영 오버헤드가 최소화됩니다. 사용자를 별도로 관리할 필요 없이 직원에게 URL만 제공하면 됩니다.
- Lambda를 사용하여 URL 생성 프로세스를 자동화함으로써 추가적인 관리 작업 없이도 쉽게 URL을 생성하고 전달할 수 있습니다.
- 사전 서명 URL은 만료 시간이 있어 보안성을 높입니다.
D. AWS Transfer Family SFTP (30%) : 적합하지만 제한적인 이유
보안
- Transfer Family는 SFTP/FTPS/FTP 기반으로 파일 전송 보안을 제공합니다. 이는 안전하지만, 전송 후 데이터를 지속적으로 액세스할 수 있도록 S3와 통합하기 위해 추가 설정이 필요합니다.
운영 오버헤드
- 사용자 관리 및 SFTP 설정은 추가 작업을 필요로 하며, Secrets Manager를 통한 자격 증명 관리도 추가적인 비용 및 복잡성을 유발합니다
사용 사례
- Transfer Family는 대량의 파일 전송이나 복잡한 파일 관리 작업이 필요한 경우 더 적합합니다.
- 단순히 직원들과 데이터를 공유하는 데는 과도한 솔루션입니다.
■ Question #639
한 회사가 새로운 가구 재고 애플리케이션을 구축하고 있습니다. 이 회사는 여러 가용성 영역에 걸쳐 Amazon EC2 인스턴스의 플릿에 애플리케이션을 배포했습니다. EC2 인스턴스는 VPC의 애플리케이션 로드 밸런서(ALB) 뒤에서 실행됩니다.
솔루션 아키텍트는 들어오는 트래픽이 한 EC2 인스턴스를 선호하는 것으로 보이며, 이로 인해 일부 요청에 지연이 발생하는 것을 관찰했습니다.
솔루션 아키텍트는 이 문제를 해결하기 위해 무엇을 해야 할까요?
A. ALB에서 세션 친화성(스티키 세션) 비활성화
B. ALB를 네트워크 로드 밸런서로 교체
C. 각 가용성 영역에서 EC2 인스턴스 수 증가
D. ALB 대상 그룹의 건강 검진 빈도 조정
A. ALB에서 세션 친화성(스티키 세션) 비활성화
세션 친화성(스티키 세션) 문제: (session affinity (sticky sessions))
- 세션 친화성(session affinity)이 활성화되어 있으면 동일한 클라이언트의 모든 요청이 동일한 EC2 인스턴스에 라우팅됩니다.
- 이로 인해 특정 EC2 인스턴스가 과부하 상태가 되고, 다른 인스턴스는 비어있는 상태가 됩니다.
- 결과적으로 일부 요청에 대해 지연이 발생할 수 있습니다.
ALB의 기본 라운드 로빈 방식
- 세션 친화성(session affinity)을 비활성화하면 ALB는 요청을 라운드 로빈 방식으로 균등하게 분산합니다.
- 이는 로드 밸런싱 문제를 해결하고 EC2 인스턴스 간에 트래픽을 고르게 분배합니다.
■ Question #640
한 회사에는 AWS Lambda 함수를 사용하여 Amazon S3에서 파일을 다운로드하고 복호화하는 애플리케이션 워크플로가 있습니다. 이러한 파일은 AWS Key Management Service(AWS KMS) 키를 사용하여 암호화됩니다. 솔루션 아키텍트는 필요한 권한이 올바르게 설정되도록 하는 솔루션을 설계해야 합니다.
어떤 작업 조합이 이를 달성합니까? (두 가지를 선택하세요.)
A. Lambda 함수의 리소스 정책에 kms:decrypt 권한을 첨부합니다.
B. KMS 키 정책에서 Lambda IAM 역할에 대한 암호 해독 권한 부여
C. KMS 키 정책에서 Lambda 리소스 정책에 대한 복호화 권한을 부여합니다.
D. kms:decrypt 권한으로 새 IAM 정책을 만들고 해당 정책을 Lambda 함수에 연결합니다.
E. kms:decrypt 권한이 있는 새로운 IAM 역할을 생성하고 Lambda 함수에 실행 역할을 연결합니다.
B. KMS 키 정책에서 Lambda IAM 역할에 대한 암호 해독 권한 부여
- AWS KMS 키에 접근하려면 키 정책에서 해당 Lambda 함수의 실행 역할(Lambda IAM Role)에 'kms:Decrypt' 권한을 명시적으로 부여해야 합니다.
- 이는 Lambda 함수가 KMS 키와 상호작용하여 파일을 복호화할 수 있도록 허용하는 필수 단계입니다.
E. kms:decrypt 권한이 있는 새로운 IAM 역할을 생성하고 Lambda 함수에 실행 역할을 연결합니다.
- 새로운 IAM 역할을 생성하여 'kms:Decrypt' 권한을 부여한 후 Lambda 함수에 연결하는 방법은 작동 가능하지만, 새로운 역할을 생성하는 것은 꼭 필요한 작업은 아닙니다.
- 기존 실행 역할이 있다면 거기에 'kms:Decrypt' 권한을 추가하는 것으로 충분합니다.
- 그러나 새로운 IAM 역할을 생성하면 명확하게 격리된 권한 구성을 제공하는 장점이 있습니다. 이 접근법은 보안 요구사항이 더 높은 경우에 적합할 수 있습니다.
AWS SAA-C03 Examtopics (661 ~ 680) (0) | 2024.12.21 |
---|---|
AWS SAA-C03 Examtopics (641 ~ 660) (1) | 2024.12.21 |
AWS SAA-C03 Examtopics (601 ~ 620) (0) | 2024.12.21 |
AWS SAA-C03 Examtopics (581~ 600) (0) | 2024.12.21 |
AWS SAA-C03 Examtopics (561 ~ 580) (2) | 2024.12.21 |