안녕하세요! 넥스트클라우드의 SA 강준우입니다. 😊
문제는 세 가지 단계를 거치며 풀어 나갈 거예요.
1. 문제의 요구사항 분석하기
2. 관련 AWS 서비스 생각하기
3. 선택지 분석하기
바로 문제 풀이 해볼까요?
문제1
회사의 웹 사이트는 항목 카탈로그에 Amazon EC2 인스턴스 스토어를 사용합니다. 회사는 카탈로그의 가용성이 높고 카탈로그가 안정적인 위치에 저장되기를 원합니다. 솔루션 설계자는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?
선택지
A. Redis용 Amazon ElastiCache로 카탈로그를 이동합니다.
B. 더 큰 인스턴스 저장소가 있는 더 큰 EC2 인스턴스를 배포합니다.
C. 인스턴스 스토어에서 Amazon S3 Glacier Deep Archive로 카탈로그를 이동합니다.
D. 카탈로그를 Amazon Elastic File System(Amazon EFS) 파일 시스템으로 이동합니다.
풀이
Amazon EFS(Elastic File System)는 완전관리형 파일 스토리지 서비스로, 높은 가용성과 내구성을 제공합니다. 여러 가용 영역에 걸쳐 데이터를 자동으로 복제하고, 빠른 스냅샷 복원 기능을 제공합니다. 따라서 카탈로그의 높은 가용성과 안정적인 스토리지 요구사항을 충족할 수 있습니다.
정답 : D
▼ 자세한 문제 풀이를 원하신 분은 아래 더보기를 통해 확인해 주세요.
1. 문제의 요구사항 분석하기
- 항목 카탈로그의 높은 가용성과 안정적인 스토리지 위치
2. 관련 AWS 서비스 생각하기
- Amazon EFS: 완전관리형 파일 스토리지 서비스로, 높은 가용성과 내구성을 제공합니다. 데이터를 여러 가용 영역에 걸쳐 자동 복제하고, 빠른 스냅샷 복원을 지원합니다.
- Amazon EC2 인스턴스 스토어: EC2 인스턴스와 연결된 임시 스토리지로, 인스턴스가 종료되면 데이터가 손실됩니다. 가용성과 내구성이 낮습니다.
3. 선택지 분석하기
A. Redis용 Amazon ElastiCache로 카탈로그를 이동합니다.
→ ElastiCache는 인 메모리 데이터 스토어로, 파일 데이터를 저장하기에 적합하지 않습니다.
B. 더 큰 인스턴스 저장소가 있는 더 큰 EC2 인스턴스를 배포합니다.
→ 인스턴스 스토어는 임시 스토리지이므로 높은 가용성과 내구성을 제공하지 않습니다.
C. 인스턴스 스토어에서 Amazon S3 Glacier Deep Archive로 카탈로그를 이동합니다. →
→ S3 Glacier Deep Archive는 장기 보관에 적합하지만, 높은 가용성을 제공하지 않습니다.
D. 1개월 후에 객체를 S3 Standard에서 S3 One Zone-Infrequent Access(S3 One Zone-IA)로 전환하는 S3 수명 주기 구성을 생성합니다.
이어서 다음 문제입니다.
문제2
회사에는 Amazon S3에 백업되는 대량의 시간에 민감한 데이터를 생성하는 온프레미스 애플리케이션이 있습니다. 애플리케이션이 성장했고 인터넷 대역폭 제한에 대한 사용자 불만이 있습 니다. 솔루션 설계자는 Amazon S3에 적시에 백업하고 내부 사용자의 인터넷 연결에 미치는 영향을 최소화할 수 있는 장기 솔루션을 설계해야 합니다. 어떤 솔루션이 이러한 요구 사항을 충족합니까?
선택지
A. AWS VPN 연결을 설정하고 VPC 게이트웨이 엔드포인트를 통해 모든 트래픽을 프록시합니다.
B. 새로운 AWS Direct Connect 연결을 설정하고 이 새로운 연결을 통해 백업 트래픽을 전달합니다.
C. 매일 AWS Snowball 디바이스를 주문합니다. Snowball 디바이스에 데이터를 로드하고 디바이스를 매일 AWS에 반환합니다.
D. AWS Management Console을 통해 지원 티켓을 제출합니다. 계정에서 S3 서비스 제한 제거를 요청합니다.
풀이
AWS Direct Connect를 사용하면 인터넷을 통하지 않고 전용 네트워크 연결을 통해 AWS 리소스에 액세스할 수 있습니다. 이를 통해 인터넷 대역폭 제한 문제를 해결하고 보다 빠르고 안정적인 데이터 전송을 구현할 수 있습니다. 또한 대규모 데이터 전송에 적합하며 더 낮은 비용으로 AWS에 연결할 수 있습니다.
정답 : B
▼ 자세한 문제 풀이를 원하신 분은 아래 더보기를 통해 확인해 주세요.
1. 문제의 요구사항 분석하기
- 대규모의 시간에 민감한 데이터를 S3에 백업
- 인터넷 대역폭 제한 문제 해결
- 내부 사용자의 인터넷 연결에 미치는 영향 최소화
2. 관련 AWS 서비스 생각하기
- AWS Direct Connect: 온프레미스 환경과 AWS 간의 전용 네트워크 연결을 제공하는 서비스입니다. 인터넷 대역폭 제한 없이 안정적으로 데이터를 전송할 수 있습니다.
- Amazon VPC: AWS의 가상 프라이빗 클라우드입니다. VPC 엔드포인트를 통해 직접 AWS 서비스에 액세스할 수 있습니다.
- AWS Snowball: 대규모 데이터를 물리적 디바이스에 로드하여 AWS로 이동할 수 있는 서비스입니다.
- Amazon S3: 높은 내구성과 가용성을 제공하는 객체 스토리지 서비스입니다.
3. 선택지 분석하기
A. AWS VPN 연결을 설정하고 VPC 게이트웨이 엔드포인트를 통해 모든 트래픽을 프록시합니다.
→ VPN은 인터넷 연결을 사용하므로 대역폭 문제가 해결되지 않습니다.
B. 새로운 AWS Direct Connect 연결을 설정하고 이 새로운 연결을 통해 백업 트래픽을 전달합니다.
C. 매일 AWS Snowball 디바이스를 주문합니다. Snowball 디바이스에 데이터를 로드하고 디바이스를 매일 AWS에 반환합니다.
→ Snowball은 대규모 데이터 전송에 적합하지만, 시간에 민감한 데이터의 실시간 백업에는 적합하지 않습니다.
D. AWS Management Console을 통해 지원 티켓을 제출합니다. 계정에서 S3 서비스 제한 제거를 요청합니다.
→ S3 서비스 제한은 인터넷 대역폭 문제와 관련이 없습니다.
마지막 문제 살펴볼게요.
문제3
회사에서 Amazon S3 Standard 스토리지를 사용하여 백업 파일을 저장하고 있습니다. 1개월 동안 파일에 자주 액세스합니다. 그러나 1개월이 지나면 파일에 액세스하지 않습니다. 회사는 파일을 무기한으로 보관해야 합니다. 이러한 요구 사항을 가장 비용 효율적으로 충족하는 스토리지 솔루션은 무엇입니까?
선택지
A. 개체를 자동으로 마이그레이션하도록 S3 Intelligent-Tiering을 구성합니다.
B. 1개월 후에 객체를 S3 Standard에서 S3 Glacier Deep Archive로 전환하는 S3 수명 주기 구성을 생성합니다.
C. 1개월 후 객체를 S3 Standard에서 S3 Standard-Infrequent Access(S3 Standard-IA)로 전환하는 S3 수명 주기 구성을 생성합니다.
D. 1개월 후에 객체를 S3 Standard에서 S3 One Zone-Infrequent Access(S3 One Zone-IA)로 전환하는 S3 수명 주기 구성을 생성합니다
풀이
S3 Glacier Deep Archive는 장기 데이터 보관에 가장 비용 효율적입니다. 1개월 후에 자주 액세스하지 않는 백업 파일을 S3 Standard에서 Glacier Deep Archive로 이동하면 스토리지 비용을 크게 절감할 수 있습니다. S3 수명 주기 정책을 활용하여 이러한 데이터 이동을 자동화할 수 있습니다.
정답 : B
▼ 자세한 문제 풀이를 원하신 분은 아래 더보기를 통해 확인해 주세요.
1. 문제의 요구사항 분석하기
- 백업 파일을 S3 Standard에 저장 -
- 1개월 동안은 자주 액세스, 그 후에는 액세스하지 않음
- 무기한 데이터 보관
- 비용 효율적인 스토리지 솔루션 필요
2. 관련 AWS 서비스 생각하기
- Amazon S3 Standard: 일반적인 데이터 액세스 패턴에 적합한 스토리지 클래스입니다.
- Amazon S3 Glacier: 장기 데이터 보관을 위한 저비용 스토리지 클래스입니다. Glacier Deep Archive는 가장 저렴한 스토리지 옵션입니다.
- Amazon S3 Standard-Infrequent Access (S3 Standard-IA): 자주 액세스하지 않는 데이터를 저렴한 비용으로 저장하기에 적합한 스토리지 클래스입니다.
- Amazon S3 One Zone-Infrequent Access (S3 One Zone-IA): S3 Standard-IA와 유사하지만, 단일 가용 영역에서 데이터를 저장합니다.
- S3 수명 주기 정책: 데이터의 수명 주기 동안 AWS가 수행할 작업을 정의할 수 있습니다. 스토리지 클래스 전환, 만료된 객체 삭제 등이 가능합니다.
3. 선택지 분석하기
A. 개체를 자동으로 마이그레이션하도록 S3 Intelligent-Tiering을 구성합니다.
→ Intelligent-Tiering은 데이터 액세스 패턴에 따라 자동으로 스토리지 클래스를 전환하지만, Glacier Deep Archive로 마이그레이션하지는 않습니다.
B. 1개월 후에 객체를 S3 Standard에서 S3 Glacier Deep Archive로 전환하는 S3 수명 주기 구성을 생성합니다.
C. 1개월 후 객체를 S3 Standard에서 S3 Standard-Infrequent Access(S3 Standard-IA)로 전환하는 S3 수명 주기 구성을 생성합니다.
→ S3 Standard-IA는 Glacier Deep Archive보다 비용이 높습니다.
D. 1개월 후에 객체를 S3 Standard에서 S3 One Zone-Infrequent Access(S3 One Zone-IA)로 전환하는 S3 수명 주기 구성을 생성합니다.
→ S3 One Zone-IA는 Glacier Deep Archive보다 비용이 높고, 단일 가용 영역에 저장되므로 내구성이 낮습니다.
감사합니다. 다음 글에서 만나요! 😊
'AWS > SAA 준비' 카테고리의 다른 글
AWS SAA 합격으로 가는 길 #45 (0) | 2024.12.27 |
---|---|
AWS SAA 합격으로 가는 길 #44 (1) | 2024.12.22 |
AWS SAA 합격으로 가는 길 #42 (2) | 2024.12.13 |
AWS SAA 합격으로 가는 길 #41 (1) | 2024.12.09 |
AWS SAA 합격으로 가는 길 #40 (0) | 2024.12.06 |