본문 바로가기
AWS/SAA 준비

AWS SAA 합격으로 가는 길 #165

by Pacloud 2026. 3. 16.
반응형

안녕하세요! 넥스트클라우드의 테크니컬 트레이너 김유림입니다. 😊

이번 주가 벌써 3월의 절반입니다. 시간이 굉장히 빠르네요.

오늘 학습할 문제 3개도 빠르게 풀어보도록 하겠습니다!

 

 

문제는  가지 단계를 거치며 풀어가겠습니다.

1. 문제의 요구사항 분석하기

2. 관련 AWS 서비스 생각하기

3. 선택지 분석하기

 

바로 문제 풀이 시작합니다.


문제1

한 회사가 Amazon S3 버킷에 파일을 업로드하는 데 사용되는 애플리케이션을 호스팅합니다. 업로드되면 파일을 처리하여 메타데이터를 추출하는데, 이 작업에는 5초도 채 걸리지 않습니다. 업로드의 양과 빈도는 매 시간 몇 개의 파일부터 수백 개의 동시 업로드까지 다양합니다. 회사는 솔루션 설계자에게 이러한 요구 사항을 충족할 수 있는 비용 효율적인 아키텍처를 설계하도록 요청했습니다.

솔루션 설계자는 무엇을 추천해야 합니까?

 

선택지

A. S3 API 호출을 기록하도록 AWS CloudTrail 추적을 구성합니다. AWS AppSync를 사용하여 파일을 처리합니다.

B. 파일을 처리하기 위해 AWS Lambda 함수를 호출하도록 S3 버킷 내에서 객체 생성 이벤트 알림을 구성합니다.

C. 데이터를 처리하고 Amazon S3로 전송하도록 Amazon Kinesis Data Streams를 구성합니다. AWS Lambda 함수를 호출하여 파일을 처리합니다.

D. Amazon S3에 업로드된 파일을 처리하도록 Amazon Simple 알림 서비스(Amazon SNS) 주제를 구성합니다. AWS Lambda 함수를 호출하여 파일을 처리합니다.


풀이

이 문제는 파일이 Amazon S3에 업로드된 직후 5초 미만의 매우 짧은 처리를 수행하면서, 업로드 빈도와 동시성이 크게 변동하는 환경에서 비용 효율적인 아키텍처를 설계하는 것이 핵심입니다. 아키텍처 복잡도와 비용을 늘리지 않는 최적의 서비스를 선택해야 합니다.

 

정답 : B

 

▼ 자세한 문제 풀이를 원하신 분은 아래 더보기를 통해 확인해 주세요.

더보기

1.  문제의 요구사항 분석하기

  • 파일이 Amazon S3에 업로드될 때마다 즉시 처리 필요
  • 파일 처리 시간은 5초 미만의 짧은 작업
  • 업로드 수와 동시 요청이 시간대별로 크게 달라 비용 효율적인 구조가 필요

2. 관련 AWS 서비스 생각하기

  • Amazon S3 : AWS에서 제공하는 객체 스토리지 서비스로, 인터넷을 통해 어디서든 원하는 양의 데이터를 저장하고 검색할 수 있도록 설계되었습니다. 파일 기반의 스토리지와 달리 데이터를 객체 단위로 저장하며, 각 객체는 데이터 본문(파일), 메타데이터, 그리고 고유한 키(Key)로 구성됩니다. 저장 공간의 기본 단위는 버킷(Bucket)입니다. 특정 비즈니스, 조직 및 규정 준수 요구 사항에 맞게 데이터에 대한 액세스를 최적화, 구조화 및 구성할 수 있는 관리 기능을 제공합니다.
  • AWS Lambda : 서버를 직접 프로비저닝하거나 관리하지 않고도 코드를 실행할 수 있는 서버리스 컴퓨팅 서비스입니다. 핵심 개념은 이벤트 기반 실행으로, 이벤트 발생 시 코드를 실행합니다. 실행 시간은 최대 15분이며, 실행된 시간과 호출 횟수 기준으로 과금됩니다.

3. 선택지 분석하기

A. S3 API 호출을 기록하도록 AWS CloudTrail 추적을 구성합니다. AWS AppSync를 사용하여 파일을 처리합니다.

→ CloudTrail은 감사 로그용이고 AppSync는 API 서비스로 파일 처리 목적에 부적합합니다.

 

B. 파일을 처리하기 위해 AWS Lambda 함수를 호출하도록 S3 버킷 내에서 객체 생성 이벤트 알림을 구성합니다.

→ S3 업로드 시 Lambda를 직접 호출하여 즉시 처리 가능하고 비용도 효율적입니다.

 

C. 데이터를 처리하고 Amazon S3로 전송하도록 Amazon Kinesis Data Streams를 구성합니다. AWS Lambda 함수를 호출하여 파일을 처리합니다.

→ Amazon Kinesis Data Streams 서비스는 스트리밍 데이터 처리용 서비스로 단순 파일 업로드 처리에는 과도합니다.

 

D. Amazon S3에 업로드된 파일을 처리하도록 Amazon Simple 알림 서비스(Amazon SNS) 주제를 구성합니다. AWS Lambda 함수를 호출하여 파일을 처리합니다.

→ SNS를 거치는 불필요한 단계가 추가되어 아키텍처와 비용이 증가합니다.


 

이어서 다음 문제입니다.


문제2

한 회사에 전 세계 학생들에게 주문형 교육 비디오를 제공하는 애플리케이션이 있습니다. 또한 이 애플리케이션을 사용하면 승인된 콘텐츠 개발자가 비디오를 업로드할 수 있습니다. 데이터는 us-east-2 리전의 Amazon S3 버킷에 저장됩니다.

회사는 eu-west-2 리전에 S3 버킷을, ap-southeast-1 리전에 S3 버킷을 생성했습니다. 회사는 데이터를 새로운 S3 버킷에 복제하려고 합니다. 회사는 eu-west-2 및 ap-southeast-1 근처에서 비디오를 업로드하는 개발자와 비디오를 스트리밍하는 학생의 대기 시간을 최소화해야 합니다.

애플리케이션을 가장 적게 변경하여 이러한 요구 사항을 충족하는 단계 조합은 무엇입니까? (2개를 선택하세요.)

 

선택지

A. us-east-2 S3 버킷에서 eu-west-2 S3 버킷으로 단방향 복제를 구성합니다. us-east-2 S3 버킷에서 ap-southeast-1 S3 버킷으로의 단방향 복제를 구성합니다.

B. us-east-2 S3 버킷에서 eu-west-2 S3 버킷으로 단방향 복제를 구성합니다. eu-west-2 S3 버킷에서 ap-southeast-1 S3 버킷으로의 단방향 복제를 구성합니다.

C. 세 지역 모두에 있는 S3 버킷 간에 양방향(양방향) 복제를 구성합니다.

D. S3 다중 지역 액세스 포인트를 생성합니다. 비디오 스트리밍을 위해 다중 지역 액세스 포인트의 Amazon 리소스 이름(ARN)을 사용하도록 애플리케이션을 수정합니다. 비디오 업로드용 애플리케이션을 수정하지 마십시오.

E. S3 다중 지역 액세스 포인트를 생성합니다. 비디오 스트리밍 및 업로드를 위해 다중 지역 액세스 포인트의 Amazon 리소스 이름(ARN)을 사용하도록 애플리케이션을 수정합니다.


풀이

이 문제는 전 세계 사용자에게 비디오 업로드와 스트리밍을 제공하면서, eu-west-2와 ap-southeast-1 근처 사용자들의 지연 시간을 최소화하고 애플리케이션 변경을 최소로 하는 것이 핵심입니다. S3 다중 리전 액세스 포인트를 사용하면 업로드와 스트리밍 경로를 하나로 통합할 수 있습니다. 단방향 복제 구성은 업로드 지연을 줄이지 못하거나 특정 리전에 의존하게 되고, 스트리밍만 다중 리전 액세스 포인트로 처리하는 경우 업로드 지연 문제를 해결하지 못합니다.

 

정답 : C, E

 

▼ 자세한 문제 풀이를 원하신 분은 아래 더보기를 통해 확인해 주세요.

더보기

1.  문제의 요구사항 분석하기

  • eu-west-2 및 ap-southeast-1 근처에서 업로드와 스트리밍 지연 최소화
  • us-east-2의 기존 데이터를 eu-west-2, ap-southeast-1 버킷으로 복제
  • 애플리케이션 변경은 최소화하면서 글로벌 접근을 단순화

2. 관련 AWS 서비스 생각하기

  • Amazon S3 : AWS에서 제공하는 객체 스토리지 서비스로, 인터넷을 통해 어디서든 원하는 양의 데이터를 저장하고 검색할 수 있도록 설계되었습니다. 파일 기반의 스토리지와 달리 데이터를 객체 단위로 저장하며, 각 객체는 데이터 본문(파일), 메타데이터, 그리고 고유한 키(Key)로 구성됩니다. 저장 공간의 기본 단위는 버킷(Bucket)입니다. 특정 비즈니스, 조직 및 규정 준수 요구 사항에 맞게 데이터에 대한 액세스를 최적화, 구조화 및 구성할 수 있는 관리 기능을 제공합니다.
    • Amazon S3 교차 리전 복제(CRR) : S3 버킷 간 객체를 자동으로 복제하는 기능으로, 하나의 복제 규칙은 단일 소스에서 단일 대상로의 단방향 복제만 지원합니다. 여러 리전 또는 양방향 복제를 위해서는 복제 규칙을 여러 개 구성해야 합니다.
    • Amazon S3 다중 리전 액세스 포인트(MRAP) : 여러 리전의 S3 버킷을 하나의 글로벌 엔드포인트로 묶어 단일 엔드포인트로 접근할 수 있게 하는 서비스입니다. 요청은 가장 가까운 리전의 버킷으로 자동 라우팅됩니다.

3. 선택지 분석하기

A. us-east-2 S3 버킷에서 eu-west-2 S3 버킷으로 단방향 복제를 구성합니다. us-east-2 S3 버킷에서 ap-southeast-1 S3 버킷으로의 단방향 복제를 구성합니다.

→ 데이터 복제는 가능하지만 업로드가 모두 us-east-2로 집중되어 원거리 개발자 지연을 줄이지 못합니다.

 

B. us-east-2 S3 버킷에서 eu-west-2 S3 버킷으로 단방향 복제를 구성합니다. eu-west-2 S3 버킷에서 ap-southeast-1 S3 버킷으로의 단방향 복제를 구성합니다.

→ ap-southeast-1 버킷은 간접 복제만 받아 지연 증가와 데이터 일관성 문제가 발생할 수 있습니다.

 

C. 세 지역 모두에 있는 S3 버킷 간에 양방향(양방향) 복제를 구성합니다.

→ 어느 리전에서 업로드해도 모든 버킷에 복제되어 글로벌 스트리밍에 유리한 구조입니다.

 

D. S3 다중 지역 액세스 포인트를 생성합니다. 비디오 스트리밍을 위해 다중 지역 액세스 포인트의 Amazon 리소스 이름(ARN)을 사용하도록 애플리케이션을 수정합니다. 비디오 업로드용 애플리케이션을 수정하지 마십시오.

→ 스트리밍 지연은 줄지만 업로드는 여전히 원격 리전으로 전송되어 개발자 지연 문제가 남습니다.

 

E. S3 다중 지역 액세스 포인트를 생성합니다. 비디오 스트리밍 및 업로드를 위해 다중 지역 액세스 포인트의 Amazon 리소스 이름(ARN)을 사용하도록 애플리케이션을 수정합니다.

→ 업로드와 스트리밍 모두 가장 가까운 버킷으로 처리되어 지연을 최소화합니다.


 

마지막 문제 살펴보겠습니다.


문제3

한 회사는 최근 해양 조사에서 얻은 200TB의 데이터를 AWS Snowball Edge Storage Optimized 디바이스에 복사합니다. 이 회사는 석유 및 가스 매장지를 찾기 위해 AWS에 호스팅 되는 고성능 컴퓨팅(HPC) 클러스터를 보유하고 있습니다. 솔루션 아키텍트는 Snowball Edge Storage Optimized 디바이스의 데이터에 대한 일관된 밀리초 미만의 지연 시간과 높은 처리량 액세스를 클러스터에 제공해야 합니다.

회사는 디바이스를 AWS로 다시 보내고 있습니다. 어떤 솔루션이 이러한 요구 사항을 충족합니까?

 

선택지

A. Amazon S3 버킷을 생성합니다. 데이터를 S3 버킷으로 가져옵니다. S3 버킷을 사용하도록 AWS Storage Gateway 파일 게이트웨이를 구성합니다. HPC 클러스터 인스턴스에서 파일 게이트웨이에 액세스합니다.

B. Amazon S3 버킷을 생성합니다. 데이터를 S3 버킷으로 가져옵니다. Lustre 파일 시스템용 Amazon FSx를 구성하고 이를 S3 버킷과 통합합니다. HPC 클러스터 인스턴스에서 FSx for Lustre 파일 시스템에 액세스합니다.

C. Amazon S3 버킷과 Amazon Elastic File System(Amazon EFS) 파일 시스템을 생성합니다. 데이터를 S3 버킷으로 가져옵니다. S3 버킷의 데이터를 EFS 파일 시스템에 복사합니다. HPC 클러스터 인스턴스에서 EFS 파일 시스템에 액세스합니다.

D. Lustre 파일 시스템용 Amazon FSx를 생성합니다. 데이터를 FSx for Lustre 파일 시스템으로 직접 가져옵니다. HPC 클러스터 인스턴스에서 FSx for Lustre 파일 시스템에 액세스합니다.


풀이

이 문제는 Snowball Edge로 수집한 200TB 대용량 데이터를 AWS로 반입한 뒤, HPC 클러스터가 해당 데이터에 일관된 밀리초 미만 지연 시간과 높은 처리량으로 접근할 수 있도록 하는 것이 핵심입니다. Amazon FSx for Lustre는 초저지연 및 고처리량 POSIX 파일 접근을 제공하고, Storage Gateway는 캐시 기반으로 지연 시간이 일관되지 않습니다.

 

정답 : B

 

▼ 자세한 문제 풀이를 원하신 분은 아래 더보기를 통해 확인해 주세요.

더보기

1.  문제의 요구사항 분석하기

  • 200TB 대용량 데이터를 Snowball Edge에서 AWS로 반입
  • HPC 클러스터에 일관된 밀리초 미만 지연 시간 제공 필요
  • 대규모 연산 작업을 위해 높은 처리량과 병렬 파일 접근을 지원

2. 관련 AWS 서비스 생각하기

  • Amazon FSx for Lustre : 고성능 컴퓨팅(HPC), 머신러닝, 빅데이터 분석 등 극도로 높은 I/O 성능을 요구하는 워크로드를 위해 설계된 완전 관리형 병렬 파일 시스템 서비스입니다. 기존의 복잡한 Lustre 파일 시스템 설정 및 관리 방식을 없애고, 검증된 고성능 파일 시스템을 단 몇 분 만에 구축하고 실행할 수 있도록 지원합니다.
  • Amazon Elastic File System(Amazon EFS) : AWS 클라우드 및 온프레미스 환경에서 사용할 수 있는 완전 관리형 NFS(Network File System) 기반 파일 스토리지 서비스입니다. 간단한 웹 서비스 인터페이스가 있으므로 파일 시스템을 빠르고 쉽게 생성하고 구성할 수 있습니다.
  • AWS Storage Gateway File Gateway : 온프레미스 데이터센터와 AWS 클라우드 스토리지를 연결하는 하이브리드 스토리지 서비스로, 그 중 File Gateway는 온프레미스 애플리케이션이 NFS 또는 SMB 프로토콜을 통해 Amazon S3에 파일을 저장하고 읽을 수 있도록 해주는 게이트웨이입니다. 로컬 캐시가 자동으로 사용되어 데이터에 액세스할 때 지연 시간이 짧습니다.

3. 선택지 분석하기

A. Amazon S3 버킷을 생성합니다. 데이터를 S3 버킷으로 가져옵니다. S3 버킷을 사용하도록 AWS Storage Gateway 파일 게이트웨이를 구성합니다. HPC 클러스터 인스턴스에서 파일 게이트웨이에 액세스합니다.

→ Storage Gateway File Gateway는 HPC가 요구하는 일관된 밀리초 미만 지연 시간과 고처리량을 보장하기 어렵습니다.

 

B. Amazon S3 버킷을 생성합니다. 데이터를 S3 버킷으로 가져옵니다. Lustre 파일 시스템용 Amazon FSx를 구성하고 이를 S3 버킷과 통합합니다. HPC 클러스터 인스턴스에서 FSx for Lustre 파일 시스템에 액세스합니다.

→ FSx for Lustre는 S3와 통합되어 Snowball 반입 데이터 접근에 가장 적합합니다.

 

C. Amazon S3 버킷과 Amazon Elastic File System(Amazon EFS) 파일 시스템을 생성합니다. 데이터를 S3 버킷으로 가져옵니다. S3 버킷의 데이터를 EFS 파일 시스템에 복사합니다. HPC 클러스터 인스턴스에서 EFS 파일 시스템에 액세스합니다.

→ EFS는 범용 파일 공유 서비스로 사용은 가능하지만, HPC 병렬 워크로드에 필요한 처리량과 지연 시간 요구를 충족하기 어렵습니다.

 

D. Lustre 파일 시스템용 Amazon FSx를 생성합니다. 데이터를 FSx for Lustre 파일 시스템으로 직접 가져옵니다. HPC 클러스터 인스턴스에서 FSx for Lustre 파일 시스템에 액세스합니다.

→ Snowball Edge 반입 데이터는 일반적으로 S3로 가져오며, FSx로 직접 데이터 반입은 표준적인 데이터 흐름과 맞지 않습니다.


 

S3와 관련된 내용이 많습니다. 그만큼 범용적으로 자주 사용되고, 클라우드 아키텍처 설계에 핵심 서비스이기 때문이죠.

비용도 저렴하고 사용하는 방법도 많은 S3 아키텍처에 대해서 살펴본 하루입니다.

이 내용이 많은 도움이 되셨길 바랍니다. 저희는 금요일에 뵙겠습니다! 

'AWS > SAA 준비' 카테고리의 다른 글

AWS SAA 합격으로 가는 길 #167  (0) 2026.03.23
AWS SAA 합격으로 가는 길 #166  (0) 2026.03.20
AWS SAA 합격으로 가는 길 #164  (0) 2026.03.13
AWS SAA 합격으로 가는 길 #163  (0) 2026.03.09
AWS SAA 합격으로 가는 길 #162  (0) 2026.03.06