본문 바로가기
AWS/SAA 준비

AWS SAA 합격으로 가는 길 #134

by Pacloud 2025. 11. 17.
반응형

안녕하세요! 넥스트클라우드의 SA 백종훈입니다. ☺️😊

문제는 세 가지 단계를 거치며 풀어 나갈 거예요.

 

문제는  가지 단계를 거치며 풀어 나갈 거예요.

1. 문제의 요구사항 분석하기

2. 관련 AWS 서비스 생각하기

3. 선택지 분석하기

 

바로 문제 풀이 해볼까요?


문제1

회사에는 AWS에서 실행되는 인기 있는 게임 플랫폼이 있습니다. 대기 시간은 사용자 경험에 영향을 미치고 일부 플레이어에게 부당한 이점을 제공할 수 있기 때문에 애플리케이션은 대기 시 간에 민감합니다. 애플리케이션은 모든 AWS 리전에 배포됩니다. Application Load Balancer(ALB) 뒤에 구성된 Auto Scaling 그룹의 일부인 Amazon EC2 인스턴스에서 실행됩니 다. 솔루션 설계자는 애플리케이션의 상태를 모니터링하고 트래픽을 정상 엔드포인트로 리디렉션하는 메커니즘을 구현해야 합니다. 어떤 솔루션이 이러한 요구 사항을 충족합니까?

 

 

선택지

A. AWS Global Accelerator에서 액셀러레이터를 구성합니다. 애플리케이션이 청취하는 포트에 대한 리스너를 추가하고 각 리전의 리전 엔드포인트에 연결합니다. ALB를 엔드포인트로 추가하십시오.

B. Amazon CloudFront 배포를 생성하고 ALB를 원본 서버로 지정합니다. 원본 캐시 헤더를 사용하도록 캐시 동작을 구성합니다. AWS Lambda 함수를 사용하여 트래픽을 최적화하십 시오.

C. Amazon CloudFront 배포를 생성하고 Amazon S3를 원본 서버로 지정합니다. 원본 캐시 헤더를 사용하도록 캐시 동작을 구성합니다. AWS Lambda 함수를 사용하여 트래픽을 최 적화하십시오.

D. 애플리케이션의 데이터 저장소 역할을 하도록 Amazon DynamoDB 데이터베이스를 구성합니다. 애플리케이션 데이터를 호스팅하는 DynamoDB의 인 메모리 캐시 역할을 할 DynamoDB Accelerator(DAX) 클러스터를 생성합니다.


풀이

Amazon Route 53은 AWS에서 제공하는 DNS 웹 서비스입니다. Global Accelerator는 Route 53 DNS와 통합되어 애플리케이션의 가용성과 성능을 향상시키는 서비스입니다. 애플리케이션 엔드포인트의 상태를 지속적으로 모니터링하고 문제가 있는 엔드포인트의 트래픽을 정상 엔드포인트로 자동 리디렉션합니다. 또한 전 세계 AWS 리전에 배포된 애플리케이션에 대해 정적 IP 주소를 제공하고, 인텔리전트 DNS 라우팅을 통해 가까운 엔드포인트로 트래픽을 라우팅합니다.

 

정답 :  A

 

▼ 자세한 문제 풀이를 원하신 분은 아래 더보기를 통해 확인해 주세요.

더보기

1.  문제의 요구사항 분석하기

    • 애플리케이션의 대기 시간 최소화 
    • 모든 AWS 리전에 배포된 애플리케이션 
    • 상태 모니터링 및 정상 엔드포인트로 트래픽 리디렉션 필요

2. 관련 AWS 서비스 생각하기

  • AWS Global Accelerator는 애플리케이션의 가용성과 성능을 높이기 위해 고안된 서비스입니다. 애플리케이션 엔드포인트의 상태를 지속적으로 모니터링하고 문제가 있는 엔드포인트의 트래픽을 정상 엔드포인트로 자동 리디렉션합니다. 전 세계 AWS 리전에 배포된 애플리케이션에 대해 정적 IP 주소를 제공하고, 인텔리전트 DNS 라우팅을 통해 가까운 엔드포인트로 트래픽을 라우팅합니다. 이를 통해 애플리케이션의 가용성과 성능을 높일 수 있습니다.

3. 선택지 분석하기

B, C는 CloudFront를 언급하지만 CloudFront는 콘텐츠 전송 네트워크이므로 이 문제에 적합하지 않습니다. D는 DynamoDB와 DAX를 사용하는 옵션으로 애플리케이션의 데이터 저장소에 관련된 내용이므로 문제와 관련이 없습니다.

 

이어서 다음 문제입니다.


문제2

회사는 애플리케이션에 대한 실시간 데이터 수집 아키텍처를 구성해야 합니다. 회사는 API, 데이터가 스트리밍될 때 데이터를 변환하는 프로세스, 데이터를 위한 스토리지 솔루션이 필요합니 다. 최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?

 

선택지

A. Amazon Kinesis 데이터 스트림으로 데이터를 전송하는 API를 호스팅하기 위해 Amazon EC2 인스턴스를 배포합니다. Kinesis 데이터 스트림을 데이터 소스로 사용하는 Amazon Kinesis Data Firehose 전송 스트림을 생성합니다. AWS Lambda 함수를 사용하여 데이터를 변환합니다. Kinesis Data Firehose 전송 스트림을 사용하여 데이터를 Amazon S3로 보냅니다.

B. AWS Glue로 데이터를 전송하는 API를 호스팅하기 위해 Amazon EC2 인스턴스를 배포합니다. EC2 인스턴스에서 소스/대상 확인을 중지합니다. AWS Glue를 사용하여 데이터를 변환하고 데이터를 Amazon S3로 보냅니다.

C. Amazon Kinesis 데이터 스트림으로 데이터를 전송하도록 Amazon API Gateway API를 구성합니다. Kinesis 데이터 스트림을 데이터 소스로 사용하는 Amazon Kinesis Data Firehose 전송 스트림을 생성합니다. AWS Lambda 함수를 사용하여 데이터를 변환합니다. Kinesis Data Firehose 전송 스트림을 사용하여 데이터를 Amazon S3로 보냅니다.

D. AWS Glue로 데이터를 전송하도록 Amazon API Gateway API를 구성합니다. AWS Lambda 함수를 사용하여 데이터를 변환합니다. AWS Glue를 사용하여 데이터를 Amazon S3로 보냅니다.


풀이

이 문제는 실시간 데이터 수집 및 처리를 위한 아키텍처를 구축해야 합니다. Amazon API Gateway를 통해 Kinesis Data Streams로 데이터를 전송할 수 있습니다. Kinesis Data Firehose를 사용하면 Kinesis Data Streams에서 데이터를 추출하여 변환한 후 S3 등의 데이터 스토리지로 저장할 수 있습니다. AWS Lambda를 활용하면 서버리스 아키텍처로 데이터 변환 작업을 쉽게 구현할 수 있습니다.

 

정답 :  C

 

▼ 자세한 문제 풀이를 원하신 분은 아래 더보기를 통해 확인해 주세요.

더보기

1.  문제의 요구사항 분석하기

  • 실시간 데이터 수집을 위한 API 필요 
  • 데이터 변환 프로세스 필요 
  • 데이터 스토리지 솔루션 필요 
  • 최소한의 운영 오버헤드

2. 관련 AWS 서비스 생각하기

  • Amazon Kinesis Data Streams는 실시간으로 대량의 데이터를 지속적으로 수집할 수 있는 서비스입니다. API Gateway를 통해 Kinesis Data Streams로 데이터를 전송할 수 있습니다. Kinesis Data Firehose를 사용하면 Kinesis Data Streams에서 데이터를 추출하여 AWS Lambda 함수를 통해 변환한 후 S3 등의 데이터 스토리지로 저장할 수 있습니다. AWS Lambda는 서버리스 아키텍처로 데이터 변환 작업을 쉽게 구현할 수 있게 해줍니다. 이러한 방식으로 실시간 데이터 수집, 변환, 저장을 위한 아키텍처를 구축할 수 있으며 완전 관리형 서비스를 사용하므로 운영 오버헤드가 최소화됩니다.

3. 선택지 분석하기

A, B는 EC2 인스턴스를 사용하므로 운영 오버헤드가 발생합니다. D는 AWS Glue를 사용하는 옵션으로 이 서비스는 주로 ETL 작업에 특화되어 있어 실시간 데이터 처리에는 적절하지 않습니다.

 

마지막 문제 살펴볼게요.


문제3

회사는 온프레미스 위치에서 Amazon S3 버킷으로 100GB의 기록 데이터를 마이그레이션하려고 합니다. 이 회사는 온프레미스에 100Mbps 인터넷 연결을 갖추고 있습니다. 회사는 S3 버킷으로 전송되는 데이터를 암호화해야 합니다. 회사는 새로운 데이터를 Amazon S3에 직접 저장합니다. 최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?

 

선택지

A. AWS CLI에서 s3 sync 명령을 사용하여 데이터를 S3 버킷으로 직접 이동합니다.

B. AWS DataSync를 사용하여 온프레미스 위치에서 S3 버킷으로 데이터 마이그레이션

C. AWS Snowball을 사용하여 데이터를 S3 버킷으로 이동합니다.

D. 온프레미스 위치에서 AWS로 IPsec VPN을 설정합니다. AWS CLI에서 s3 cp 명령을 사용하여 데이터를 S3 버킷으로 직접 이동합니다.


풀이

이 문제에서는 100GB의 기록 데이터를 온프레미스에서 S3 버킷으로 마이그레이션해야 합니다. AWS DataSync를 사용하면 최소한의 운영 오버헤드로 대용량 데이터를 온프레미스 스토리지와 AWS 스토리지 간에 전송할 수 있습니다. DataSync는 전송 속도가 빠르고 전송 중 데이터를 자동으로 암호화하며 전송 상태를 모니터링할 수 있습니다. 또한 중단된 전송을 다시 시작할 수 있습니다.

 

정답 : B

 

▼ 자세한 문제 풀이를 원하신 분은 아래 더보기를 통해 확인해 주세요.

더보기

1.  문제의 요구사항 분석하기

  • 온프레미스에서 S3 버킷으로 100GB 데이터 마이그레이션 
  • 인터넷 연결 속도 100Mbps
  • 전송 중 데이터 암호화 필요 
  • 최소한의 운영 오버헤드

2. 관련 AWS 서비스 생각하기

  • AWS DataSync는 온프레미스 스토리지와 AWS 스토리지 간에 데이터를 전송하기 위한 서비스입니다. 전송 속도가 빠르고 전송 중 자동 암호화를 지원하며 전송 상태를 모니터링할 수 있습니다. 중단된 전송을 다시 시작할 수 있어 안정적인 데이터 전송이 가능합니다. 완전 관리형 서비스로 운영 오버헤드가 최소화됩니다. AWS Snowball은 엑사바이트 규모의 대용량 데이터 전송에 적합한 물리적 디바이스입니다. AWS CLI를 통해 직접 데이터를 전송하거나 IPsec VPN을 설정하는 방식은 운영 오버헤드가 상대적으로 큽니다.

3. 선택지 분석하기

A, D는 CLI를 사용하거나 VPN을 설정해야 하므로 운영 오버헤드가 큽니다. C는 Snowball을 사용하는 옵션으로 데이터 양이 100GB 정도로 작아 적절하지 않습니다.

 

감사합니다. 다음 글에서 만나요!! 😁

'AWS > SAA 준비' 카테고리의 다른 글

AWS SAA 합격으로 가는 길 #133  (0) 2025.11.14
AWS SAA 합격으로 가는 길 #132  (0) 2025.11.10
AWS SAA 합격으로 가는 길 #131  (0) 2025.11.07
AWS SAA 합격으로 가는 길 #130  (0) 2025.11.03
AWS SAA 합격으로 가는 길 #129  (0) 2025.10.31