AWS

AWS SAA-C02 Q91- Q100

두뚜 2021. 9. 12. 01:28

Q91. A solutions architect needs to design a network that will allow multiple Amazon EC2 instances

to access a common data source used for mission-critical data that can be accessed by all the EC2

instances simultaneously. The solution must be highly scalable, easy to implement, and support the

NFS protocol Which solution meets these requirements?

솔루션 설계자는 여러 Amazon EC2 인스턴스를 허용할 네트워크를 설계해야 합니다.

모든 EC2에서 액세스할 수 있는 미션 크리티컬 데이터에 사용되는 공통 데이터 소스에 액세스

인스턴스를 동시에. 솔루션은 확장성이 뛰어나고 구현하기 쉽고 지원해야 합니다.

NFS 프로토콜 어떤 솔루션이 이러한 요구 사항을 충족합니까?

 

A. Create an Amazon EFS file system Configure a mount target in each Availability Zone. Attach each

instance to the appropriate mount target

Amazon EFS 파일 시스템 생성 각 가용 영역에 탑재 대상을 구성합니다. 각각 첨부

적절한 마운트 대상에 대한 인스턴스

 

Amazon Elastic File System (Amazon EFS) 은 서버를 사용하지 않고 설정하고 잊어 버리는 탄력적 파일 시스템을 제공합니다. AWS 클라우드 서비스와 온프레미스 리소스의 이점을 제공합니다. 애플리케이션을 중단하지 않고 온디맨드 방식으로 페타바이트 규모까지 확장되도록 구축되어, 사용자가 파일을 추가하고 제거할 때 자동으로 확장/축소되므로 데이터 증가에 맞춰 용량을 프로비저닝 및 관리할 필요가 없습니다. Amazon EFS 는 파일 시스템을 빠르고 쉽게 만들고 구성할 수 있는 간편한 웹 서비스 인터페이스를 제공합니다. 이 서비스에서 모든 파일 스토리지 인프라를 관리해 주므로 사용자는 복잡한 파일 시스템 구성을 배포, 패치 및 유지 보수하는데 따르는 복잡성에서 벗어날 수 있습니다.

Amazon EFS 는 네트워크 파일 시스템 버전 4 (NFSv4.1 및 NFSv4.0) 프로토콜을 지원하므로 현재 사용하는 애플리케이션과 도구는 Amazon EFS 에서 원활하게 작동합니다. 여러 컴퓨팅 인스턴스 (예: Amazon EC2, Amazon ECS 및AWS Lambda는 Amazon EFS 파일 시스템에 동시에 액세스할 수 있으며 따라서 두 개 이상의 컴퓨팅 인스턴스 또는 서버에서 실행하는 워크로드와 애플리케이션에 대해 범용 데이터 원본을 제공할 수 있습니다.

Amazon EFS 를 사용하면 해당 파일 시스템에서 사용한 스토리지에 대해서만 요금을 지불하면 되고 최소 요금이나 설정 비용은 없습니다. Amazon EFS 는 여러 사용 사례에 맞춰 설계된 다양한 스토리지 클래스를 제공합니다. 다음이 포함됩니다.

  • 표준 스토리지 클래스— EFS 표준 및 EFS 표준—자주 사용하지 않는 액세스 (표준—IA). 다중 AZ 복원력과 최고 수준의 내구성과 가용성을 제공합니다.
  • 단일 영역 스토리지 클래스— EFS 원 영역 및 EFS 원 영역 — 자주 액세스하지 않는 (EFS 원 영역 — IA). 단일 AZ'에 데이터를 저장하도록 선택하여 추가 비용 절감 효과를 선택할 수 있습니다.

 

 

 


 

Q92. A company wants lo build an immutable infrastructure for its software applications The

company wants to test the software applications before sending traffic to them The company seeks

an efficient solution that limits the effects of application bugs Which combination of steps should a

solutions architect recommend? {Select TWO)

회사는 소프트웨어 애플리케이션을 위한 불변의 인프라를 구축하기를 원합니다.

회사는 트래픽을 보내기 전에 소프트웨어 응용 프로그램을 테스트하려고 합니다.

애플리케이션 버그의 영향을 제한하는 효율적인 솔루션

솔루션 아키텍트 추천? {2개 선택)

 

 

A1. Use AWS Cloud Formation to update the production infrastructure and roll back the stack if the

A2. Apply Amazon Route 53 weighted routing to test the staging environment and gradually increase

the traffic as the tests pass

AWS Cloud Formation을 사용하여 프로덕션 인프라를 업데이트하고 스택을 롤백하는 경우 업데이트 실패

 Amazon Route 53 가중 라우팅을 적용하여 스테이징 환경을 테스트하고 점진적으로 증가

테스트 통과에 따른 트래픽

 

AWS CloudFormation은 Amazon Web Services 리소스를 모델링하고 설정하여 리소스 관리 시간을 줄이고 AWS에서 실행되는 애플리케이션에 더 많은 시간을 사용하도록 해 주는 서비스입니다. 필요한 모든 AWS 리소스(예: Amazon EC2 인스턴스 또는 Amazon RDS DB 인스턴스)를 설명하는 템플릿을 생성하면 AWS CloudFormation이 해당 리소스의 프로비저닝과 구성을 담당합니다. AWS 리소스를 개별적으로 생성하고 구성할 필요가 없으며 어떤 것이 무엇에 의존하는지 파악할 필요도 없습니다. AWS CloudFormation에서 모든 것을 처리합니다. 다음 시나리오는 AWS CloudFormation이 얼마나 유용한지를 보여줍니다.

 

현재 레코드를 사용하여 Route 53이 응답할 DNS 쿼리의 비율을 결정하는 값입니다. Route 53은 DNS 이름과 유형 조합이 동일한 레코드의 가중치 합을 계산합니다. 이후 Route 53은 총계에 대한 리소스 가중치 비율을 토대로 질의에 응답합니다.

값이 같은 비-가중 레코드를 생성할 수 없습니다.레코드 이름레코드 형식을 가중치 기반 레코드로 사용합니다.

0~255 사이의 정수를 입력합니다. 리소스 라우팅을 해제하려면 Weight(가중치)를 0으로 설정합니다. 그룹 내 모든 레코드의 Weight(가중치)를 0으로 설정하면 확률이 동일한 모든 리소스로 트래픽이 라우팅됩니다. 따라서 가중 레코드 그룹에 대한 라우팅이 우발적으로 해제되는 일이 없습니다.

Weight(가중치)를 0으로 설정할 때의 효과는 상태 확인을 레코드와 연관시킬 때와 다릅니다

 


 

Q93. A solutions architect is designing the architecture for a new web application. The application

will run on AWS Fargate containers with an Application Load Balancer (ALB) and an Amazon Aurora

PostgreSQL database. The web application will perform primarily read queries against the database.

What should the solutions architect do to ensure that the website can scale with increasing traffic?

(Select TWO.)

솔루션 아키텍트가 새로운 웹 애플리케이션을 위한 아키텍처를 설계하고 있습니다. 신청

ALB(Application Load Balancer) 및 Amazon Aurora가 있는 AWS Fargate 컨테이너에서 실행됩니다.

PostgreSQL 데이터베이스. 웹 애플리케이션은 주로 데이터베이스에 대해 읽기 쿼리를 수행합니다.

트래픽 증가에 따라 웹 사이트를 확장할 수 있도록 솔루션 설계자는 무엇을 해야 합니까?

 

A1. Enable auto scaling on the ALB to scale the load balancer horizontally.

A2. Configure Aurora Auto Scaling to adjust the number of Aurora Replicas in the Aurora cluster

dynamically.

ALB에서 Auto Scaling을 활성화하여 로드 밸런서를 수평으로 확장합니다.

Aurora 클러스터의 Aurora 복제본 수를 조정하도록 Aurora Auto Scaling 구성

동적으로

 

Application Load Balancer는 개방형 시스템 간 상호 연결(OSI) 모델의 일곱 번째 계층인 애플리케이션 계층에서 작동합니다. 로드 밸런서는 요청을 받으면 우선 순위에 따라 리스너 규칙을 평가하여 적용할 규칙을 결정한 다음, 규칙 작업의 대상 그룹에서 대상을 선택합니다. 애플리케이션 트래픽의 콘텐츠를 기반으로 다른 대상 그룹에 요청을 라우팅하도록 리스너 규칙을 구성할 수 있습니다. 대상이 여러 개의 대상 그룹에 등록이 된 경우에도 각 대상 그룹에 대해 독립적으로 라우팅이 수행됩니다. 대상 그룹 레벨에서 사용되는 라우팅 알고리즘을 구성할 수 있습니다. 기본 라우팅 알고리즘은 라운드 로빈입니다. 그 대신 최소 미해결 요청 라우팅 알고리즘을 지정할 수 있습니다.

애플리케이션에 대한 요청의 전체적인 흐름을 방해하지 않고 필요에 따라 로드 밸런서에서 대상을 추가 및 제거할 수 있습니다. 애플리케이션에 대한 트래픽이 시간에 따라 변화하므로 Elastic Load Balancing은 로드 밸런서를 확장합니다. Elastic Load Balancing은 대다수의 워크로드에 맞게 자동으로 조정할 수 있습니다.

로드 밸런서가 정상적인 대상에만 요청을 보낼 수 있도록 등록된 대상의 상태를 모니터링하는 데 사용되는 상태 확인을 구성할 수 있습니다.

각 대상 그룹은 지정한 프로토콜과 포트 번호를 사용하여 EC2 인스턴스 같은 하나 이상의 등록된 대상으로 요청을 라우팅합니다. 여러 대상 그룹에 대상을 등록할 수 있습니다. 대상 그룹 기준으로 상태 확인을 구성할 수 있습니다. 로드 밸런서의 리스너 규칙에서 지정한 대상 그룹에 등록된 모든 대상에서 상태 검사가 수행됩니다.

 

연결 및 워크로드 요구 사항을 충족하기 위해 Aurora Auto Scaling은 단일 마스터 복제를 사용해 Aurora DB 클러스터에 대해 프로비저닝된 Aurora 복제본 수를 동적으로 조정합니다. Aurora Auto Scaling은 Aurora MySQL 및 Aurora PostgreSQL에 모두 사용 가능합니다. Aurora Auto Scaling은 Aurora DB 클러스터를 활성화하여 연결 또는 워크로드의 갑작스러운 증가를 처리합니다. 연결 또는 워크로드가 감소하면 사용하지 않는 프로비저닝된 DB 인스턴스에 대해 요금을 지불하지 않도록 Aurora Auto Scaling이 불필요한 Aurora 복제본을 제거합니다.

고객은 조정 정책을 정의하고 Aurora DB 클러스터에 적용합니다. 조정 정책은 Aurora Auto Scaling에서 관리할 수 있는 최소 및 최대 Aurora 복제본 수를 정의합니다. 정책을 기반으로 Amazon CloudWatch 지표와 대상 값을 사용하여 결정된 실제 워크로드에 따라 Aurora Auto Scaling이 Aurora 복제본 수를 늘리거나 줄여 조정합니다.

AWS Management Console을 사용하여 미리 정의된 지표를 기반으로 조정 정책을 적용할 수 있습니다. 또는 미리 정의된 지표나 사용자 지정 지표를 기반으로 AWS CLI 또는 Aurora Auto Scaling API를 사용하여 크기 조정 정책을 적용할 수도 있습니다.

 

 


 

Q94. A company is migrating Us applications to AWS Currently applications that run on premises

generate hundreds of terabytes of data that is stored on a shared file system The company Is running

an analytics application in the cloud that runs hourly to generate Insights from this data The company

needs a solution to handle the ongoing data transfer between the on-premises shared file system

and Amazon S3 The solution also must be able to handle occasional interruptions m internet

connectivity Which solution should the company use for the data transfer to meet these

requirements?

회사에서 AWS 애플리케이션을 AWS로 마이그레이션 중입니다. 현재 온프레미스에서 실행되는 애플리케이션

공유 파일 시스템에 저장되는 수백 테라바이트의 데이터 생성

이 데이터로부터 Insights를 생성하기 위해 매시간 실행되는 클라우드의 분석 애플리케이션

온프레미스 공유 파일 시스템 간의 지속적인 데이터 전송을 처리하기 위한 솔루션 필요

및 Amazon S3 이 솔루션은 또한 간헐적인 인터넷 중단을 처리할 수 있어야 합니다.

연결성 이러한 요구 사항을 충족하기 위해 데이터 전송에 회사가 사용해야 하는 솔루션

요구 사항?

 

A. AWS DataSync

AWS 데이터싱크

 

AWS DataSync는 온프레미스 스토리지 시스템과 AWS 스토리지 서비스 간 및 AWS 스토리지 서비스 간 및 AWS 스토리지 서비스 간 데이터 이동을 단순화, 자동화 및 가속화하는 온라인 데이터 전송 서비스입니다.

AWS DataSync는 온프레미스 스토리지 시스템과 AWS 스토리지 서비스 간, 그리고 여러 AWS 스토리지 서비스 간의 데이터 이동을 간소화, 자동화 및 가속화하는 온라인 데이터 전송 서비스입니다. DataSync를 사용하여 활성 데이터를 AWS로 마이그레이션하거나, 데이터를 아카이브하여 온프레미스 스토리지 용량을 확보하거나, 비즈니스 연속성을 위해 데이터를 AWS로 복제하거나, 분석 및 처리를 위해 데이터를 클라우드로 전송할 수 있습니다.

많은 양의 데이터를 이동하기 위한 스크립트 작성, 유지 관리, 모니터링 및 문제 해결 과정은 IT 운영에 부담을 주며 이로 인해 마이그레이션 프로젝트의 진행이 느려질 수 있습니다. DataSync는 이러한 작업을 제거하거나 자동으로 처리해 줍니다. DataSync는 전송 중 데이터 암호화, 전송 중 및 저장 중 데이터 무결성 확인과 같은 보안 기능을 기본적으로 제공하며, 네트워크 대역폭 사용을 최적화하고, 네트워크 연결 장애 시 자동으로 복구합니다. 또한 DataSync는 Amazon CloudWatch 지표, 로그 및 이벤트를 통해 데이터 전송 예약과 전송 프로세스에 대한 세부적인 가시성과 같은 제어 및 모니터링 기능을 제공합니다.

 

 


 

Q95. An application running on AWS uses an Amazon Aurora Multi-AZ deployment for its database

When evaluating performance metrics, a solutions architect discovered that the database reads are

causing high I/O and adding latency to the write requests against the database What should the

solutions architect do to separate the read requests from the write requests?

AWS에서 실행되는 애플리케이션은 데이터베이스에 Amazon Aurora 다중 AZ 배포를 사용합니다.

성능 메트릭을 평가할 때 솔루션 설계자는 데이터베이스 읽기가

높은 I/O를 유발하고 데이터베이스에 대한 쓰기 요청에 대기 시간 추가

솔루션 설계자는 쓰기 요청에서 읽기 요청을 분리하기 위해 무엇을 합니까?

 

A. Create a read replica and modify the application to use the appropriate endpoint.

읽기 전용 복제본을 생성하고 적절한 엔드포인트를 사용하도록 애플리케이션을 수정합니다.

 

Amazon RDS는 다중 AZ 배포를 사용해 DB 인스턴스에 고가용성과 장애 조치 기능을 지원합니다. Amazon RDS는 다양한 기술을 이용해 장애 조치 지원을 제공합니다. MariaDB, MySQL, Oracle 및 PostgreSQL DB 인스턴스용 다중 AZ 배포는 Amazon의 장애 조치 기술을 사용합니다. SQL Server DB 인스턴스는 SQL Server 데이터베이스 미러링(DBM) 또는 상시 가동 가용성 그룹(AG)을 사용합니다. 다중 AZ에 대한 SQL Server 버전 지원에 대한 자세한 내용은 Amazon RDS for Microsoft SQL Server의 다중 AZ 배포 섹션을 참조하세요.

다중 AZ 배포에서 Amazon RDS는 자동으로 서로 다른 가용 영역에 동기식 예비 복제본을 프로비저닝하고 유지합니다. 기본 DB 인스턴스는 가용 영역에서 예비 복제본으로 동기식으로 복제되어 데이터 이중화를 제공하고 I/O 중지를 제거하며 시스템 백업 시 지연 시간 스파이크를 최소화합니다. DB 인스턴스를 고가용성으로 실행하면 계획된 시스템 유지 관리 중 가용성을 향상시킬 수 있으며, 데이터베이스에 DB 인스턴스 오류 및 가용 영역 중단이 일어나는 것을 방지할 수 있습니다. 가용 영역에 대한 자세한 정보는 리전, 가용 영역 및 로컬 영역 단원을 참조하십시오.

 

 


Q96. A solution architect at a company is designing the architecture for a two-tiered web

application. The web application is composed of an internet facing application load balancer that

forwards traffic to an auto scaling group of amazon EC2 instances. The EC2 instances must be able to

access a database that runs on Amazon RDS.

The company has requested a defence-in-depth approach to the network layout. The company does

not want to rely solely on security groups or network ACLs. Only the minimum resources that are

necessary should be routable from the internet.

Which network design should the solutions architect recommend to meet these requirements?

한 회사의 솔루션 아키텍트가 2계층 웹을 위한 아키텍처를 설계하고 있습니다.

애플리케이션. 웹 애플리케이션은 인터넷에 연결된 애플리케이션 로드 밸런서로 구성되어 있습니다.

Amazon EC2 인스턴스의 Auto Scaling 그룹으로 트래픽을 전달합니다. EC2 인스턴스는 다음을 수행할 수 있어야 합니다.

Amazon RDS에서 실행되는 데이터베이스에 액세스합니다.

회사는 네트워크 레이아웃에 대한 심층 방어 접근 방식을 요청했습니다. 회사는

보안 그룹이나 네트워크 ACL에만 의존하고 싶지 않습니다. 최소한의 리소스만

필요한 것은 인터넷에서 라우팅할 수 있어야 합니다.

솔루션 설계자는 이러한 요구 사항을 충족하기 위해 어떤 네트워크 설계를 권장해야 합니까

 

A. Place the ALB in public subnets. Place the EC2 instances and RDS database in private subnets

 ALB를 퍼블릭 서브넷에 배치합니다. EC2 인스턴스 및 RDS 데이터베이스를 프라이빗 서브넷에 배치

 


 

Q97. A solutions architect is redesigning a monolithic application to be a loosely coupled

application composed of two microservices: Microservice A and Microservice B Microservice A places

messages in a mam Amazon Simple Queue Service (Amazon SOS) queue for Microservice B to

consume When Microservice B fails to process a message after four retries, the message needs to be

removed from the queue and stored for further investigation.

What should the solutions architect do to meet these requirements?

솔루션 설계자가 느슨하게 결합되도록 모놀리식 애플리케이션을 재설계하고 있습니다.

두 개의 마이크로 서비스로 구성된 애플리케이션: 마이크로 서비스 A 및 마이크로 서비스 B 마이크로 서비스 A 장소

Microservice B에 대한 mam Amazon Simple Queue Service(Amazon SOS) 대기열의 메시지

4번의 재시도 후에도 마이크로서비스 B가 메시지를 처리하지 못하면 메시지는 다음과 같아야 합니다.

대기열에서 제거되고 추가 조사를 위해 저장됩니다.

솔루션 설계자는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?

 

 

 

A. Create an SQS dead-letter queue Configure the main SQS queue to deliver messages to the dead-

letter queue after the message has been received four times.

SQS 배달 못한 편지 대기열 생성 배달 못한 사람에게 메시지를 전달하도록 기본 SQS 대기열을 구성합니다.

메시지가 4번 수신된 후의 편지 대기열

 

Amazon Simple Queue Service(SQS)는 마이크로 서비스, 분산 시스템 및 서버리스 애플리케이션을 쉽게 분리하고 확장할 수 있도록 지원하는 완전관리형 메시지 대기열 서비스입니다. SQS는 메시지 중심 미들웨어를 관리하고 운영하는 데 따른 복잡성과 오버헤드를 없애고 개발자가 차별화 작업에 집중할 수 있도록 지원합니다. SQS를 사용하면 메시지를 유실하거나 다른 서비스를 가동할 필요 없이 소프트웨어 구성 요소 사이에서 어떤 볼륨의 메시지든 전송, 저장 및 수신할 수 있습니다. AWS 콘솔, 명령줄 인터페이스 또는 원하는 SDK, 3가지 간단한 명령을 사용하여 몇 분 만에 SQS를 시작할 수 있습니다.

SQS에서는 2가지 종류의 메시지 대기열을 제공합니다. 표준 대기열은 최대 처리량, 최선 노력 순서, 최소 1회 전달을 제공합니다. SQS FIFO 대기열은 메시지가 전송된 정확한 순서대로 정확히 한 번 처리되도록 설계되었습니다.

 


 

Q98. A company is planning to migrate a TCP-based application into the company's VPC The

application is publicly accessible on a nonstandard TCP port through a hardware appliance in the

company's data centre. This public endpoint can process up to 3 million requests per second with low

latency. The company requires the same level of performance for the new public endpoint in AWS.

What should a solutions architect recommend to meet this requirement?

회사에서 TCP 기반 애플리케이션을 회사의 VPC로 마이그레이션할 계획입니다.

응용 프로그램은 하드웨어 어플라이언스를 통해 비표준 TCP 포트에서 공개적으로 액세스할 수 있습니다.

회사의 데이터 센터. 이 퍼블릭 엔드포인트는 낮은 비용으로 초당 최대 300만 요청을 처리할 수 있습니다.

지연 시간. 회사는 AWS의 새로운 퍼블릭 엔드포인트에 대해 동일한 수준의 성능이 필요합니다.

솔루션 설계자는 이 요구 사항을 충족하기 위해 무엇을 권장해야 합니까?

 

A. Deploy a Network Load Balancer (NLB). Configure the NLB to be publicly accessible over the TCP

NLB(네트워크 로드 밸런서)를 배포합니다. TCP를 통해 공개적으로 액세스할 수 있도록 NLB 구성 응용 프로그램에 필요한 포트입니다

 

Network Load Balancer는 오픈 시스템 상호 연결(OSI) 모델의 네 번째 계층에서 작동합니다. 초당 수백만 개의 요청을 처리할 수 있습니다. 로드 밸런서가 연결 요청을 받으면 기본 규칙의 대상 그룹에서 대상을 선택합니다. 리스너 구성에 지정된 포트에서 선택한 대상에 대한 TCP 연결을 열려고 시도합니다.

로드 밸런서에서 가용 영역을 활성화하면 Elastic Load Balancing이 해당 가용 영역에서 로드 밸런서 노드를 생성합니다. 기본적으로 각 로드 밸런서 노드는 해당 가용 영역의 등록된 대상에만 트래픽을 분산합니다. 교차 영역 로드 밸런싱을 활성화하면 각 로드 밸런서 노드가 활성화된 모든 가용 영역에 있는 등록된 대상 간에 트래픽을 분산합니다. 자세한 내용은 가용 영역 단원을 참조하십시오.

로드 밸런서에 대해 여러 가용 영역을 활성화하고 각 대상 그룹에 각 활성화된 가용 영역에 하나 이상의 대상이 있는지 확인하면 응용 프로그램의 내결함성이 향상됩니다. 예를 들어, 하나 이상의 대상 그룹이 가용성 영역에서 정상 대상이 없는 경우 DNS에서 해당 서브넷의 IP 주소를 제거하지만 다른 가용 영역의 로드 밸런서 노드는 여전히 트래픽을 라우팅할 수 있습니다. 클라이언트가 TTL(time-to-live)을 인식하지 못하고 DNS에서 제거된 IP 주소로 요청을 보내면 요청이 실패합니다.

TCP 트래픽의 경우, 로드 밸런서는 프로토콜, 원본 IP 주소, 원본 포트, 대상 IP 주소, 대상 포트, TCP 시퀀스 번호에 따라 흐름 해시 알고리즘을 사용하여 대상을 선택합니다. 클라이언트로부터의 TCP 연결은 소스 포트와 시퀀스 번호가 서로 다르므로 다른 대상에 라우팅될 수 있습니다. 각 TCP 연결은 연결 수명 동안 하나의 대상에 라우팅됩니다.

UDP 트래픽의 경우, 로드 밸런서는 프로토콜, 원본 IP 주소, 원본 포트, 대상 IP 주소, 대상 포트에 따라 흐름 해시 알고리즘을 사용하여 대상을 선택합니다. UDP 흐름은 소스와 목적지가 동일하기 때문에 수명이 다할 때까지 일관되게 단일 대상으로 라우트됩니다. 서로 다른 UDP 흐름에는 서로 다른 소스 IP 주소와 포트가 있으므로 다른 대상으로 라우팅될 수 있습니다.

Elastic Load Balancing은 활성화된 각 가용 영역에 대해 네트워크 인터페이스를 생성합니다. 가용 영역의 각 로드 밸런서 노드는 이 네트워크 인터페이스를 사용하여 고정 IP 주소를 가져옵니다. 인터넷 경계 로드 밸런서를 생성하는 경우 필요에 따라 서브넷당 하나의 탄력적 IP 주소를 연결할 수 있습니다.

대상 그룹을 생성할 때 인스턴스 ID 또는 IP 주소로 대상을 등록해야 하는지 여부를 결정하는 대상 유형을 지정합니다. 인스턴스 ID로 대상을 등록하는 경우 클라이언트의 원본 IP 주소가 보존되고 애플리케이션에 제공됩니다. IP 주소로 대상을 등록하는 경우 원본 IP 주소는 로드 밸런서 노드의 프라이빗 IP 주소입니다.

애플리케이션에 대한 요청의 전체적인 흐름을 방해하지 않고 필요에 따라 로드 밸런서에서 대상을 추가 및 제거할 수 있습니다. 애플리케이션에 대한 트래픽이 시간에 따라 변화하므로 Elastic Load Balancing은 로드 밸런서를 확장합니다. Elastic Load Balancing은 대다수의 워크로드에 맞게 자동으로 조정할 수 있습니다.

로드 밸런서가 정상적인 대상에만 요청을 보낼 수 있도록 등록된 대상의 상태를 모니터링하는 데 사용되는 상태 확인을 구성할 수 있습니다.

 


 

Q99. A company is using AWS to design a web application that will process insurance quotes Users

will request quotes from the application Quotes must be separated by quote type, must be

responded to within 24 hours, and must not get lost The solution must maximize operational

efficiency and must minimize maintenance.

Which solution meets these requirements?

회사는 AWS를 사용하여 보험 견적을 처리할 웹 애플리케이션을 설계하고 있습니다.

애플리케이션에서 견적을 요청합니다. 견적은 견적 유형별로 구분되어야 하며,

24시간 이내에 응답하고 길을 잃지 않아야 합니다. 솔루션은 운영을 극대화해야 합니다.

효율성과 유지 보수를 최소화해야 합니다.

어떤 솔루션이 이러한 요구 사항을 충족합니까

 

A. Create a single Amazon Simple Notification Service (Amazon SNS) topic Subscribe Amazon Simple

Queue Service (Amazon SQS) queues to the SNS topic Configure SNS message filtering to publish

messages to the proper SQS queue based on the quote type Configure each backend application

server to use its own SQS queue

단일 Amazon Simple Notification Service(Amazon SNS) 주제 생성 Amazon Simple 구독

Queue Service(Amazon SQS)는 SNS 주제에 대한 대기열에 게시할 SNS 메시지 필터링 구성

견적 유형에 따라 적절한 SQS 대기열에 메시지를 보냅니다. 각 백엔드 애플리케이션을 구성합니다.

자체 SQS 대기열을 사용하는 서버

 

Amazon Simple Notification Service (Amazon SNS) 는 게시자에서 구독자에게 메시지 전송을 제공하는 관리형 서비스입니다.생산및소비자). 게시자는 구독자와 비동기적으로 통신하는topic이는 논리적 액세스 포인트 및 통신 채널입니다

Amazon Simple Notification Service(Amazon SNS)는 애플리케이션 간(A2A) 및 애플리케이션과 사용자 간(A2P) 통신 모두를 위한 완전관리형 메시징 서비스입니다.

A2A 게시/구독 기능에서는 분산 시스템, 마이크로서비스 및 이벤트 중심의 서버리스 애플리케이션 사이에서 처리량이 높은 푸시 기반의 다대다 메시징을 위한 주제를 제공합니다. Amazon SNS 주제를 사용하면 게시자 시스템에서 Amazon SQS 대기열, AWS Lambda 함수 및 HTTPS 엔드포인트를 비롯한 다수의 구독자 시스템과 병렬 처리를 위해 Amazon Kinesis Data Firehose로 메시지를 팬아웃할 수 있습니다. A2P 기능을 사용하면 SMS, 모바일 푸시 및 이메일을 통해 대규모로 사용자에게 메시지를 전송할 수 있습니다.

 


 

Q100. A company's infrastructure consists of hundreds of Amazon EC2 instances that use Amazon

Elastic Block Store (Amazon EBS) storage. A solutions architect must ensure that every EC2 instance

can be recovered after a disaster What should the solutions architect do to meet this requirement

with the LEAST amount of effort?

기업의 인프라는 Amazon을 사용하는 수백 개의 Amazon EC2 인스턴스로 구성됩니다.

Elastic Block Store(Amazon EBS) 스토리지. 솔루션 설계자는 모든 EC2 인스턴스가

재해 후 복구 가능 솔루션 설계자는 이 요구 사항을 충족하기 위해 무엇을 해야 합니까?

최소한의 노력으로?

 

A. Use AWS Backup to set up a backup plan for the entire group of EC2 instances. Use the AWS

Backup API or the AWS CLI to speed up the restore process for multiple EC2 instances

AWS Backup을 사용하여 전체 EC2 인스턴스 그룹에 대한 백업 계획을 설정합니다. AWS 사용

여러 EC2 인스턴스의 복원 프로세스 속도를 높이는 백업 API 또는 AWS CLI

 

AWS Backup은 전체 관리형 데이터 보호 서비스로서,AWS서비스, 클라우드 및 온프레미스에서 사용할 수 있습니다. 이 서비스를 사용하면 백업 정책을 구성하고AWS자원을 한 곳에서 관리할 수 있습니다. 이전에는 서비스별로 수행되었던 백업 작업을 자동화하고 통합할 수 있으며 사용자 지정 스크립트 및 수동 프로세스를 생성할 필요가 없습니다. 몇 번의 클릭만으로AWS Backup콘솔에서 데이터 보호 정책 및 일정을 자동화할 수 있습니다.

AWS Backup에서 수행하는 백업은 관리하지 않습니다.AWS외부에 있는 환경AWS Backup. 따라서 비즈니스 및 규정 준수 요구 사항을 위한 중앙 집중식 엔드 투 엔드 솔루션을 원하는 경우AWS Backup을 사용합니다.