[AWS SUMMIT 2025] 아바타가 AI로 일상의 사건을 공유한다. 생성형AI로 매력적인 사용자 경험 만들기
들어가며
아바타가 AI로 일상의 사건을 공유한다. 생성형AI로 매력적인 사용자 경험 만들기
🎙️성현창 솔루션즈 아키텍트, AWS
🎙️이규민 실장, 코코네 AI실
🗂️ 세션 토픽: 게임,미디어및엔터테인먼트

이번 블로그에서는 게임 산업에서 생성형 AI를 어떻게 실질적으로 활용하고 있는지를 주제로 한 세션을 듣고, 그 내용을 공유드리려고 합니다. 특히 관심 있게 본 포인트는 생성형 AI의 인게임 적용 사례, Amazon Bedrock 기반 운영 방식, 빠르게 시작할 수 있는 AI 아키텍처 전략입니다.
GenAI
1. 생성형 AI(Generative AI) 란?



생성형 AI(Generative AI)는 입력된 데이터를 기반으로 텍스트, 이미지, 영상, 코드 등 새로운 콘텐츠를 만들어내는 기술입니다. LLM(Large Language Model) 기반의 이 기술은 프롬프트를 해석하고, 사전 학습된 방대한 데이터를 바탕으로 새로운 문장을 생성하거나, 캐릭터의 말투를 만들거나, 나아가 상황에 맞는 행동을 제안할 수 있습니다.
2. 게임에서의 생성형 AI

게임 영역에서는 다음과 같은 형태로 활용되고 있습니다.
- 게임 내에서의 활용
- NPC 한테 말을 걸었을 때 상황에 맞는 실시간 인터랙션
- 글로벌 사용자들의 자동 채팅 번역
- 사용자의 부정행위 감지 가능
- 게임 외에서의 활용
- 이미지 생성 기능을 활용하여 그래픽 리소스 생성
- 코드 분석 및 생성 기능을 활용하여 게임 개발 도움
- 게임 운영 자동화 및 문서화
이처럼 생성형 AI는 개발 초기 단계부터 운영과 서비스까지 게임 전반의 워크플로우에 영향을 미칠 수 있습니다.
3. 생성형 AI 사용하는 방법
생성형 AI를 사용하는 방법으로는 크게 두 가지로 나눌 수 있습니다. 바로 쓰기와 고쳐 쓰기에 대해 알아보겠습니다.

바로 쓰기 방법은 기존에 학습이 완료된 Foundation Model(FM)을 그대로 활용하는 방식입니다. 이 방식의 핵심은 프롬프트만 잘 설계하면 AI 모델이 자체적으로 적절한 답변을 생성할 수 있다는 점입니다. AI 모델이 원하는 결과를 생성하도록 입력 텍스트를 설계하고 최적화하는 기술인 프롬프트 엔지니어링만으로도 의도에 맞는 결과물을 얻어내실 수 있습니다.
프롬프트 엔지니어링만으로는 원하는 결과를 얻기 어려운 경우, 검색 증강 생성(RAG, Retrieval-Augmented Generation) 기법을 활용할 수 있습니다. 이 방식은 벡터 데이터베이스에 필요한 지식 정보를 저장해두고, 입력된 프롬프트와 관련된 문맥을 동적으로 검색하여 모델에 함께 전달함으로써, 보다 정확하고 원하는 방향에 가까운 응답을 생성할 수 있게 합니다.
바로 쓰기 방법은 FM을 그대로 사용하기에 개발 공수와 비용이 훨씬 적게 듭니다.

더 정교한 제어가 필요하거나, 특정 도메인에 최적화된 응답이 요구되는 경우에는 Foundation Model을 고쳐서(Customize) 사용하는 방식이 적합합니다. 이러한 고쳐 쓰기 접근에는 여러 가지 기법이 있지만, 대표적으로 다음 두 가지 방법이 널리 활용됩니다.
첫 번째는 기존 Foundation Model에 파인튜닝(Fine-tuning)을 적용하여, 특정 도메인에 맞게 커스터마이징된 모델을 만드는 방식입니다. 이 방법은 게임의 세계관이나 브랜드 정형화된 문맥이나 규칙에 따라 보다 일관되고 정확한 응답을 생성할 수 있다는 장점이 있습니다.
두 번째는 대규모 언어 모델(LLM, Large Language Model)을 지식 증류(Distillation)하는 과정을 통해, 핵심 도메인 지식만을 포함한 경량 모델(SLM, Small Language Model)로 변환하는 방식입니다.이렇게 만들어진 SLM은 모델 크기가 작고 추론 효율이 높아, 실제 서비스 환경에서 비용과 리소스를 절감할 수 있는 효과적인 선택지가 됩니다.
Amazon Bedrock
1. Amazon Bedrock 이란?

Amazon Bedrock은 AWS에서 제공하는 완전관리형 서버리스 서비스로, AWS가 자체 제공하는 모델뿐만 아니라, Anthropic(Claude), Meta(Llama), AI21 등 검증된 다양한 파트너사의 Foundation Model(FM)을 클릭 몇 번만으로 간편하게 선택하여 사용할 수 있습니다.
Bedrock은 인프라를 직접 구성하거나 관리할 필요 없이, 웹 기반 애플리케이션(예: 챗봇 UI) 또는 API 연동을 통해 다양한 서비스와 쉽게 통합할 수 있는 것이 강점입니다.
또한 Bedrock은 단순한 모델 호출을 넘어 파인튜닝(Fine-tuning), 검색 증강 생성(RAG), Guardrails(안전성 필터링) 등 고급 기능을 포함하고 있어, 기업 환경에 맞춘 커스터마이징과 배포까지 AWS 환경 내에서 일관되게 처리할 수 있는 플랫폼입니다.

이 장표에서는 Bedrock에서 사용하실 수 있는 FM을 확인하실 수 있습니다. 현재 보여드리는 모델말고도 다양한 신규 모델들 혹은 최신 버전들이 계속 업데이트 되고 있습니다.

또한 Amazon Bedrock은 단순한 모델 호출을 넘어서, 기업과 개발자가 안전하고 책임감 있는 AI 활용을 가능하게 해주는 기능들을 내장하고 있습니다. 그중 대표적인 기능이 바로 Amazon Bedrock Guardrails입니다.
Bedrock Guardrails는 생성형 AI 애플리케이션의 목적과 요구 사항에 맞추어, 다양한 안전망(Safety Policy)을 설정할 수 있도록 지원합니다. 주요 기능은 다음과 같습니다:
- 유해 콘텐츠 및 공격적 입력 필터링
부적절하거나 해로운 텍스트에 대해 자동 필터링과 억제가 가능하도록 정책을 설정할 수 있습니다. - 사실 확인 및 설명 기능
모델의 응답 중 사실과 다르거나 주장이 필요한 부분에 대해 자동으로 출처 기반 설명을 첨부하거나, 수정 유도할 수 있습니다. - 금지된 주제 설정
간단한 설명만으로 허용되지 않는 주제를 정의하고, 해당 주제에 대한 접근을 제한할 수 있습니다. - 개인 식별 정보(PII) 제거
사용자 입력 또는 AI 응답 내의 개인정보 및 민감한 데이터를 자동 식별 및 제거함으로써, 개인정보 보호 정책을 준수할 수 있습니다. - 부적절한 단어 차단
모델 응답 내에 포함되면 안 되는 단어를 블랙리스트 방식으로 정의하여 차단할 수 있습니다. - Hallucination 리스크를 줄이기 위한 응답 정책 설계 지원
맥락에 맞지 않거나 사실이 아닌 응답을 식별하고, 응답의 신뢰도 및 근거 부족 여부를 사전에 감지하여 제어할 수 있습니다.
이러한 기능들을 통해 Bedrock은 생성형 AI를 단순히 빠르게 적용하는 수준을 넘어, 보안·윤리·신뢰성까지 고려한 AI 운영 인프라로 자리매김하고 있습니다.

Amazon Bedrock은 단순한 생성형 AI 활용을 넘어, 기업 고객이 요구하는 보안 수준을 충족하는 안전한 환경을 제공합니다. 특히 개인정보 보호, 데이터 주권, 규제 준수 등 민감한 요소들이 중요한 기업 환경에서 Bedrock은 다음과 같은 보안 체계를 갖추고 있습니다.
- 고객 데이터는 FM 학습에 사용되지 않음
Bedrock을 통해 입력되는 데이터는 Foundation Model의 추가 학습에 사용되지 않으며, 고객 고유의 데이터 자산이 외부로 유출되거나 재사용되는 일 없이 안전하게 보호됩니다. - 데이터 암호화 및 VPC 기반 전송
데이터는 전송 중이거나 저장되는 모든 과정에서 암호화되어 보호되며, 맞춤화 과정에서 사용되는 데이터는 고객의 VPC를 통해 안전하게 전송됩니다. 이는 기업 내부 네트워크 수준의 통제력을 제공하여 민감 정보의 처리에도 안심할 수 있습니다. - 지역 내 처리 보장
API를 통해 처리되는 데이터는 지리적으로 해당 리전 내에 유지되어, 데이터 주권 및 지역별 규제 요건을 충족합니다. - 국제 보안 규정 및 컴플라이언스 지원
Bedrock은 GDPR, SOC, ISO, CSA 등 주요 글로벌 보안/개인정보보호 규정을 준수하며, HIPAA 인증 또한 지원하여 헬스케어와 같이 높은 보안 수준이 요구되는 산업에서도 안심하고 사용할 수 있습니다.
이러한 보안 기반은 Bedrock이 단지 AI 기술을 빠르게 적용하는 플랫폼이 아니라, 기업용 AI 서비스의 신뢰성과 안정성을 동시에 만족시키는 기반 인프라라는 점을 보여줍니다.
2. Amazon Bedrock 추론 사용 옵션
Amazon Bedrock은 다양한 생성형 AI 워크로드를 고려하여, 세 가지 추론(Inference) 방식을 제공합니다. 각 옵션은 처리량, 예측 가능성, 비용 효율성 등의 측면에서 차이가 있으며, 서비스의 특성과 규모에 따라 유연하게 선택할 수 있도록 설계되어 있습니다.

- On-demand
- On-demand 방식은 가장 기본적인 사용 형태로, 사용한 만큼만 지불하는 종량제 요금 모델
- 입력 및 출력 토큰 수에 따라 비용이 청구되며, 별도의 약정 없음
- 프로토타이핑, PoC, 테스트 등 처리량이나 레이턴시 요구사항이 높지 않은 작은 워크로드에 적합
- 분당 요청 수(RPM)나 분당 토큰량(TPM)에 제한이 있어 고빈도 호출에 적합하지 않음
- 리전간 추론(Cross-Region Inference) 지원
- Provisioned Throughput
- Provisioned Throughput은 예측 가능한 처리량(토큰 입출력)을 일정 단위로 예약하여 사용하는 방식
- 시간당 처리 단위(2MU 기준)를 미리 약정하여 고정된 성능과 일관된 응답 속도 확보 가능
- 최소 1개월 단위, 최대 6개월까지 예약 가능, 장기 약정 시 할인 가능
- 다양한 Foundation Model(FM)을 지원, 시간당 고정 요금제로 비용 예측 용이
- 실제 서비스 운영 중인 대규모 워크로드 또는 커스터마이징된 모델 추론에 적합
- Batch Inference
- Batch Inference는 사전 정의된 프롬프트를 기반으로, 대량의 데이터를 한 번에 처리하는 방식
- On-demand 대비 최대 50% 낮은 비용으로 추론이 가능, 비용 최적화에 효과적
- 오프라인 처리, 모델 평가, 대규모 데이터셋에 대한 분석·요약·라벨링 작업 등에 적합
- 처리량 제한 없이 실행, 스트리밍 제약을 받지 않고 대규모 작업을 실행 가능
Bedrock은 추론 방식에서도 유연성과 효율성을 모두 제공하기 때문에, 서비스 규모와 워크로드 특성에 맞춰 최적의 구성을 선택하는 것이 중요합니다. 특히 Provisioned Throughput은 실제 운영 환경에서 성능과 처리량, 비용 가시성을 동시에 만족시키는 강력한 선택지입니다. On-demand 대비 단가가 낮고, SLA 수준의 성능을 보장받을 수 있으며, 트래픽 변동이 큰 실시간 애플리케이션에 있어 성능과 비용 가시성을 동시에 확보할 수 있다는 점에서 운영 리스크를 줄이는 데 큰 도움이 됩니다.
코코네의 GenAI for Game 사례
1. 생성형 AI 서비스 개발 배경

코코네의 게임은 오래된 게임인만큼 새로운 사용자 경험을 주어야 한다는 요구가 계속 존재하고 있었습니다.

그러다가 아바타가 자신의 일상 생활을 SNS에 공유하고 소통하는 서비스를 만들면 어떨까 생각하게 되었습니다.

이 프로젝트에서 구현된 AI 기반 기능은 단순한 텍스트 생성이 아니라, 다음과 같은 다양한 요소를 복합적으로 고려한 콘텐츠 구성을 필요로 했습니다.
즉, 아바타가 그저 한 줄을 쓰는 것이 아니라, ‘누구인가’, ‘어떤 상황인가’, ‘무엇을 입고 있는가’ 등의 맥락을 종합해 스토리텔링을 이어가는 구조로 설계되었습니다.
아래와 같은 기술적 접근이 이 구조를 뒷받침합니다.
- Multimodality 기반 Image Captioning
- 아바타 이미지, 포즈, 패션 정보를 LLM이 이해할 수 있도록 처리
- Claude 모델에 이미지 정보 기반 프롬프트 전달
- 벡터 유사도 기반 콘텐츠 추천
- 아바타의 포즈/배경 이미지/스타일 정보를 텍스트화하여 Vector DB에 저장
- 콘텐츠 생성 시 유사도가 가장 높은 사전 포스트를 참조해, 자연스러운 게시글 구성
- 프롬프트 설계에 캐릭터 맥락 반영
- 아바타 성격, 유저와의 친밀도, 서비스 이벤트 정보 등 다양한 요소를 함께 포함해 응답 품질 향상
- 사용자 맞춤형 글쓰기 및 댓글 반응 유도
- 문맥 지속을 위한 히스토리 요약
- 기존 게시물 + 최근 5개 게시글을 요약해 Vector DB에 저장
- 글 작성 시 이를 참조하여 일관된 서술 방식 유지
- 대댓글 자동 작성
- 사용자 댓글 내용도 Input Prompt로 함께 전달 → 응답을 자연스럽게 생성

이 과정에서 Amazon Bedrock Provisioned Throughput 을 사용한 이유는 시간당 고정 비용이므로 비용 예측이 가능하고 정해진 처리량을 보장해 주기 때문에 서비스의 안정성을 위해 사용했습니다.
2. 서비스 흐름도

게임의 서비스 흐름도입니다.
포케코로 앱에서 아바타와 관련된 정보를 요청하게 되면, 해당 데이터는 API 서버로 전달됩니다. API 서버는 이 정보를 바탕으로 아바타의 패션, 포즈, 게시물 히스토리, 사용자 댓글 등 다양한 요소를 조합해 하나의 입력 프롬프트를 구성합니다. 이 프롬프트는 Amazon Bedrock의 Claude 모델에 전달되어, 게시글 작성, 이미지 설명, 대댓글 생성 등 다양한 응답을 생성하는 데 활용됩니다.
한편, 아바타 이미지나 배경, 포즈 정보 등은 벡터로 임베딩되어 Vector DB에 저장되고, 유사도 검색을 통해 향후 더 적절하고 문맥에 맞는 결과를 생성하는 데 사용됩니다. 게시글 내용 요약이나 이전 히스토리는 MongoDB에 저장되어 문맥 일관성을 유지하는 데 활용되며, 최종적으로 생성된 결과는 다시 포케코로 앱에 전달되어 유저에게 자연스러운 컨텐츠를 제공합니다.
마무리하며

이번 세션을 통해 게임에 생성형 AI를 적용하는 다양한 방식과 그 현실적인 구현 전략을 확인할 수 있었습니다.
무엇보다 인상 깊었던 점은, 꼭 복잡한 기술적 접근이 아니더라도 핵심 아이디어만 있다면 Amazon Bedrock을 통해 손쉽게 시작할 수 있다는 점이었습니다. 다양한 Foundation Model을 간단한 API 호출만으로 사용할 수 있다는 점은 개발 초기 진입 장벽을 크게 낮춰줍니다.또한 Provisioned Throughput 기능을 통해 성능과 비용 가시성을 동시에 확보할 수 있었던 부분은 실제 서비스 운영에서 매우 유용한 옵션이라는 점도 확인할 수 있었습니다. 일관된 응답 속도와 예측 가능한 요금 구조는 특히 게임과 같이 실시간성이 중요한 서비스에 적합합니다. 게임 개발자뿐만 아니라, 서비스 기획자나 인프라 운영자에게도 이 세션은 “AI를 어떻게 잘 활용할 것인가”에 대한 분명한 방향성을 제시해주었습니다.
결론적으로, AWS의 지원 생태계와 함께 한다면 생성형 AI는 더 이상 미래의 기술이 아닌, 지금 당장 실현 가능한 전략 자산이라는 것을 보여준 세션이었습니다. 아이디어만 있다면, AWS와 함께 AI 기반 게임 경험을 손쉽게 확장해볼 수 있겠습니다.
글 │ 메가존클라우드, Cloud Technology Unit(CTU), Game SA Team, 윤희준 SA
AWS SUMMIT 2025
전문가의 시선으로 정리된 테크 블로그를 통해
2025년 IT 트렌드의 현재와 미래를 살펴보세요.
테크 블로그 목차 (바로 가기→)