[reinvent 2024] Amazon Bedrock의 보안 및 개인 정보 보호 이해, Remitly 포함

Summary

Amazon Bedrock의 보안, 데이터 프라이버시, 거버넌스 및 규제 제어는 생성형 AI 애플리케이션을 보호하는 데 도움이 될 수 있습니다. 이번 세션에서는 아키텍처 및 구현 패턴을 포함하여 Amazon Bedrock의 보안 및 데이터 프라이버시 조치가 어떤식으로 작동하는지 확인하실 수 있습니다. 특히, Remitly가 Amazon Bedrock의 보안 기능을 사용하여 고객 지원 플랫폼을 통해 고객에게 서비스를 제공하는 방법을 확인하실 수 있습니다.


리인벤트 2024 테크 블로그의 더 많은 글이 보고 싶다면?

Tech Blog

AWS re:Invent 2024 Tech Blog written by MegazoneCloud

Overview

  • Title: Understanding security & privacy on Amazon Bedrock, featuring Remitly
  • Date:  2024년 12월 4일(수)
  • Venue: Convention Promenade | Latour 2
  • Speaker:
  • Ankur Sinha(CTO, Remitly, Remitly)
  • Raj Pathak(Principal Solutions Architect, Amazon Web Services)
  • Qingwei Li(Principal AI/ML SA, AWS)
  • Industry: Cross-Industry Solutions

들어가며

데이터를 다루는 기업(거의 모든)들의 가장 큰 관심사는 바로 데이터를 어떻게 안전하게 다룰 것인가 일 것입니다. 특히, 최근 생성형AI가 주목받고 있는 만큼 보안이나 데이터 프라이버시가 더욱 중요성이 높아지고 있습니다. AWS 역시 보안과 데이터 프라이버시가 매우 중요한 주제임을 강조하고 있고 그에 대한 많은 대비를 해 두었습니다.  따라서 우리는 이번 세션에서 Amazon Bedrock의 보안과 데이터 프라이버시 및 생성형AI 애플리케이션 구축 시 확인해야 하는 내용에 대해 알아보겠습니다.

산업 조사에 따르면, 보안은 여전히 다양한 규모의 조직에서 주요한 관심사로 꼽히고 있습니다. 커뮤니케이션, 개인정보 보호, 데이터 보호와 같은 항목들이 매년 설문조사에서 주요 관심사로 나타납니다.

생성형AI 보안의 세 가지 단계

  1. 모델 자체 보안
    • 모델 제공자는 데이터를 처리하고, 정제하고, 필터링하여 학습된 모델이 안전하도록 관리해야 합니다.

  2. 모델 접근 보안
    • 누가 데이터에 접근할 수 있는지 인증하고 필요한 권한을 부여 받았는지 관리해야 합니다.

  3. 생성형AI 애플리케이션의 전체적인 보안
    • 모델에 데이터를 학습시키지 전에 데이터가 얼마나 안전하게 보호되었는지를 평가하고 확인하는 것이며, 또한 모델이 결과를 출력한 이후에는 그 출력이 조직의 AI 정책을 준수하는지 확인해야 합니다.

Amazon Bedrock의 보안

Amazon Bedrock의 보안은 매우 중요한 사항입니다. 우선 Bedrock은 사용자의 추론 및 훈련 데이터를 저장하지 않습니다. 데이터가 저장되지 않으므로 유출될 가능성도 없습니다. Bedrock이 저장하는 데이터는 과금 관련 지표 등 여러 메타데이터를 포함한 운영지표 뿐입니다.

입력되는 데이터 뿐만 아니라 출력되는 내용에 있어서도 보안기능이 적용됩니다. Bedrock에서 제공하는 대표적인 출력 관련 보안 기능으로는 Guardrail이 있습니다.

  • Amazon Bedrock Guardrail
    Amazon Bedrock은 Guardrail 이라는 기능을 제공합니다. 가드레일은 대부분의 유해한 컨텐츠를 걸러낼 수 있습니다. 유해성 컨텐츠 차단 외에 75% 이상의 환각현상을 필터링합니다.

Bedrock Guardrails는 자동 추론 검사 기능도 지원합니다. 이 기능은 LLM에서 생성된 응답의 정확성을 수학적으로 검증하고 Hallucination으로 인한 오류를 방지하는 데 도움이 됩니다.

생성형AI애플리케이션 보안 고려사항

생성형AI 애플리케이션에서 고려해야 할 보안은 다음과 같습니다.

  1. 민감한 사용자 데이터나 PII를 보호하기 위해 어떤 조치가 시행되어야 하는지
  2. 모든 FM의 상호작용이 완전히 분리되어 제대로 기록되고 있는지
  3. 전체 애플리케이션에서 일관된 데이터 및 네트워크 보안 제어를 유지하려면 어떻게 해야 하는지
  4. 유해한 주제 혹은 공격으로부터 사용자를 보호하려면 어떻게 해야 하는지
  5. 사용자별로 올바른 상호작용이 이뤄지고 있는지 인증하고 승인하는 방법

프롬프트 엔지니어링을 통한 보안

프롬프트는 모델과 상호작용 하기 위한 인터페이스이며 프롬프트 엔지니어링은 LLM의 추론 결과 향상을 위해 매우 중요합니다. 프롬프트 엔지니어링을 통해 최적화된 프롬프트를 사용한다면 동일한 LLM으로도 두 배 이상의 성능 차이(정확도, 보안성 등)가 있을 수 있습니다. 99% 로는 부족한 보안 관련 내용에서 매우 중요한 부분을 담당하고 있습니다.

결론

이렇듯 Amazon Bedrock은 다양한 보안 방안을 통해 LLM 학습에 사용되는 데이터부터 추론과정에서 발생할 수 있는 문제, 최종 출력과정에서 발생할 수 있는 문제들을 사전에 방지합니다.
특히 다양하고 강력한 기능을 제공하는 Guardrail과 Automated Reasoning Check를 활용하면 답변 출력에 있어서는 거의 완벽하게 차단되는 것을 확인할 수 있었습니다.
다양한 생성형 AI 애플리케이션이 출시되고 이를 활용하는 사용자의 숙련도도 발전함에 따라 역으로 시스템을 공격하고 정보를 추출하려는 시도도 늘어나고 있습니다. 앞으로의 생성형AI 애플리케이션의 핵심적인 부분은 잠재적인 위협을 사전에 차단하여 서비스 자체의 신뢰성을 높이고 민감한 정보를 취급하는 사용자가 안심하고 사용할 수 있도록 하는 것으로 생각됩니다.

글 │메가존클라우드, AI & Data Analytics Center (ADC), Data Engineering 2 Team, 정지원 매니저
게시물 주소가 복사되었습니다.