[reinvent 2025] AWS와 인텔 CPU를 활용하여 빠르고 비용 효율적이며, 데이터 주권이 보장되는 AI 추론 플랫폼 구축하기 (인텔 후원)
Summary
해당 세션에서는 AWS와 Intel의 18년 파트너십을 바탕으로 출시된 최신 ‘Intel Xeon 6’ 기반 EC2 인스턴스를 소개합니다. AI 워크로드에는 반드시 GPU가 필요하다는 편견을 깨고, CPU를 활용하여 AI 추론 비용을 50% 이상 절감하는 방법과 데이터 주권(Sovereignty)을 보장하는 ‘Sovereign AI’ 구축 사례를 Deloitte와 e& Enterprise의 사례를 통해 알아봅니다.
리인벤트 2025 테크 블로그의 더 많은 글이 보고 싶다면?
Overview
들어가며

1. Intel Xeon 6와 AWS의 만남: AI 가속의 새로운 기준


- 성능 향상: 이전 세대 대비 컴퓨팅 성능은 20% 향상되었으며, 특히 AI 딥러닝 추천 모델 추론 속도는 40% 더 빨라졌습니다.
- Intel AMX (Advanced Matrix Extensions): 각 코어에 내장된 전용 실리콘인 AMX 가속기를 통해 딥러닝 워크로드를 하드웨어 레벨에서 가속화합니다. 이는 별도의 GPU 없이도 CPU만으로 상당한 수준의 AI 처리가 가능함을 의미합니다.
2. 신화 깨기: AI에는 반드시 GPU가 필요하다?


- 현실(Reality): 데이터센터 추론의 상당 부분은 이미 CPU에서 수행되고 있습니다. 특히 100억 개(10B) 파라미터 이하의 소형 언어 모델(SLM)이나 압축된 LLM의 경우, 최신 Xeon CPU가 GPU 대비 훨씬 뛰어난 가성비를 제공합니다.
- 비용 절감: Deloitte의 사례 발표에 따르면, 모델 압축 기술(Intel OpenVINO 등)을 활용하여 CPU 기반 아키텍처로 전환했을 때 50% 이상의 비용 절감 효과를 거두었습니다.
3. 유즈 케이스: 주권형 AI (Sovereign AI)



- e& Enterprise 사례: UAE의 통신/기술 기업인 e& Enterprise는 Intel과 협력하여 ‘SLM-in-a-box’ 솔루션을 구축했습니다. 이는 AWS UAE 리전 내의 CPU 인스턴스를 활용하여 데이터가 외부로 유출되지 않도록 보장하면서도, 자동화되고 비용 효율적인 AI 추론 서비스를 제공합니다.


