[reinvent 2025] Cisco Data Fabric을 통해 혼돈 속에서 명확성을 찾아보세요 (Splunk가 후원)
Summary
해당 세션에서는 2028년 394 제타바이트(Zettabytes)에 이를 것으로 예상되는 데이터 폭증 시대에, Cisco Data Fabric powered by Splunk가 어떻게 데이터 카오스를 명확성(Clarity)으로 전환하는지 다룹니다. 바이오테크 기업 Regeneron의 사례를 통해 머신 데이터와 AI를 결합하여 실험 속도를 높이고 생명을 구하는 혁신을 소개하며, 저장과 인덱싱을 분리한 새로운 ‘Machine Data Lake’ 아키텍처를 공개합니다.
리인벤트 2025 테크 블로그의 더 많은 글이 보고 싶다면?
Overview
들어가며

1. 181 제타바이트의 시대와 ‘데이터 카오스’


- 변화의 원인: 과거에는 사용자가 질문을 던질 때만 데이터 스파이크가 발생했지만, 이제는 AI 에이전트가 인간을 대신해 24시간 내내 시스템을 모니터링하고 작업을 수행하며 끊임없이 머신 데이터를 생성합니다.
- 문제점: 데이터는 보안, IT, 엔지니어링 등 각 팀의 사일로(Silo)에 갇혀 있으며, 중복 저장되고 파편화되어 엔드 투 엔드(End-to-End) 가시성을 확보하기 어렵습니다. 이러한 ‘데이터 카오스’는 기업에 연간 4,000억 달러 규모의 손실을 입히는 문제입니다.
2. Regeneron 사례: 생명을 구하는 데이터 가시성

- 도전 과제: 과학자들은 실험이 완료될 때까지 실험실의 단일 스크린 앞을 지켜야 했습니다.
- 해결책: Splunk와 Cisco의 솔루션을 통해 캠퍼스 어디서든 여러 실험을 동시에 모니터링할 수 있는 ‘단일 창(Single Pane of Glass)’ 환경을 구축했습니다.
- 결과: 작은 과학자 팀이 마치 거대한 팀처럼 효율적으로 움직일 수 있게 되었고, 생명을 구하는 치료제의 출시 속도를 획기적으로 단축했습니다.
3. Cisco Data Fabric powered by Splunk: 아키텍처의 진화

- AI 기반 데이터 관리 (Auto-healing Pipelines): 밤새 데이터 다운로드가 실패하여 아침부터 복구 작업을 해야 했던 악몽은 사라집니다. AI가 데이터 파이프라인의 오류를 감지하고 자동으로 복구(Auto-healing)하며, 스키마 변경(Schema Drift)을 감지하여 자동으로 필드를 추출합니다.
- 연합 검색 (Federated Search): 데이터가 S3, Azure, Snowflake, 온프레미스 어디에 있든 이동시키지 않고 즉시 검색하고 분석할 수 있습니다.
- Machine Data Lake (MDL): 가장 큰 기술적 변화는 ‘수집(Ingestion)’과 ‘인덱싱(Indexing)’의 분리입니다. 모든 데이터를 비싼 인덱서에 즉시 넣는 대신, 저렴한 개방형 스토리지(Machine Data Lake)에 원본 그대로 저장(Iceberg 포맷 등 개방형 포맷 활용)합니다. 이후 가치가 확인된 데이터만 Splunk 인덱스로 ‘승격(Promote)’시켜 분석하거나, 데이터 사이언스 팀을 위해 레이크하우스로 내보낼 수 있습니다. 이를 통해 비용 효율성과 데이터 활용성을 극대화합니다.
4. 에이전틱 AI 경험 (Agentic AI Experience)

- 자연어 쿼리: “지난주 로그인 실패 추이를 보여줘”라고 물으면 AI가 이를 SPL로 변환하여 실행하고, 반대로 복잡한 SPL 쿼리가 무슨 뜻인지 자연어로 설명해주기도 합니다.
- AI 비서의 활약: 데모에서는 AI 어시스턴트가 AWS CloudTrail 로그의 스키마 변경을 감지하고, 이에 맞는 파이프라인 수정 규칙을 제안하여 클릭 한 번으로 문제를 해결하는 과정을 보여주었습니다. 이는 분석가가 며칠 걸려 찾을 문제를 단 몇 초 만에 해결하는 ‘나비 효과 방지’의 실사례입니다.


