[고객 사례] 뷰런테크놀로지 VueX, 메가존클라우드와 글로벌 시장으로🚀

Customer Story Detail – Vueron Technology

  • 고객사: 뷰런테크놀로지 (Vueron Technology)
  • 산업군: 소프트웨어 제조업 (Mobility Tech)
  • 서비스 영역: Cloud Modernization / Business Acceleration
  • 적용 솔루션: AWS(Provisioning Ensemble : terraform, aws cdk, karpenter 조합의 LiDAR AI Platform “VueX”)
  • 파트너: AWS

1. Overview (프로젝트 배경)

뷰런테크놀로지는 올해 새로운 SaaS형 LiDAR AI Platform VueX를 글로벌 시장에 출시하였으며, 이를 안정적이고 확장성 있게 운영하기 위한 클라우드 기반 아키텍처를 내부적으로 구축했습니다.

VueX는 대규모 LiDAR 데이터 처리, Auto-labeling, 모델 학습 등 고성능 GPU 워크로드가 필수적인 플랫폼이기 때문에, 이러한 요구를 충족하기 위해 Provisioning Ensemble 구조(Terraform · AWS CDK · Karpenter 조합)를 기술적으로 채택하고 AWS 환경 위에서 구현했습니다.


메가존클라우드는 VueX 출시 이후, 해당 아키텍처의 구성 방식이 AWS 모범사례에 부합하는지 확인하고 정합성을 점검하는 과정에 참여하여 구조적 안정성 검토 역할을 수행하였습니다.


VueX의 출시와 AWS Marketplace 등재 이후, 본격적인 글로벌 시장 확장이 필요하였으며 특히 모빌리티 및 딥테크 산업 관심이 높은 중동 지역에서 제품 홍보 채널 확보가 중요하였습니다.

이 과정에서 메가존클라우드가 주관기업으로 참여한 「2025 AX(인공지능 전환) 솔루션 중소기업 해외진출 지원」 중동 프로그램을 통해, 뷰런은 ADIPEC 2025 공동관 참가 기회를 제공받아 VueX를 현지 시장에 소개하고 홍보할 수 있었습니다.

2. Challenge (문제 정의)

① 인프라 레이어와 서비스 레이어 간 표준화 및 일관성 확보

  • 베이스 인프라(VPC, EKS, RDS 등)와 애플리케이션 레이어(API, 데이터 파이프라인)가 서로 다른 속도로 변경 및 확장되면서 하나의 IaC만으로는 안정성과 민첩성을 동시에 충족시키기 어려움
  • 멀티 환경(dev/stage/prod)에서 배포 재현성 및 설정 일관성 유지가 까다로움

② LiDAR·AI 워크로드 특성에 따른 예측 불가능한 자원 수요

  • LiDAR 대량 업로드, Auto-labeling, 모델 학습 등 GPU·CPU 혼합 워크로드가 순간적으로 폭증하여 기존 고정형 노드 구성만으로는 대응이 어려움
  • Multi-tenant SaaS 운영 시 고객별 사용량 격차가 커져 실시간 스케일링 및 비용 제어가 필요함

③ 글로벌 SaaS 운영을 위한 확장성·비용·안정성 기준 충족 필요

  • GPU 노드는 고비용 구조 → 비효율 스케일링 발생 시 운영비 급등 위험 존재
  • 글로벌 OEM 및 Tier1 고객을 대상으로 하기 때문에 업타임, 보안, 확장성 등 높은 운영 기준을 충족해야 하며, 인프라 불안정은 고객 신뢰도 저하로 직결됨

3. Solution (해결 방안)

뷰런테크놀로지와 메가존클라우드는 VueX 의 안정적 공급을 위해, AWS 기반의 Provisioning Ensemble 구조를 구성하였고, 안정성과 확장성을 동시에 충족하는 SaaS 운영 체계를 구축했습니다.

구성 요소주요 구현 내용
AWS InfraAWS 환경 위에서 VPC, Subnet, EKS, RDS 등 VueX의 베이스 인프라를 구성하여 글로벌 SaaS에 요구되는 안정성과 보안 기준을 충족하도록 설계했습니다.
멀티 환경(dev/stage/prod) 운영이 가능하도록 인프라 레이어의 표준화 및 일관성을 확보했습니다.
Terraforming계정·네트워크·클러스터 등 불변 인프라(Immutable Infra)를 Terraform으로 코드화하여 재현성 높은 배포 체계를 마련했습니다.
환경별 구성을 자동화함으로써 인프라 변경 리스크를 낮추고 운영 효율성을 강화했습니다.
AWS CDKVueX의 서비스 기능(API Gateway, Lambda, S3, 데이터 파이프라인 등)을 CDK 기반으로 구조화 하여,
개발팀이 빠르게 기능을 추가하고 배포할 수 있는 애플리케이션 레이어를 구현했습니다. 코드 기반 관리로 기능 출시 속도를 크게 향상시켰습니다.
KarpenterAuto-labeling 및 모델 학습처럼 고성능 GPU가 필요한 워크로드는 Karpenter로 실시간 자동 스케일링을 구현했습니다.
Pod 요구사항 기반으로 최적 인스턴스를 자동 선택하여 GPU 비용을 30~45% 절감하고, 트래픽 폭주 상황에도 안정적인 처리 성능을 확보했습니다.
Monitoring & Cost OptimizationEKS, GPU 노드, Auto-labeling, 모델 학습 등 주요 지표를 실시간 모니터링할 수 있는 대시보드를 구축하고,
리소스 사용량에 따른 비용 최적화 정책을 함께 적용하여 운영 투명성과 효율성을 향상시켰습니다.

4. Result (성과)

  • GPU 기반 Auto-labeling 및 모델 학습 성능이 최적화되어, 동일 작업 기준 처리 속도가 기존 대비 크게 향상되었습니다.
  • Karpenter 기반 실시간 스케일링으로 GPU 비용이 약 30~45% 절감되며 운영 효율성이 대폭 향상되었습니다.
  • Terraform·CDK 기반 표준화된 배포 체계를 구축하여 환경별(dev/stage/prod) 배포 안정성과 재현성이 크게 높아졌습니다.
  • AWS Marketplace SaaS 구조 정합성 확보로 글로벌 OEM·Tier-1 고객 대상의 신뢰도가 강화되고, 해외 고객 온보딩이 보다 원활해졌습니다.

게시물 주소가 복사되었습니다.

이런 콘텐츠도 있어요!