LGU+, AWS 손잡고 AI 운영 자동화 플랫폼 구축

온프레미스·클라우드 결합한 하이브리드 구조
GPU 자원 유연 배분, 효율↑인프라 관리 부담↓


허설 LG유플러스 MLOps개발팀 기술책임이 아마존웹서비스(AWS)가 10일 주최한 ‘2026 모던 에이전틱 애플리케이션 데이’ 행사에서 AI 모델을 실제 서비스로 안정적으로 운영하기 위한 플랫폼 구축 사례를 발표하고 있다. LG유플러스 제공


LG유플러스가 아마존웹서비스(AWS)와 협력해 인공지능(AI) 서비스의 안정적 운영을 위한 자동화 플랫폼을 구축했다. AI 모델의 개발부터 실제 서비스 배포까지 전 과정을 유기적으로 연결해 ‘AI 전환(AX)’ 경쟁력을 강화한다는 포석이다.

LG유플러스는 10일 AWS가 주최한 ‘2026 모던 에이전틱 애플리케이션 데이’ 행사에서 생성형 AI 기반의 인프라 운영 자동화 플랫폼 구축 사례를 공개했다. 이번 플랫폼의 핵심은 기존 사내구축형(온프레미스) 중심의 AI 개발 환경을 클라우드와 연계한 하이브리드 구조로 혁신한 데 있다.

그동안 업계에서는 AI 모델의 학습, 평가, 배포, 운영이 각각 분리되어 진행되면서 서비스 전환 과정에서 반복적인 수작업이 발생하는 ‘단절’ 현상이 고질적인 문제로 지목되어 왔다. LG유플러스는 이를 해결하기 위해 데이터 수집부터 운영까지 전 과정을 하나의 파이프라인으로 통합했다. 이를 통해 AI 모델을 한 번 개발하고 끝내는 것이 아니라, 언제든 서비스에 바로 투입할 수 있는 ‘모델 준비 상태(Model Ready)’를 실시간으로 유지할 수 있게 됐다.

인프라 관리 효율도 대폭 높였다. AWS의 관리형 쿠버네티스 서비스인 ‘아마존 EKS’를 기반으로 자체 보유한 중앙처리장치(CPU) 및 그래픽처리장치(GPU) 인프라를 클라우드 자원과 통합 제어하는 아키텍처를 도입했다. 특히 고가의 GPU 자원 활용 방식을 기존의 ‘장비 단위 고정 할당’에서 ‘수요 기반 유연 배분’ 구조로 개선해 자원 유휴 시간을 최소화하고 운영 비용을 절감했다.

권기덕 LG유플러스 AX엔지니어링Lab장은 “데이터 수집부터 모델 개발·배포·운영, GPU 운영까지 아우르는 ‘AI 주도 개발 라이프사이클(AI-DLC)’ 기반의 플랫폼 역량을 강화하고 있다”며 “앞으로도 AWS와의 기술 협력을 통해 AI 서비스의 품질과 운영 안정성을 지속적으로 높여나가겠다”고 밝혔다.
ⓒ 트윅, 무단 전채 및 재배포 금지
연예의 참견
여기 이슈
갓생 살기