엔비디아 천하 끝낸다… MS도 AI칩 독립선언

독자 개발 ‘마이아 200’ 공개

구글·아마존도 자체 칩 본격화삼성·SK, HBM 다변화 기회로
31면


글로벌 인공지능(AI) 반도체 시장이 범용 성능을 앞세운 ‘엔비디아 표준’과 비용·전력 효율을 극대화한 ‘빅테크 전용 칩’ 간에 2차 경쟁 국면으로 진입했다. 구글과 아마존에 이어 마이크로소프트(MS)까지 독자 AI 가속기를 공개하며 자체 칩 생태계를 확대한 가운데, SK하이닉스가 MS의 신규 가속기에 고대역폭메모리(HBM)를 단독 공급하는 등 우리나라 반도체 산업의 선전은 계속될 전망된다.

MS는 26일(현지시간) 자체 개발한 AI 가속기 ‘마이아 200’을 공개하고 “MS가 지금까지 배포한 추론 시스템 가운데 가장 효율적이며, 현재 운영 중인 최신 시스템 대비 달러당 성능이 30% 더 좋다”고 밝혔다. 마이아200은 대만 TSMC의 3나노 공정을 적용한 주문형 반도체(ASIC) 기반 칩으로, 대규모 AI 추론 작업의 효율을 극대화한다. 마이아 200에는 총 216GB의 5세대 고대역폭 메모리(HBM3E)가 탑재됐고, SK하이닉스가 12단 HBM3E를 단독 공급하는 것으로 알려졌다.

구글과 아마존웹서비스(AWS) 역시 엔비디아 의존도를 낮추기 위한 행보를 이어가고 있다. 구글은 브로드컴과 공동 설계한 텐서처리장치(TPU) ‘트릴리움’을 고도화해 자사 AI 서비스 전반에 적용 중이며, AWS는 AI 학습에 특화된 전용 칩 ‘트레이니엄’을 중심으로 자체 칩 전략을 확대하고 있다. 이들 전용 칩은 범용 연산에 강점을 지닌 GPU와 달리, AI 연산의 핵심인 행렬 계산에 자원을 집중하는 구조로 설계돼 비용과 전력 효율을 크게 끌어올린 것이 특징이다.

엔비디아는 이에 맞서 차세대 플랫폼 ‘루빈(Rubin)’을 통해 기술 격차를 다시 벌리겠다는 전략을 내세우고 있다. 루빈은 차세대 고대역폭 메모리인 HBM4를 기반으로 성능과 확장성을 동시에 강화하는 것이 핵심으로, 자체 AI 칩 확산에 ‘절대 성능’으로 대응하겠다는 구상으로 해석된다.

이 같은 ‘탈 엔비디아’ 흐름은 국내 메모리 반도체 업계에는 오히려 기회로 작용하고 있다. SK하이닉스는 MS의 마이아 200을 비롯해 구글, AWS 등 글로벌 빅테크의 자체 AI 전용 칩으로 HBM 공급처를 빠르게 넓히며 시장 1위의 입지를 공고히 하고 있다. AI 학습에서 추론으로 무게중심이 이동하는 2차 경쟁 국면 역시 고성능 메모리 수요를 확대하는 요인으로 작용하고 있다. 삼성전자는 최근 엔비디아와 AMD가 진행한 HBM4 관련 품질 테스트에서 긍정적인 평가를 받은 것으로 전해졌고, 차세대 제품 양산을 목표로 준비에 속도를 내고 있다.
ⓒ 트윅, 무단 전채 및 재배포 금지
연예의 참견
여기 이슈
갓생 살기