NVIDIA와 일라이 릴리, 획기적 약물 발견을 위한 10억 달러 규모 AI 연구소 출범
NVIDIA와 일라이 릴리는 AI를 활용해 약물 발견과 의약품 제조를 혁신하는 데 주력하는 10억 달러 규모의 공동 혁신 연구소를 설립하기 위한 획기적인 파트너십을 발표했으며, 개발 기간을 대폭 단축하는 것을 목표로 합니다.

인공지능(AI) 인프라가 시장의 리더십을 결정하는 환경에서, 메타(Meta)는 데이터 센터 전략의 거대한 변화를 예고했습니다. 상용 GPU 공급업체에 대한 과도한 의존에서 벗어나, 이 소셜 미디어 거물은 최근 독자적인 메타 훈련 및 추론 가속기(MTIA, Meta Training and Inference Accelerator) 칩의 4개 세대인 300, 400, 450, 500 시리즈를 공개했습니다. 브로드컴(Broadcom)과의 전략적 협력을 통해 개발된 이 강력한 로드맵은 대규모 AI 추론의 구체적이고 전력 소모가 많은 과제를 해결하기 위해 명시적으로 설계되었으며, 향후 몇 년 내에 메타가 기가와트 급(gigawatt-scale) 배포라고 특징 짓는 목표를 지향하고 있습니다.
2026년 3월에 이루어진 이번 공개는 단순한 엔지니어링 성과 그 이상을 의미합니다. 이는 메타의 AI 운영에 대한 독립 선언입니다. 업계가 오랫동안 훈련과 추론 모두를 위해 범용 GPU에 집착해 온 반면, 메타는 "맞춤형 실리콘(bespoke silicon)" 미래에 베팅하고 있습니다. 하드웨어를 주로 파이토치(PyTorch) 및 vLLM과 같은 자체 내부 소프트웨어 스택에 맞춤으로써, 이 회사는 생성형 AI(Generative AI) 모델, 추천 엔진 및 광고 순위 알고리즘에 대해 훨씬 더 높은 효율성을 이끌어낼 수 있기를 기대하고 있습니다.
메타의 새로운 칩 라인업은 모듈성과 빠른 반복 주기가 특징입니다. 칩렛 기반 아키텍처(chiplet-based architecture)를 채택함으로써, 메타는 400, 450, 500 모델에 대한 기본 섀시, 랙 및 네트워크 인프라를 표준화할 수 있었으며, 전체 하드웨어 공간을 교체하지 않고도 "드롭인(drop-in)" 업그레이드가 가능해졌습니다. 이러한 모듈성은 기존의 다년 단위 하드웨어 개발 주기를 깨뜨리는 공격적인 6개월 출시 주기를 용이하게 하는 핵심 기능입니다.
아래 표는 공개된 4개 MTIA 세대의 핵심 사양을 요약한 것으로, 300 시리즈부터 500 시리즈까지 컴퓨팅 및 메모리 성능이 급격히 향상되었음을 보여줍니다.
| MTIA 모델 | 워크로드 중점 | TDP | HBM 대역폭 | 주요 특징 |
|---|---|---|---|---|
| MTIA 300 | R&R 훈련 | 800 W | 6.1 TB/s | 보급형 컴퓨팅 유닛 그리드 |
| MTIA 400 | 일반 AI/추론 | 1,200 W | 9.2 TB/s | 첫 번째 경쟁력 있는 성능의 유닛 |
| MTIA 450 | 생성형 AI 추론 | 1,400 W | 18.4 TB/s | 대역폭 최적화 설계 |
| MTIA 500 | 생성형 AI 추론 | 1,700 W | 27.6 TB/s | 고용량 배포 확장 |
단순한 처리량 수치를 넘어, 메타-브로드컴 팀의 중요한 설계 선택은 고대역폭 메모리(HBM, High Bandwidth Memory)에 대한 강력한 강조입니다. 대규모 트랜스포머 모델 추론의 "디코드 단계(decode phase)" 동안, 메모리 대역폭은 원시 컴퓨팅 FLOPS보다 일차적인 병목 현상이 되는 경우가 많습니다. MTIA 450 및 500 모델은 이전 세대에 비해 대역폭을 획기적으로 늘렸으며(400에서 450으로 가면서 대역폭이 두 배로 증가하고, 500에서는 다시 50%가 추가됨), 이는 현대적인 생성형 AI 애플리케이션의 고속, 고수요 요구 사항을 해결하기 위해 특별히 포지셔닝된 것입니다.
역사적으로 업계는 대규모 모델 훈련에 탁월한 칩을 우선시해 왔습니다. 이러한 고성능 GPU는 매우 강력하지만, 사전 훈련을 위해 구축된 아키텍처 오버헤드로 인해 순수하게 추론용으로 재사용될 때 전력 및 비용 비효율성을 초래할 수 있습니다. 메타의 접근 방식은 이러한 "일률적인(one-size-fits-all)" 사고방식을 거부합니다.
"추론 우선(inference-first)" 전략으로 선회함으로써, 메타는 배포에 필요하지 않은 대규모 병렬 훈련에 최적화된 기능들을 제거했습니다. 대신 칩은 다음에 집중합니다:
이러한 전문화는 고립되어 존재하지 않습니다. 마찰 없는 도입을 보장하기 위해 메타는 하드웨어 스택을 파이토치 및 트리톤(Triton)과 기본적으로 호환되도록 구축했습니다. 이를 통해 메타의 소프트웨어 엔지니어는 모델을 처음부터 다시 작성할 필요 없이 워크로드를 MTIA 장치로 간단히 옮길 수 있습니다. 이러한 소프트웨어 호환성을 유지함으로써 메타는 기존 상용 하드웨어를 독자적인 칩으로 교체하는 운영 비용을 크게 낮추어, 현재 AI 인프라에 만연한 벤더 종속(vendor lock-in)에 직접적으로 도전하고 있습니다.
이 발표에서 눈에 띄는 요소는 개발 속도입니다. 일반적으로 맞춤형 실리콘 설계 주기는 2년 이상 걸립니다. "재사용 및 개선(reuse and refine)" 모듈형 설계 방식을 활용함으로써 메타는 반복당 약 6개월의 개발 주기를 안정화했습니다.
이러한 수준의 속도는 파트너인 브로드컴이 제공하는 통합 및 공급망 역량 없이는 불가능했을 것입니다. 많은 기술 거대 기업들이 내부 하드웨어 구축을 열망하지만, 아키텍처 도면에서 수백만 개의 작동 가능하고 열적으로 안정적이며 신뢰할 수 있는 칩으로 이동하는 실행의 격차에서 많은 이들이 실패합니다. 브로드컴과의 협업은 이러한 격차를 메워주며, 메타가 언급한 대로 거대한 칩 군단을 만드는 데 필요한 업계에서 검증된 패키징 및 상호 연결 전문 지식을 제공하는 것으로 보입니다.
MTIA 500 시리즈의 공개는 기존 반도체 리더들에게 강력한 메시지를 전달합니다. 메타가 AMD와 맺은 장기적인 1,000억 달러 규모의 AI 인프라 협약과 함께 이 칩들을 배포함에 따라, 회사는 의존도를 최소화하기 위해 포트폴리오를 다변화하고 있습니다.
우리는 전문화된 데이터 센터 구성 요소의 새로운 단계가 성숙해지는 것을 목격하고 있습니다. 생성형 AI 추론에 최적화된 메모리 제한 성능(memory-bound performance)을 위해 원시 FLOPs의 중요성을 낮춤으로써, 메타는 AI를 배포하는 방식을 바꿀 뿐만 아니라 대규모 인터넷 서비스 제공업체가 실리콘 파트너에게 요구하는 기준을 잠재적으로 설정하고 있습니다. 다른 하이퍼스케일러(hyperscalers)들이 동일한 수직 계열화(vertical integration) 경로를 따를지, 아니면 점점 더 맞춤화되고 있는 기성 상용 대안을 고수할지는 2027년으로 향하는 AI 인프라 시장의 핵심 질문으로 남아 있습니다.
"제너럴리스트" AI 데이터 센터의 시대는 저물고 있으며, 그 자리를 메타가 전면에 내세운 정밀하고 작업 특정적이며 빠르게 진화하는 실리콘 아키텍처가 대신하고 있습니다. Creati.ai에게 이는 다가오는 회계 연도 내내 추적해야 할 하드웨어 엔지니어링의 가장 중요한 트렌드 중 하나로 남아 있습니다.