메타, 엔비디아·AMD 대형 계약 후 자체 인공지능 칩 본격 도입

2026.03.13 15:04:07

헬로티 etech@hellot.net

 

메타가 자체 설계한 인공지능용 칩 MTIA 시리즈를 순차 도입하며 데이터센터 인프라 다변화에 나가고 있다.

 

미국 경제방송 CNBC는 3월 11일(현지 시간) 메타가 인공지능 관련 작업에 특화된 맞춤형 자체 칩 4종을 공개했다고 보도했다. 이 칩들은 메타가 진행 중인 대규모 데이터센터 확장 계획의 핵심 구성 요소로, ‘메타 트레이닝 앤드 인퍼런스 액셀러레이터(Meta Training and Inference Accelerator, MTIA)’ 패밀리에 속한다.

 

MTIA 칩 패밀리는 메타가 2023년에 처음 공개한 뒤, 2024년에 2세대 버전을 선보인 바 있다. 메타는 이번에 MTIA 300, MTIA 400, MTIA 450, MTIA 500 등 네 가지 신규 칩을 제시했다.

 

 

메타 엔지니어링 부문 부사장 이 지운 송(Yee Jiun Song) 부사장은 CNBC와의 인터뷰에서, 메타가 설계한 맞춤형 칩을 대만반도체(Taiwan Semiconductor)의 제조로 확보함으로써, 외부 공급업체에만 의존하는 대신 데이터센터 전체에서 ‘가격 대비 성능’을 더 많이 끌어낼 수 있다고 설명했다. 송 부사장은 이러한 자체 칩 전략이 실리콘 공급의 다양성을 높이고 가격 변동으로부터 어느 정도 보호막을 제공한다고 말했다.

 

송 부사장은 “이것은 우리가 실리콘 공급 측면에서 더 많은 다양성을 확보하게 해주며, 어느 정도 가격 변화로부터 우리를 보호해 준다”며 “이것이 조금 더 많은 협상력”이라고 밝혔다. 메타에 따르면 첫 번째 신규 칩인 MTIA 300은 몇 주 전에 이미 배치됐다.

 

MTIA 300은 메타의 핵심 순위·추천 작업을 뒷받침하는 소형 인공지능 모델을 훈련하는 데 쓰이도록 설계됐다. 이 작업에는 페이스북(Facebook), 인스타그램(Instagram) 등 메타의 앱 패밀리 내에서 이용자에게 적절한 콘텐츠와 온라인 광고를 보여주는 기능이 포함된다.

 

향후 도입될 MTIA 400, MTIA 450, MTIA 500은 사람들의 텍스트 프롬프트를 바탕으로 이미지와 동영상을 생성하는 등, 보다 최첨단 생성형 인공지능 추론 작업을 위한 용도이다. 송 부사장은 이 칩들이 초대형 언어모델(LLM) 훈련에는 사용되지 않는다고 밝혔다.

 

메타는 한 개의 데이터센터 랙에 자사 MTIA 400 칩 72개를 탑재해 인공지능 추론을 가속하도록 구성할 계획이다. 회사에 따르면 MTIA 400은 이미 테스트 단계를 마쳤으며, 곧 메타 데이터센터에 배치될 예정이다.

 

메타는 블로그 게시물에서 MTIA 400의 테스트를 완료했으며 “데이터센터에 배치를 추진하는 단계에 있다”고 밝혔다. 나머지 두 칩인 MTIA 450과 MTIA 500은 2027년에 운영이 시작될 전망이다.

 

송 부사장은 “어떤 실리콘 기업이나 팀이 6개월마다 새로운 칩을 내놓는 것은 이례적이며, 매우 빠른 주기”라고 말했다. 그는 “현재 우리가 용량을 매우 빠르게 구축하고 있고, 설비투자(CapEX)에 막대한 비용을 쓰고 있어, 언제든지 배치 가능한 최첨단 칩을 확보하고자 하는 것이 큰 이유”라고 설명했다.

 

송 부사장은 이들 칩이 “표준적인 5년 이상 유효 수명”을 가질 것으로 회사가 예상하고 있다고 덧붙였다. 메타의 인공지능 관련 투자에는 루이지애나 리치랜드 패리시에 건설 중인 5기가와트 규모의 ‘하이페리온(Hyperion)’ 데이터센터와 오하이오, 인디애나에 짓고 있는 두 곳의 데이터센터도 포함돼 있다.

 

또한 블룸버그(Bloomberg)에 따르면, 메타는 오픈AI(OpenAI)와 오라클(Oracle)이 인공지능 데이터센터 부지 확장 계획을 철회한 뒤 텍사스 ‘스타게이트(Stargate)’ 부지의 임대 가능성을 타진하고 있는 것으로 전해졌다. 최근 몇 년간 구글(Google) 등 주요 기술기업은 엔비디아(Nvidia), AMD의 고가이면서 공급이 제한된 GPU를 대체하기 위해 자체 실리콘 개발에 나서 왔다.

 

이들 하이퍼스케일러들은 특정 용도에만 최적화된 ‘애플리케이션 특화 집적회로(ASIC)’를 개발해왔다. 이런 칩은 범용 인공지능 연산에 쓰이는 GPU보다 작고 저렴하지만, 수행 가능한 작업 범위는 더 좁다.

 

구글은 2015년에 첫 텐서 처리 장치(Tensor Processing Unit)를 내놓으며 ASIC 분야에 가장 먼저 뛰어들었다. 아마존(Amazon)은 2018년에 첫 맞춤형 칩을 발표하며 뒤를 이었다.

 

이들 기술기업은 각자의 클라우드 컴퓨팅 플랫폼에 인공지능 칩을 통합해 고객이 접근하도록 하고 있는 반면, 메타의 MTIA 칩은 전적으로 내부 용도로만 사용된다. 메타는 이번 차세대 MTIA 칩에 생성형 인공지능 추론 작업을 지원하기 위한 고대역폭 메모리(HBM)를 더 많이 탑재할 계획이다.

 

그러나 기술 산업 전반의 대규모 인공지능 투자로 인해 메모리 칩 공급 부족이 발생하면서, 메타의 야심적인 실리콘 로드맵도 향후 공급망 제약에 직면할 수 있다. 송 부사장은 “우리는 HBM 공급에 대해 절대적으로 우려하고 있다”고 말했다.

 

그는 이어 “하지만 우리가 구축하려는 규모에 필요한 공급은 확보했다고 생각한다”고 밝혔다. 메모리 사업은 대체로 삼성전자(Samsung), 마이크론(Micron) 같은 공급업체와의 단기 계약을 통해 칩메이커들이 메모리를 조달하는 경기 순환적 산업이다.

 

송 부사장은 공급 부족에 대비해 메모리 업체들과 장기 계약을 맺었는지에 대해서는 언급을 피했다. 다만 메타가 공급망과 실리콘 전략에서 ‘다변화된(diversified)’ 접근을 취하고 있다고 설명했다.

 

메타는 최근 수주 내에 데이터센터를 채우기 위해 수백만 개의 엔비디아 GPU와, 수년에 걸쳐 최대 6기가와트 규모의 AMD GPU를 도입하는 계약을 체결했다. 송 부사장은 이러한 칩 계약과 관련해 “워크로드가 매우 빨리 바뀌고 있어, 우리가 선택지를 갖고 있는지 확인하고자 한다”고 말했다.

 

메타의 새로운 자체 칩은 주로 대만에서 운영되며 미국 애리조나주에 대형 신규 팹 캠퍼스를 보유한 대만반도체에서 제조된다. 메타는 해당 칩이 애리조나에서 생산될지 여부에 대해서는 언급을 거부했다.

 

송 부사장은 이 실리콘을 개발한 수백 명 규모의 “상당한 팀”의 대다수가 미국에 기반을 두고 있다고 밝혔다. 메타가 운영 중이거나 계획 중인 총 30개 데이터센터 가운데 26곳이 미국에 위치해 있다.

 

헬로티 |

Copyright ⓒ 첨단 & Hellot.net






검색