아이플라이텍 "오픈AI의 o1과 딥시크의 R1과 나란히 할 수준에 도달" 아이플라이텍이 화웨이의 AI칩만을 이용해 훈련한 대규모 언어모델(LLM) '싱훠 X1'의 업그레이드 버전을 공개했다. 이는 최근 미국의 대중국 반도체 수출 규제가 강화하는 가운데, 중국산 컴퓨팅 자원만으로도 경쟁력 있는 AI 모델 개발이 가능하다는 것을 입증하려는 시도로 풀이된다. 홍콩 사우스차이나모닝포스트(SCMP)에 따르면, 아이플라이텍은 22일 열린 실적 발표에서 자사 추론형 LLM인 싱훠 X1이 성능 개선을 통해 오픈AI의 o1과 딥시크의 R1과 어깨를 나란히 할 수준에 도달했다고 발표했다. 특히 이번 버전은 전적으로 중국산 칩을 활용해 훈련된 ‘자급자족형 AI’라는 점에서 의미가 깊다. 아이플라이텍과 화웨이는 지난 1월부터 싱훠 X1의 공동 개발을 본격화하며, 중국산 칩의 한계로 지적돼온 상호연결 대역폭 문제를 해결하기 위해 협업을 이어왔다. 화웨이의 AI칩 ‘910B’는 지난해까지만 해도 NVIDIA 칩 대비 약 20% 수준의 효율을 보였지만, 양사의 기술 개선 노력으로 현재는 80% 수준까지 끌어올린 것으로 알려졌다. 아이플라이텍 류칭펑 회장은 “화웨이 칩만으로 훈련한 LL
대규모 데이터 센터와 클라우드 환경에 최적화한 고용량 메모리 솔루션을 본격 상용화 SK하이닉스가 차세대 메모리 인터페이스 CXL(Compute Express Link) 2.0을 기반으로 한 CMM(CXL 메모리 모듈)-DDR5 96GB 제품에 대해 고객 인증을 완료했다고 23일 밝혔다. 이를 통해 대규모 연산을 요구하는 데이터 센터와 클라우드 환경에 최적화한 고용량 메모리 솔루션을 본격 상용화 단계에 올려놨다. CXL은 CPU, GPU, 메모리 등을 고속으로 연결해 연산 성능을 높이는 차세대 연결 기술로, PCIe 인터페이스 기반의 빠른 데이터 전송 속도와 메모리 풀링 기능을 통해 시스템 자원을 효율적으로 활용할 수 있도록 한다. SK하이닉스는 이러한 CXL 기반 기술을 활용해 개발한 CMM-DDR5 제품이 기존 DDR5 대비 메모리 용량은 약 50% 늘고, 대역폭은 약 30% 증가해 초당 36GB의 데이터 처리 성능을 제공한다고 밝혔다. 특히 해당 솔루션은 데이터 센터 운영 시 총소유비용(TCO, Total Cost of Ownership)을 크게 절감하는 데 기여할 수 있다는 점에서 고객으로부터 긍정적인 반응을 얻고 있다. SK하이닉스는 이번 96GB 제
ST마이크로일렉트로닉스(이하 ST)가 영구적으로 확장 가능한 차세대 메모리인 xMemory를 탑재한 스텔라(Stellar) 자동차용 마이크로컨트롤러(MCU)를 출시했다. 이는 소프트웨어 정의 차량(SDV) 개발과 전동화용 플랫폼 발전의 복잡한 프로세스를 혁신하도록 지원한다. xMemory 기반 스텔라(Stellar with xMemory)는 확장 가능한 메모리를 갖춘 단일 디바이스로 제공된다. 고객들은 메모리 옵션을 다양하게 제공하는 디바이스를 여러 개 관리하고 이에 따른 개발 및 인증 비용을 부담할 필요 없는 효율적인 솔루션을 사용할 수 있다. 자동차 제조사는 이와 같은 간단한 접근방식으로 처음부터 미래 지향적 설계를 구현하고 개발 주기 후반에도 혁신 기능을 추가할 역량을 확보하며, 개발 비용을 절감하고 공급망을 간소화해 시장 출시 기간을 단축할 수 있다. xMemory 기반 스텔라는 전기자동차(EV)의 새로운 드라이브트레인과 아키텍처를 위해 설계된 스텔라 P6 MCU에 처음으로 적용됐으며 올해 하반기에 대량생산에 돌입할 예정이다. 루카 로데스치니 ST 범용 및 자동차용 마이크로컨트롤러 부문 사업본부장은 “ST는 끊임없이 증가하는 메모리 요구를 충족시키기
美 애리조나 공장 순손실 기록하는 반면 中 난징 공장은 순이익 기록 반도체 산업의 글로벌 공급망 재편이 지정학적 압력과 시장 논리 사이에서 균열음을 내고 있다. TSMC가 미국 애리조나에 건설한 생산 공장에서 큰 폭의 손실을 기록한 가운데, 중국 관영 언론이 이를 빌미로 미국 주도의 공급망 재편 전략에 정면 비판을 가했다. 중국 관영 영자지 글로벌타임스는 최근 사설을 통해 "TSMC 애리조나 공장의 손실은 정치적 개입이 시장 원리를 앞섰기 때문"이라며, 반도체 공급망 재편이 단순한 생산 설비 이전만으로는 성과를 내기 어렵다고 주장했다. 이러한 지적은 TSMC가 공개한 연례보고서의 수치와 맞물려 업계 안팎에서 공급망 구축 전략의 현실적 한계를 되짚게 한다. TSMC는 지난 18일 발표한 연례보고서에서 애리조나 공장의 2023년 순손실이 약 6252억 원에 달했다고 밝혔다. 이는 전년보다 1475억 원 가까이 늘어난 수치다. 공장은 지난해 말 준공됐지만, 아직 매출이 발생하지 않은 상태다. 반면 중국 난징 공장은 같은 기간 1조1000억 원 규모의 순이익을 기록했다. 동일한 기업의 생산 거점임에도 미국과 중국에서의 수익성이 극명하게 갈린 셈이다. 이러한 결과는
SK하이닉스, 최근 한화세미텍과 10대 규모의 TC 본더 장비 공급 계약 체결 AI 반도체 시대의 주역으로 부상한 HBM(High Bandwidth Memory)이 반도체 업계의 새로운 전선이 되고 있다. 연산 속도와 데이터 처리량을 혁신적으로 끌어올릴 수 있는 HBM은 엔비디아를 비롯한 글로벌 빅테크가 주목하는 핵심 부품이다. 이를 제조하기 위한 열압착 장비인 ‘TC 본더’의 공급망 안정화는 HBM 경쟁력 확보의 핵심 열쇠로 부상하고 있다. 최근 SK하이닉스가 기존 주력 장비사인 한미반도체 외에 한화세미텍을 추가 벤더로 확보하면서, 업계 전반에 미묘한 긴장감이 돌고 있다. 업계에 따르면, SK하이닉스는 최근 한화세미텍과 10대 규모의 TC 본더 장비 공급 계약을 체결했다. 총 계약 금액은 약 420억 원 수준으로 추정되며, 이는 HBM3E 12단 양산을 위한 핵심 설비로 활용될 전망이다. 그간 SK하이닉스는 HBM 생산 공정에 한미반도체의 TC 본더 장비를 전량 사용해 왔으나, 이번 계약을 계기로 이원화 전략을 본격화했다. SK하이닉스의 이번 결정은 단순한 벤더 추가가 아니라, 폭증하는 AI 반도체 수요에 유연하게 대응하기 위한 공급망 재편 시도다. 실제로
전체 매출의 약 80%, 7나노 이하 첨단 공정에서 창출할 것으로 기대해 미중 기술 패권 경쟁이 격화하고 글로벌 공급망이 흔들리는 가운데, TSMC는 정반대의 행보를 보이고 있다. 단기 불확실성에도 불구하고 첨단 공정 비중을 더욱 끌어올리겠다고 선언한 것이다. 불과 몇 년 전만 해도 7나노 공정은 업계 최첨단 기술로 여겨졌지만, TSMC는 2나노, 나아가 1.6나노 공정까지 가시화하며 기술 우위를 공고히 하려는 움직임을 본격화하고 있다. TSMC는 전체 매출의 70~80%를 7나노 이하 첨단 공정에서 창출할 것으로 기대한다. 이는 지난해 69%보다 확연히 증가한 수치다. 첨단 공정 수요를 견인할 핵심 기술로는 5G, 인공지능(AI), 고성능 컴퓨팅(HPC) 분야가 꼽힌다. 특히 올해 하반기에는 2나노 공정이 양산에 돌입할 예정이다. 여기에 더해 HPC 제품에 투입될 예정인 1.6나노급 A16 공정은 2026년 하반기 양산을 목표로 개발 중이다. 이 공정에는 업계 최고 수준으로 평가받는 BSPDN(후면전력공급) 기술이 적용될 예정이며, 이는 전력 효율성과 칩 설계 자유도를 획기적으로 높일 수 있는 기반 기술이다. TSMC의 이러한 기술 전략은 단순한 기술 경쟁
천마에 적용되는 고주파 신호발생 모듈 결합체 2종에 대한 연구개발확인서 발급받아 웨이비스가 단거리 지대공 미사일 체계인 '천마(K-31)'의 핵심 부품을 국산화하는 데 성공하며, 국내 방산 MRO(유지·보수·정비) 시장에 새로운 전기를 마련했다. 웨이비스는 국방기술진흥연구소가 주관한 부품 국산화 과제를 성공적으로 완료하고, 천마에 적용되는 고주파 신호발생 모듈 결합체 2종에 대한 연구개발확인서를 발급받았다고 21일 밝혔다. 해당 부품은 천마의 교전 능력에 직접적인 영향을 미치는 핵심 요소로, 기존에는 전량 수입에 의존하던 부품을 대체하는 데 의의가 크다. 천마는 현재 100기 이상이 육군에 실전 배치된 저고도 요격 미사일 체계로, 한반도 유사시 전략시설을 보호하는 데 중요한 역할을 담당하고 있다. 따라서 주요 부품의 국산화는 단순한 비용 절감 차원을 넘어, 공급망의 안정성과 정비 효율성 강화에 전략적 가치를 지닌다. 국방 무기체계는 평균 20년에서 길게는 40년까지 장기 운용되며, 이 기간 동안 지속적인 성능 개선과 정비가 필수적이다. 실제 무기체계 운영 비용 중 도입가는 3040% 수준에 불과하고, 유지·보수·정비 비용이 6070%를 차지한다. 이에 따라
젠슨 황, 수출규제에 부합하는 제품 최적화 나설 것 밝혀 미국 정부가 엔비디아의 AI 반도체 대중국 수출을 전방위로 제한한 가운데, 젠슨 황 엔비디아 CEO가 다시 중국을 찾았다. 지난 1월에 이어 약 3개월 만의 방중이다. 이번 방문은 미 상무부가 H20 칩의 수출 제한을 강화한 직후 이뤄져 업계의 주목을 받고 있다. 황 CEO는 17일 중국국제무역촉진위원회(CCPIT) 초청으로 베이징에 도착해 런훙빈 CCPIT 회장과 회담을 진행했다. 그는 “중국은 엔비디아에 매우 중요한 시장”이라며 “엔비디아는 앞으로도 중국과의 협력을 계속 이어가길 바란다”고 밝혔다. 미 정부의 규제가 자사 사업에 중대한 영향을 미쳤다고 인정하면서도, “규제에 부합하는 제품을 지속적으로 최적화하겠다”는 입장을 명확히 했다. 황 CEO는 베이징 인민대회당에서 허리펑 국무원 부총리도 만나 중국 시장의 전략적 중요성을 강조했다. 허 부총리는 “중국은 산업 혁신의 최적지며, 엔비디아를 비롯한 미국 기업의 활발한 활동을 환영한다”고 밝혔다. 이에 황 CEO는 “중국 경제에 긍정적인 기대를 갖고 있으며, 미중 협력의 가교 역할을 할 것”이라고 답했다. 이번 방중에서 황 CEO는 중국의 대표 AI
TSMC 웨이저자 이사회 의장, 인텔과의 협력 가능성에 대한 외신 보도에 정면으로 반박 TSMC가 최근 불거진 미국 인텔과의 합작 설립설을 공식 부인했다. 웨이저자 TSMC 이사회 의장은 1분기 실적 발표 후 열린 콘퍼런스콜에서 “TSMC는 현재 어떤 기업과도 합작회사 설립, 기술 라이선스, 기술 이전 및 공유에 대해 논의하고 있지 않다”고 선을 그었다. 이는 앞서 외신들이 보도한 인텔과의 협력 가능성을 정면으로 반박한 발언으로 해석된다. 정보기술(IT) 전문매체 디인포메이션은 이달 초, TSMC와 인텔이 인텔 파운드리 부문을 공동 운영할 합작법인 설립에 잠정 합의했다고 보도했다. 보도에 따르면 TSMC가 해당 합작법인 지분 20%를 보유하고, 인텔에 일부 제조기술을 공유하는 방안이 논의되고 있다고 알려졌다. 블룸버그 역시 지난 2월, 도널드 트럼프 전 미국 대통령의 압박 속에서 TSMC가 인텔 공장의 지배지분을 인수하는 방식의 협력을 검토 중이라는 보도를 내놓은 바 있다. 하지만 TSMC는 이번 콘퍼런스를 통해 이 같은 주장에 대해 명확히 부인하며 자체 비즈니스에 집중할 것임을 분명히 했다. 특히 대만 현지 언론들은 외국인 지분율이 70%를 넘는 TSMC
RNGD 기반 인프라 접근 개방 및 Llama 3.1 사전 컴파일 모델 기반 API도 추가 제공 예정 퓨리오사AI가 자체 개발한 2세대 AI 추론 가속기 ‘레니게이드(RNGD)’를 마이크로소프트 애저 마켓플레이스에 공식 등록하며, 글로벌 시장 확대에 본격 시동을 걸었다. 이번 조치는 LLM과 멀티모달 AI 추론 환경에 최적화된 고성능 인프라를 세계 수백만 애저 고객이 즉시 활용할 수 있는 길을 열었다는 점에서 주목된다. 레니게이드는 클라우드 중심 환경은 물론 온프레미스와 하이브리드 인프라에도 유연하게 적용 가능한 데이터센터용 AI 가속기로, 2023년 핫칩스(Hot Chips) 컨퍼런스에서 첫 공개된 이후 글로벌 반도체·AI 업계의 큰 관심을 받아왔다. 특히 수 분 내로 추론용 인프라를 배포할 수 있고, 수요에 따라 유연하게 확장 가능하며, 기존 애저 데이터 및 소프트웨어 스택과의 통합도 원활해 클라우드 기반 AI 모델 운영의 접근성과 효율성을 크게 높인 것이 특징이다. 이번 입점을 통해 퓨리오사AI는 애저 사용자에게 RNGD 기반 인프라 접근을 개방하고, 추후 Llama 3.1 사전 컴파일 모델 기반 API도 추가 제공할 계획이다. 기업 고객들은 이를 통해
GB200 NVL72, 고속 연산과 대용량 처리 환경이 필요한 차세대 워크로드에 최적화 엔비디아와 코어위브가 차세대 AI 모델 훈련과 추론의 속도를 대폭 끌어올릴 ‘GB200 NVL72’ 시스템을 상용화하며 본격적인 서비스에 돌입했다. 이번 발표를 통해 코어위브는 엔비디아 그레이스 블랙웰 아키텍처를 기반으로 한 AI 슈퍼컴퓨팅 시스템을 가장 먼저 온라인 상에서 고객에게 제공한 클라우드 서비스 기업으로 이름을 올렸다. GB200 NVL72는 총 72개의 블랙웰 GPU와 36개의 그레이스 CPU를 NV링크로 연결한 랙 스케일의 고성능 AI 컴퓨팅 플랫폼이다. 이는 AI 에이전트, 대규모 언어 모델, 영상 생성 모델 등 고속 연산과 대용량 처리 환경이 필요한 차세대 워크로드에 최적화한 설계로, 단일 인스턴스에서 최대 11만 개 GPU까지 확장이 가능한 네트워크 환경도 함께 제공한다. 이미 코히어, IBM, 미스트랄 AI 등 글로벌 AI 기업들이 GB200 NVL72를 기반으로 자사 모델을 훈련하고 추론하며 성능 향상 효과를 입증하고 있다. 코히어는 자사의 AI 플랫폼 ‘노스(North)’에서 블랙웰 기반 환경으로 전환한 후 1000억 개 파라미터 모델 훈련에서 기
마이크로칩테크놀로지는 자사의 방사선 내성강화 전력 모스펫(MOSFET) 제품군이 MIL-PRF-19500/746 슬래시 시트 규격을 충족했으며, 새로 개발된 JANSF2N8587U3 100V N채널 모스펫이 300 Krad(Si)의 총 이온화 선량(TID)을 견딜 수 있는 JANSF 인증을 획득했다고 18일 밝혔다. JANS(Joint Army-Navy Specification) 인증은 항공우주, 방위산업, 우주비행용 애플리케이션에 사용되는 디스크리트(discrete) 반도체의 우수한 성능, 품질 및 신뢰성을 보장하는 최고 수준의 검증 및 승인 규격을 의미한다. 마이크로칩의 JANS 시리즈 방사선 내성강화(RH, rad-hard) 전력 디바이스는 100~250V의 전압 범위와 100 Krad(Si) TID를 지원하며 JANSF2N7587U3모델을 시작으로 300 Krad(Si) TID 이상의 더 높은 방사선 내성강화 보증(RHA, Radiation Hardness Assurance) 등급으로 확장되고 있다. JANS 등급의 RH 전력 모스펫 다이는 MIL 인증을 받은 JANSR 다이를 사용한 플라스틱 패키지를 포함해 다양한 패키지 옵션으로 제공되며, 새로운
마우저 일렉트로닉스는 아나로그디바이스(이하 ADI) 및 암페놀과 협력해 항공 분야의 발전을 지원하는 첨단 연결 기술 및 반도체 디바이스의 핵심 역할을 조명한 새로운 전자책을 발간했다고 17일 밝혔다. ‘11명의 업계 전문가가 제시하는 전기 모빌리티와 항공의 미래‘라는 제목의 전자책에서 ADI와 암페놀 등 여러 기업의 항공우주 분야 엔지니어는 항공기의 전동화 및 기체 중량 감소를 비롯해 첨단 배터리 관리 및 전력분배 시스템을 통한 전력 사용 최적화 등 항공 분야의 주요 동향을 깊이 있게 다루고 있다. ADI와 암페놀은 이러한 목표 실현을 지원하는 포괄적인 솔루션을 제공하고 있다. ADI의 LTC7890 및 LTC7891은 최대 100V의 입력 전압에서 N-채널 동기식 GaN(gallium nitride) FET(field-effect transistor) 전력단을 구동할 수 있는 고성능 DC-DC 스위칭 레귤레이터 컨트롤러다. GaN 디바이스는 고전압 및 고온 애플리케이션에서 실리콘 대비 더욱 뛰어난 성능을 제공함으로써 항공기의 효율과 신뢰성을 향상시키는데 기여할 수 있다. ADI의 ADBMS6830B 다중셀 배터리 모니터는 최대 16개까지 직렬로 연결된 전기
에이디링크 테크놀로지는 인텔 코어 울트라 아키텍처와 풍부한 I/O 기능을 갖춘 소형 폼팩터 솔루션인 COM-HPC-mMTL를 출시한다고 17일 밝혔다. 이 모듈은 인텔 코어 울트라 아키텍처 기반으로 최대 14개의 CPU 코어, 8개의 Xe GPU 코어, 그리고 고성능 AI 가속을 위한 NPU를 통합해 초고성능과 에너지 효율성을 제공한다. 산업 자동화, 데이터 로거, UAV(무인 항공기), 휴대용 의료 초음파 장치, AI 기반 로봇 등 고성능 배터리 기반 애플리케이션에 최적화 됐다. Alex Wang 시니어 제품 매니저는 “COM-HPC-mMTL은 단순한 임베디드 모듈이 아니다. 매우 작은 사이즈의 폼팩터에서 뛰어난 성능과 효율성을 제공하며 엣지 컴퓨팅의 가능성을 새롭게 정의한다”고 말했다. OM-HPC-mMTL은 최대 64GB LPDDR5x 메모리가 보드에 직접 솔더링되어 7467MT/s 속도로 최상의 성능과 효율성을 제공한다고 에이디링크는 강조했다. 컴팩트한 95mm x 70mm 크기로 공간이 제한된 환경에서도 쉽게 통합 가능하며 -40°C~85°C의 견고한 동작 온도 범위를 지원한다. 아울러 16x PCIe 레인, 2개의 SATA 인터페이스, 2개의 2.
기존 베이스 모델 대비 최대 4.3배 빠른 추론 속도 제공 AMD가 생성형 AI 시장 확대를 겨냥해 스테빌리티AI(Stability AI)와 공동 엔지니어링 파트너십을 맺고, 새로운 AI 경험을 제공하는 ‘어뮤즈 3.0(Amuse 3.0)’과 AMD 최적화 스테이블 디퓨전(Stable Diffusion) 모델을 공식 발표했다. 이를 통해 AMD는 라이젠 AI(Ryzen AI) 및 라데온(Radeon) GPU 환경에서 생성형 AI의 성능 체감을 획기적으로 끌어올리겠다는 전략을 구체화했다. 어뮤즈 3.0은 AMD의 하드웨어 아키텍처에 최적화한 AI 모델을 기본 탑재해 최신 드라이버와 조합 시 기존 베이스 모델 대비 최대 4.3배 빠른 추론 속도를 제공한다. 특히 CPU와 GPU를 동시에 활용할 수 있는 AMD의 하드웨어 생태계를 적극 활용해 경량 AI부터 복잡한 멀티모달 생성까지 폭넓은 성능을 확보할 수 있도록 설계됐다. 이번 업데이트의 핵심은 텍스트를 기반으로 동영상을 생성하는 ‘비디오 디퓨전(Video Diffusion)’과, 기존 영상을 스타일 전환해 재창조하는 ‘비디오 리스타일(Video Restyle)’ 기능이다. 이를 통해 생성형 AI가 더 이상 정적