버티브가 차세대 AI 팩토리 구현을 가속화하기 위해 엔비디아와 추진 중인 협력에서 의미 있는 성과를 거뒀다고 밝혔다. 버티브는 800VDC 전력 아키텍처에 대한 설계 성숙도를 공개하며, 2025년 5월 발표한 전략적 협력 관계를 기반으로 ‘유닛 오브 컴퓨트(Unit of Compute)’ 전략의 핵심이 되는 플랫폼 설계를 한층 고도화했다. 이번 단계는 개념 설계를 넘어 실제 엔지니어링 구현이 가능한 수준으로 발전한 것으로, 버티브의 800VDC 전력 포트폴리오는 2026년 하반기 출시를 목표로 개발 중이며, 2027년 공개 예정인 엔비디아 루빈 울트라(NVIDIA Rubin Ultra) 플랫폼을 지원할 예정이다. 데이터센터 산업은 지금 중대한 전환점에 놓여 있다. 기존의 킬로와트(kW)급 랙 기반 54VDC 인랙(in-rack) 분배 구조는 가속 컴퓨팅 시대의 메가와트(MW)급 전력 수요를 충족하기 어렵다. 이에 따라 버티브와 엔비디아는 에너지 저장 장치가 통합된 확장형 버티브 800VDC 시스템을 공동 개발하고 있으며, 대규모 동기식 AI 및 고성능 컴퓨팅(HPC) 워크로드에 최적화된 AI 팩토리의 기반을 구축하고 있다. 버티브는 현재 중앙 정류기(rect
인공지능(AI) 워크로드와 고성능 컴퓨팅(HPC) 애플리케이션이 폭발적으로 성장함에 따라 초고속 데이터 전송과 초저지연 연결에 대한 요구가 높아지고 있다. 이에 마이크로칩테크놀로지는 업계 최초로 3나노미터(3nm) 공정으로 제작된 PCIe Gen 6 스위치 ‘Switchtec Gen 6’ 제품군을 공개했다. 새로운 Switchtec Gen 6 스위치는 전력 효율과 보안, 그리고 연결 밀도를 모두 강화한 차세대 솔루션으로, 최대 160레인을 지원해 AI 및 데이터센터 인프라의 고밀도 연결을 가능하게 한다. 또한 하드웨어 루트 오브 트러스트와 보안 부팅 기능을 내장하고, CNSA 2.0(Commercial National Security Algorithm Suite 2.0)을 준수하는 포스트 퀀텀 안전 암호 기술을 채택해 보안성을 한층 높였다. PCIe 6.0 표준은 PCIe 5.0 대비 두 배에 달하는 레인당 64GT/s의 대역폭을 제공해, AI 액셀러레이터와 GPU, CPU 간 데이터 병목을 최소화하고 전송 효율을 극대화한다. Switchtec Gen 6 스위치는 CPU, GPU, SoC, AI 가속기, 스토리지 간의 고속 연결을 구현해 데이터센터 설계자들이
텍사스 인스트루먼트(TI)는 증가하는 인공지능(AI) 연산 수요에 대응하기 위해 12V에서 48V, 800VDC까지 확장 가능한 새로운 전력 관리 아키텍처와 반도체 솔루션을 발표했다. 이번 솔루션은 10월 13일부터 16일까지 미국 캘리포니아 새너제이에서 열리는 오픈 컴퓨트 서밋(OCP)에서 공개된다. TI는 첨단 AI 데이터센터의 성장을 지원하기 위한 새로운 전력 공급 프레임워크를 제시하며, 백서 ‘첨단 AI 컴퓨팅 성장을 대비한 전력 공급의 트레이드오프’를 통해 엔비디아와 협력한 800VDC 전력 인프라 지원 방향을 공개했다. 향후 2~3년 내 IT 랙 전력이 1MW를 초과할 것으로 전망되는 가운데, TI는 고효율·고전력 밀도 에너지 변환을 실현하기 위한 새로운 시스템 수준의 전력 공급 구조와 설계 과제를 제시했다. 또한 TI는 이번 발표에서 고부하 AI 워크로드를 위한 30kW AI 서버 전원 공급 유닛(PSU) 설계를 함께 선보였다. 듀얼 스테이지 전원 공급장치 레퍼런스 설계는 3상 3레벨 플라잉 커패시터 역률 보정(PFC) 컨버터와 듀얼 델타-델타 3상 인덕터-인덕터-커패시터(LLC) 컨버터로 구성돼 있으며, 단일 800V 출력은 물론 분리형 출력
API 보안 및 관리 전문기업 위베어소프트가 중소벤처기업부가 주관하고 경기창조경제혁신센터가 운영하는 ‘2025 창업도약패키지(딥테크 분야)’ 지원사업에 최종 선정됐다. 이번 협약 체결로 위베어소프트는 정부의 기술 성장 지원을 기반으로 AI·데이터 인프라 고도화에 속도를 낼 전망이다. ‘창업도약패키지’는 기술 중심 스타트업의 성장을 지원하는 대표적인 정부 프로그램으로, 특히 ‘딥테크 분야’는 고난도 기술을 보유한 기업들의 사업화 및 시장 진출을 집중적으로 육성하는 것이 특징이다. 이번 선정은 위베어소프트의 기술 경쟁력과 시장 확장 가능성을 공식적으로 인정받은 결과로 평가된다. 위베어소프트는 독자 개발한 고성능 API 관리 솔루션 ‘OSORI APIM’을 핵심으로, 공공 및 민간 부문의 데이터 자산을 효율적으로 통합·관리하는 기술력을 갖춘 기업이다. ‘OSORI APIM’은 기업이 자사 데이터를 안전하게 API화하고, 외부 시스템과 유연하게 연동할 수 있도록 지원한다. 최근 AI 산업의 폭발적인 성장 속에서 API 관리 기술은 AI 모델 학습과 서비스 구현의 핵심 인프라로 부상하고 있으며, 위베어소프트는 이 분야에서 국내 대표 기술 기업으로 자리매김하고 있다.
AMD가 보안 중심 엔터프라이즈 AI 기업 코히어(Cohere)와 글로벌 협력을 확대한다고 24일 밝혔다. 이번 협력 강화로 코히어 고객들은 ‘커맨드 A(Command A)’, ‘커맨드 A 비전’, ‘커맨드 A 번역 모델’, ‘노스(North)’ 등 주요 AI 제품군을 AMD 인스팅트(Instinct) GPU 기반 인프라에서 활용할 수 있다. 이를 통해 전 세계 기업과 소버린 AI 프로젝트는 성능과 총 소유 비용(TCO) 측면에서 더 많은 선택지를 확보하게 된다. AMD는 코히어의 노스 플랫폼을 자사 내부 엔터프라이즈 AI 포트폴리오에 통합할 계획도 밝혔다. 이에 따라 코히어의 기술은 AMD 내부와 엔지니어링 AI 워크로드에서 핵심적으로 활용될 예정이다. 닉 프로스트 코히어 공동 설립자는 “AMD 인스팅트 GPU에서 코히어 모델과 노스를 사용할 수 있게 되면서 협력 관계가 한층 확대됐다”며 “공공과 민간 고객들이 우리의 보안 최적화 AI 제품군을 AMD 인프라에서 실행하면 훨씬 더 큰 유연성을 얻게 될 것”이라고 말했다. 그는 “AMD는 AI 인프라를 통해 매력적인 TCO를 제공하기 때문에 전 세계 소버린 AI 프로젝트에서 중요한 선택지가 될 것”이라고 덧붙
아우라 세미컨덕터 Vcore 기술 인수...전력 관리 로드맵 확장 온세미가 아우라 세미컨덕터(Aura Semiconductor)의 Vcore 전력 기술과 지식재산권(IP) 라이선스 관련 권리를 인수하는 계약을 체결했다고 25일 밝혔다. 이번 인수를 통해 온세미는 전력 관리 포트폴리오를 보강하고, AI 데이터센터 애플리케이션의 전력 수요에 대응하기 위한 ‘그리드부터 코어까지(From Grid to Core)’ 파워 트리 비전을 가속화할 계획이다. 수디르 고팔스와미 온세미 인텔리전트 센싱 및 아날로그·믹스 시그널 그룹 사장은 “이번 인수는 미래 데이터센터의 에너지와 효율성 요구를 해결하기 위한 전략적 조치”라며 “Vcore 기술을 온세미의 전력 관리 포트폴리오에 통합해 전력 밀도, 효율성, 열 관리 성능을 높이고 랙 단위 연산 용량을 확장할 것”이라고 말했다. 온세미는 실리콘 및 실리콘 카바이드(SiC) 기반 전력 반도체 분야에서 수십 년간 축적한 경험을 바탕으로 ▲솔리드 스테이트 변압기 ▲전원 공급 장치 ▲800V DC 배전 ▲코어 전력 공급 등 다양한 솔루션을 제공해왔다. 이번 기술 인수는 이러한 기존 포트폴리오에 통합돼 확장 가능한 설계를 기반으로 한 차세
슈나이더 일렉트릭이 엔비디아(NVIDIA)와 공동으로 개발한 차세대 AI 데이터센터 레퍼런스 디자인을 발표했다. 이번 발표는 AI 인프라의 신속한 배치와 효율적인 운영을 지원하고, 데이터센터 운영자들이 급격히 늘어나는 AI 워크로드 수요에 대응할 수 있도록 돕는 것이 목적이다. AI 수요가 확대됨에 따라 데이터센터 운영자들은 고밀도 GPU 클러스터 배치 과정에서 전력과 냉각, 운영 효율성 문제를 동시에 해결해야 한다. 슈나이더 일렉트릭은 검증된 물리적 인프라 설계를 제공해 운영자들이 최신 AI 인프라 솔루션 출시 전부터 차세대 전력 및 수랭식 제어 인프라를 준비할 수 있도록 지원한다. 슈나이더 일렉트릭이 공개한 첫 번째 레퍼런스 디자인은 업계 최초로 전력 관리와 액체 냉각 제어를 통합한 시스템 프레임워크다. 여기에는 슈나이더 일렉트릭이 인수한 모티브에어(Motivair)의 리퀴드쿨링 포트폴리오가 포함돼 복잡한 AI 인프라 구성 요소를 효율적으로 관리할 수 있다. 또한 MQTT 기반 ‘플러그 앤 플레이’ 아키텍처를 도입해 OT 인프라와 IT 시스템을 통합, 운영자가 두 시스템의 데이터를 실시간으로 활용할 수 있도록 했다. 엔비디아의 AI 팩토리 운영 소프트웨어
엔비디아가 인텔과 전략적 협력을 발표했다. 양사는 하이퍼스케일, 엔터프라이즈, 소비자 시장 전반의 애플리케이션과 워크로드를 가속화하기 위해 맞춤형 데이터센터와 PC 제품을 공동 개발한다. 이번 협력은 엔비디아 NV링크(NVIDIA NVLink)를 기반으로 양사의 아키텍처를 원활히 연결하는 데 중점을 둔다. 이를 통해 엔비디아의 AI 및 가속 컴퓨팅 역량과 인텔의 CPU 기술, x86 생태계를 결합해 차세대 고객 솔루션을 제공하는 것이 목표다. 데이터센터 분야에서는 인텔이 엔비디아 맞춤형 x86 CPU를 제작하고 엔비디아는 이를 자사 AI 인프라 플랫폼에 통합해 시장에 선보인다. 개인용 컴퓨팅 분야에서는 인텔이 엔비디아 RTX GPU 칩렛을 결합한 x86 시스템 온 칩(SoC)을 개발한다. 이 제품은 CPU와 GPU의 통합 성능을 요구하는 다양한 PC에 탑재될 예정이다. 엔비디아는 이번 협력의 일환으로 인텔 보통주에 50억 달러를 투자한다고 밝혔다. 매입가는 주당 23.28달러이며 거래는 규제 당국 승인 등 조건 충족 시 최종 성사된다. 젠슨 황 엔비디아 CEO는 "AI는 새로운 산업 혁명을 주도하며 실리콘부터 시스템, 소프트웨어에 이르기까지 컴퓨팅 스택의 모
기존 모델 대비 20배 빠른 속도·절반 크기 혁신 구현 0.03nm 파장 분해능·넓은 측정범위로 정밀시험 지원 한국요꼬가와전기가 광 디바이스 및 광 모듈 생산 시험 시장을 겨냥한 신형 광 스펙트럼 분석기(OSA) ‘AQ6361’을 선보였다. 이번 신제품은 데이터센터 확장과 AI 기술 확산으로 급증하는 광 디바이스 수요에 대응하기 위한 전략적 제품이다. 최근 레이저 다이오드, 광 트랜시버, 광 증폭기 등 고성능 광 부품의 시장 수요가 빠르게 늘면서 생산 현장에서는 보다 정밀하고 효율적인 측정 솔루션이 필요해졌다. 특히, 측정 속도와 공간 효율성은 기업들이 경쟁력을 확보하는 데 중요한 요소로 부각되고 있다. ‘AQ6361’은 기존 베스트셀러 모델 ‘AQ6370E’를 기반으로 성능을 대폭 향상시켰다. 측정 속도는 최대 20배 빨라졌으며, 본체 크기는 절반 이하로 줄여 협소한 공간에서도 최적의 설치 환경을 제공한다. 이와 같은 고속 측정과 소형화는 복잡해지는 광 모듈 생산 라인에서 작업 효율과 공간 활용도를 크게 높여준다. 또한 0.03nm의 높은 파장 분해능, 1200~1700nm의 넓은 측정 범위, 73dB 수준의 우수한 미광 억제 성능을 갖춰 다양한 광 디바이
디노티시아가 기업용 벡터 데이터베이스 SaaS 플랫폼 ‘씨홀스 클라우드(Seahorse Cloud) 2.0’을 공식 출시했다. 이번 신제품은 AI 도입 과정에서 기업들이 직면하는 복잡한 개발 및 운영 절차를 간소화하고, 맞춤형 AI 에이전트 구축을 가능하게 하는 데 초점을 맞췄다. 지난해 선보인 ‘씨홀스 클라우드 1.0’은 국내 최초로 벡터 데이터베이스를 클라우드 기반 완전 관리형(All-in-One SaaS) 형태로 제공하며 주목을 받았다. 당시 도입된 MCP(Model Context Protocol) 기반 RAGOps(Retrieval-Augmented Generation Operations)는 클릭 몇 번만으로 벡터DB와 RAG 환경을 손쉽게 구축할 수 있도록 해 기업의 AI 전환 문턱을 낮췄다. 이번에 공개된 ‘씨홀스 클라우드 2.0’은 ‘AgentOps(에이전트옵스)’라는 새로운 기능을 중심에 두고 있다. 기업은 이를 활용해 단순한 챗봇 수준을 넘어 맞춤형 AI 에이전트를 직접 설계하고 운영할 수 있다. 사용자는 LLM 설정, 벡터 데이터베이스, 스토리지, 외부 MCP 툴 등을 자유롭게 연동해 원하는 형태의 에이전트를 구성할 수 있으며, 소스코드 분
한국 AI 기업들이 글로벌 무대에서 기술 경쟁력을 다시 한번 입증했다. 글로벌 시장 조사기관 CB 인사이트가 발표한 ‘AI 에이전트 기술 스택을 구성하는 135개 유망 기업’에 국내 기업 디노티시아, 베슬AI, 업스테이지가 선정된 것이다. 이번 발표는 전 세계 AI 주도권 경쟁이 치열해지는 가운데, 한국 기업들이 글로벌 기술 생태계 속에서 의미 있는 위치를 차지하고 있음을 보여준다. CB 인사이트는 자체적으로 확보한 정량 지표와 모자이크 점수를 기반으로 이번 리스트를 작성했다. 모자이크 점수는 기업의 재무 상태, 제품 혁신력, 시장 반응, 투자 유치 내역 등을 종합 평가하는 지표로, 기술력뿐만 아니라 성장 잠재력까지 함께 고려된다. 디노티시아는 ‘컨텍스트’ 영역의 ‘벡터 데이터베이스’ 분야에 이름을 올렸다. 벡터 데이터베이스는 의미 기반 검색을 통해 AI 에이전트가 사용자 질의를 맥락적으로 이해하고 응답할 수 있도록 돕는 핵심 기술이다. 디노티시아는 높은 정밀도와 확장성을 갖춘 검색 기술로 경쟁력을 인정받았다. 베슬AI는 ‘AI 파운데이션 모델 및 인프라’ 영역에서 ‘모델 배포 및 서빙’ 분야에 포함됐다. 이는 대규모 언어모델을 실제 서비스에 적용하기 위한
퓨리오사AI가 글로벌 무대에서 다시 한번 기술력을 입증했다. 12일 열린 오픈AI 코리아 개소식 행사에서 퓨리오사AI는 자사 2세대 반도체 ‘RNGD’로 초거대 언어모델을 구동하는 시연을 진행하며 국내외 업계의 주목을 받았다. 행사에는 국내 AI 업계 관계자 300여 명이 참석해 현장을 가득 메웠다. 시연의 핵심은 오픈AI가 공개한 오픈 소스 기반 파운데이션 모델 ‘gpt-oss 120B’를 단 두 장의 RNGD로 실시간 구동해낸 점이다. gpt-oss 120B는 세계 최고 수준의 오픈 소스 언어모델로, Mixture-of-Experts(MoE) 구조를 적용해 성능과 효율성을 동시에 확보한 것으로 평가받는다. 그동안 초거대 모델 구동에는 막대한 전력과 비용이 소요된다는 한계가 있었지만, 퓨리오사AI는 이를 효율적으로 해결할 수 있음을 실제 시연으로 증명했다. 특히 RNGD의 높은 연산 성능과 전력 효율은 gpt-oss와 같은 대규모 모델을 안정적으로 운영할 수 있도록 지원한다. 이는 AI 인프라 시장에서 가장 큰 과제로 꼽히는 ‘비용과 전력 문제’를 해결할 수 있는 실질적 대안으로 평가된다. 업계 전문가들은 이번 시연을 통해 퓨리오사AI가 글로벌 AI 반도체
래블업이 미국에서 열리는 ‘AI Infra Summit 2025’에 참가해 AI 인프라 운영의 미래를 제시했다. 이번 행사는 전 세계 3500여 명의 AI 전문가와 100여 개 파트너사가 모이는 글로벌 최대 규모의 AI 인프라 컨퍼런스로, 하드웨어부터 데이터센터, 엣지 컴퓨팅까지 최신 기술 동향이 집중적으로 다뤄졌다. 래블업은 이번 행사에서 자사의 AI 네이티브 플랫폼 ‘AI:DOL(AI Deployable Omnimedia Lab)’ 베타 버전을 첫 공개했다. AI:DOL은 Backend.AI Core와 PALI 기반 백엔드 서비스를 결합한 생성형 AI 개발 플랫폼으로, 웹 브라우저만으로 접근이 가능해 초보자부터 숙련된 개발자까지 손쉽게 다양한 오픈모델을 활용할 수 있도록 설계됐다. 특히 AI:DOL은 Backend.AI Continuum을 통해 온프레미스와 클라우드 자원을 완전히 통합해 사용자가 직접 서빙하는 모델을 기반으로 내부 및 외부 클라이언트 대상 AI 애플리케이션을 개발·배포할 수 있다. 현재는 채팅 중심의 기능을 제공하지만, 향후 이미지와 비디오 생성, AI 코딩까지 확장해 포괄적 AI 개발 생태계로 발전시킬 계획이다. 래블업은 또한 Backe
레노버가 AI 시대를 맞아 기업 IT 전환 가속화를 위해 ‘레노버 하이브리드 AI 어드밴티지(Lenovo Hybrid AI Advantage)’를 확장했다. 이번 확장을 통해 레노버는 고성능 서버 기반의 가속 컴퓨팅, 네트워킹, 파트너 통합 기능을 갖춘 AI 인프라를 바탕으로 기업이 AI 팩토리를 구축·확장·운영할 수 있도록 지원하는 프레임워크를 제공한다. 새롭게 검증된 솔루션과 서비스, 플랫폼은 기업이 환경에 맞춰 적합한 AI를 빠르게 배포할 수 있도록 지원하며 생산성과 민첩성, 신뢰성을 기반으로 한 비즈니스 가치 실현을 가능하게 한다. 레노버의 ‘글로벌 CIO 플레이북’에 따르면 전 세계 조직의 3분의 2는 여전히 AI 투자에 따른 수익을 실현하지 못하고 있으며, 교육과 도입 과정의 부족, 기술 격차로 효과적인 확장에 어려움을 겪고 있다. 2025년까지 AI 예산이 세 배 가까이 증가해 전체 IT 예산의 약 20%를 차지할 것으로 전망되는 가운데, 기업 IT는 인프라 효율성과 성능, 확장성을 강화해 투자수익 실현이 가능한 구조로 전환해야 한다. 애슐리 고라크푸르왈라 레노버 인프라스트럭처 솔루션 그룹(ISG) 사장은 “레노버는 통합 솔루션 전반에서 혁신을
씨이랩이 GPU 관리 솔루션 ‘아스트라고(AstraGo)’로 소프트웨어 품질을 인증받았다. 씨이랩은 25일 아스트라고가 소프트웨어 품질 국가인증 ‘GS(Good Software) 1등급’을 획득했다고 밝혔다. GS 인증은 소프트웨어의 기능, 사용성, 호환성, 신뢰성, 보안성 등 품질을 국가 표준으로 검증하는 제도다. 아스트라고는 모든 평가 항목에서 최고 수준을 충족해 1등급을 받았다. AI 개발 확산으로 GPU 인프라 수요가 늘어나면서 공공·연구기관을 중심으로 GPU 활용률 저하와 보안 운영 부담이 커지고 있다. 정부도 2027년 국가 AI 컴퓨팅센터 가동을 시작으로 2030년까지 GPU 인프라 확충을 추진하고 있다. 공공부문에서 GS 인증은 조달 신뢰도와 우선구매 평가에 중요한 기준으로 작용한다. 아스트라고는 GPU 자원을 효율적으로 운영하는 솔루션이다. GPU 스케줄러와 리소스 최적화 기능을 통해 GPU 자원을 자동 분할·할당해 활용률을 50% 이상 높이고, 사용자 설정 없이 AI 인프라 환경을 빠르게 구축할 수 있다. 이를 통해 AI 프로젝트 속도와 협업 효율성을 개선한다. 씨이랩은 지난 3월 아스트라고를 업그레이드해 보안성을 강화했다. 컨테이너 및 A