래블업이 미국에서 열리는 ‘AI Infra Summit 2025’에 참가해 AI 인프라 운영의 미래를 제시했다. 이번 행사는 전 세계 3500여 명의 AI 전문가와 100여 개 파트너사가 모이는 글로벌 최대 규모의 AI 인프라 컨퍼런스로, 하드웨어부터 데이터센터, 엣지 컴퓨팅까지 최신 기술 동향이 집중적으로 다뤄졌다. 래블업은 이번 행사에서 자사의 AI 네이티브 플랫폼 ‘AI:DOL(AI Deployable Omnimedia Lab)’ 베타 버전을 첫 공개했다. AI:DOL은 Backend.AI Core와 PALI 기반 백엔드 서비스를 결합한 생성형 AI 개발 플랫폼으로, 웹 브라우저만으로 접근이 가능해 초보자부터 숙련된 개발자까지 손쉽게 다양한 오픈모델을 활용할 수 있도록 설계됐다. 특히 AI:DOL은 Backend.AI Continuum을 통해 온프레미스와 클라우드 자원을 완전히 통합해 사용자가 직접 서빙하는 모델을 기반으로 내부 및 외부 클라이언트 대상 AI 애플리케이션을 개발·배포할 수 있다. 현재는 채팅 중심의 기능을 제공하지만, 향후 이미지와 비디오 생성, AI 코딩까지 확장해 포괄적 AI 개발 생태계로 발전시킬 계획이다. 래블업은 또한 Backe
레노버가 AI 시대를 맞아 기업 IT 전환 가속화를 위해 ‘레노버 하이브리드 AI 어드밴티지(Lenovo Hybrid AI Advantage)’를 확장했다. 이번 확장을 통해 레노버는 고성능 서버 기반의 가속 컴퓨팅, 네트워킹, 파트너 통합 기능을 갖춘 AI 인프라를 바탕으로 기업이 AI 팩토리를 구축·확장·운영할 수 있도록 지원하는 프레임워크를 제공한다. 새롭게 검증된 솔루션과 서비스, 플랫폼은 기업이 환경에 맞춰 적합한 AI를 빠르게 배포할 수 있도록 지원하며 생산성과 민첩성, 신뢰성을 기반으로 한 비즈니스 가치 실현을 가능하게 한다. 레노버의 ‘글로벌 CIO 플레이북’에 따르면 전 세계 조직의 3분의 2는 여전히 AI 투자에 따른 수익을 실현하지 못하고 있으며, 교육과 도입 과정의 부족, 기술 격차로 효과적인 확장에 어려움을 겪고 있다. 2025년까지 AI 예산이 세 배 가까이 증가해 전체 IT 예산의 약 20%를 차지할 것으로 전망되는 가운데, 기업 IT는 인프라 효율성과 성능, 확장성을 강화해 투자수익 실현이 가능한 구조로 전환해야 한다. 애슐리 고라크푸르왈라 레노버 인프라스트럭처 솔루션 그룹(ISG) 사장은 “레노버는 통합 솔루션 전반에서 혁신을
씨이랩이 GPU 관리 솔루션 ‘아스트라고(AstraGo)’로 소프트웨어 품질을 인증받았다. 씨이랩은 25일 아스트라고가 소프트웨어 품질 국가인증 ‘GS(Good Software) 1등급’을 획득했다고 밝혔다. GS 인증은 소프트웨어의 기능, 사용성, 호환성, 신뢰성, 보안성 등 품질을 국가 표준으로 검증하는 제도다. 아스트라고는 모든 평가 항목에서 최고 수준을 충족해 1등급을 받았다. AI 개발 확산으로 GPU 인프라 수요가 늘어나면서 공공·연구기관을 중심으로 GPU 활용률 저하와 보안 운영 부담이 커지고 있다. 정부도 2027년 국가 AI 컴퓨팅센터 가동을 시작으로 2030년까지 GPU 인프라 확충을 추진하고 있다. 공공부문에서 GS 인증은 조달 신뢰도와 우선구매 평가에 중요한 기준으로 작용한다. 아스트라고는 GPU 자원을 효율적으로 운영하는 솔루션이다. GPU 스케줄러와 리소스 최적화 기능을 통해 GPU 자원을 자동 분할·할당해 활용률을 50% 이상 높이고, 사용자 설정 없이 AI 인프라 환경을 빠르게 구축할 수 있다. 이를 통해 AI 프로젝트 속도와 협업 효율성을 개선한다. 씨이랩은 지난 3월 아스트라고를 업그레이드해 보안성을 강화했다. 컨테이너 및 A
메타가 구글과 6년간 100억 달러(약 14조 원) 이상 규모의 클라우드 컴퓨팅 계약을 체결한 것으로 알려졌다. 디인포메이션은 21일(현지시간) 복수의 소식통을 인용해 이 소식을 전하며, 이번 계약이 구글 클라우드 17년 역사상 가장 큰 규모의 계약 중 하나라고 평가했다. 메타는 이번 계약을 통해 구글 클라우드의 서버와 데이터 저장 스토리지, 네트워킹, 그리고 기타 클라우드 서비스를 활용하게 된다. 특히 구글 데이터센터에서 운영되는 엔비디아 GPU에 대한 접근 권한도 포함된 것으로 전해져, 메타의 AI 연구와 서비스 확장에 큰 힘이 될 전망이다. 마크 저커버그 메타 최고경영자(CEO)는 최근 수천억 달러 규모의 투자를 통해 인공지능(AI) 컴퓨팅 역량을 강화하겠다고 밝힌 바 있다. 메타는 자체 데이터센터를 지속적으로 확장하는 동시에, 주요 클라우드 기업으로부터 서버를 임차해 활용하는 ‘멀티 클라우드’ 전략을 병행하고 있다. 실제로 미주리주 캔자스시티에 10억 달러를 투자해 신규 데이터센터를 오픈했으며, 아마존웹서비스(AWS), 마이크로소프트 애저(Azure), 오라클, 코어위브와도 서버 임차 계약을 맺고 있다. 이번 계약은 구글이 자사의 핵심 경쟁자와도 전략
배스트 데이터(VAST Data)가 SK텔레콤과 협력해 엔비디아 블랙웰(NVIDIA Blackwell) GPU 기반의 국내 최대 규모 AI 인프라 최적화에 나섰다. SK텔레콤은 통신 기업에서 AI 기업으로 전환을 가속화하고 있으며 이번 협력은 국가 차원의 AI 학습과 추론 수요를 충족하기 위한 핵심 프로젝트다. 양사가 함께 구축하는 ‘해인(Haein) 클러스터’는 GPU-as-a-Service(GPUaaS) 환경을 위해 설계된 차세대 AI 인프라로, 과학기술정보통신부의 'AI 컴퓨팅 자원 활용 기반 강화(GPU 임차 지원) 사업'에 선정됐다. SK텔레콤은 자사 네트워크 및 데이터 센터 인프라에 배스트의 VAST AI OS를 결합해 인프라 전 구간을 가상화했으며 보안성과 유연성을 확보한 GPUaaS 환경을 제공하고 있다. 이를 통해 AI 모델 개발과 배포가 대한민국 주권 영토 내에서 이루어질 수 있도록 지원한다. 기존 베어메탈 기반 인프라는 새로운 워크로드 프로비저닝에 며칠 이상 소요되는 병목 현상을 초래했지만, SK텔레콤은 배스트 데이터의 가상화 인프라 스택 ‘페타서스 AI 클라우드(Petasus AI Cloud)’ 구축으로 문제를 해소했다. 해당 환경은 베
뤼튼테크놀로지스(이하 뤼튼)가 퓨리오사AI와 전략적 업무협약(MOU)을 체결하고, ‘전 국민 AI 역량 강화’와 고성능 AI 추론 인프라 구축에 공동 대응한다. 양사는 AI 기술의 실용적 보급이라는 공통 목표 아래, AI 대중화와 국가 AI 경쟁력 제고를 위한 협력에 본격 착수한다. 이번 협약은 국내 AI 인프라와 서비스 분야에서 각각 빠르게 성장 중인 두 기업의 맞손이라는 점에서 의미가 깊다. 퓨리오사는 최근 2세대 AI 추론 가속기 ‘레니게이드(RNGD)’를 LG AI연구원 ‘엑사원’에 공급하며, 엔비디아의 대안으로서 입지를 넓히고 있다. 뤼튼은 월간 이용자 수 500만 명 이상을 확보한 국내 대표 생성형 AI 서비스 플랫폼으로, 지난 3월에는 1080억 원 규모의 시리즈B 투자 유치도 마무리했다. 협약에 따라 뤼튼은 퓨리오사의 레니게이드 기반 추론 인프라를 서비스 환경에 도입해, 대규모 사용자에게 안정적이고 고성능의 AI 서비스를 제공할 계획이다. 퓨리오사는 실사용 기반에서 하드웨어의 성능과 효율성을 입증하며, AI 가속기의 범용성과 경쟁력을 높이는 계기로 삼는다. 이를 통해 양사는 AI 인프라와 서비스 전반에서 시너지를 창출하며 국내 AI 생태계의 기
파네시아가 AI 인프라 설계에 대한 기술 비전을 담은 백서 ‘AI 인프라 혁신의 중심, 메모리∙링크 중심의 연결 반도체와 데이터센터 연결 솔루션’을 공개했다. 이번 백서는 컴퓨트익스프레스링크(CXL)를 중심으로 NVLink, UALink, 고대역폭메모리(HBM) 등 차세대 연결 기술과 메모리 기술을 활용해 AI 인프라의 병목을 해소하고자 하는 전략을 구체적으로 담고 있다. 백서는 크게 세 가지 파트로 구성됐다. 첫 번째 파트에서는 챗봇, 이미지 생성, 시계열 데이터 처리 등 최근 활용도가 급증한 시퀀스 기반 AI 모델의 구조와 흐름을 설명하며, 현재 데이터센터 인프라 구조가 가진 문제점을 짚었다. 특히, GPU 간 동기화 과정에서 발생하는 통신 오버헤드와 고정된 자원 구조로 인한 비효율성을 핵심 한계로 지적했다. 이에 대한 해결책으로 두 번째 파트에서는 CXL 기반의 컴포저블(composable) 구조를 제안한다. 파네시아는 자체 CXL 설계 자산(IP)과 스위치 솔루션을 기반으로 실제 프로토타입을 개발하고, AI 응용에서의 가속 효과를 검증했다. CXL을 활용하면 캐시 일관성을 자동 보장하면서 통신 부하를 줄이고, 고정된 자원 구조에서 벗어난 유연한 확장이
AI 인프라 투자 확대 기조에 맞춰 씨이랩이 자사의 GPU 기반 솔루션과 디지털 트윈 기술을 앞세워 사업 확장에 나선다. 씨이랩은 24일 온라인 비전설명회를 통해 향후 성장 전략을 발표하고, 정부의 대규모 AI 인프라 투자를 계기로 GPU 솔루션과 산업특화형 AI 기술 수요에 적극 대응하겠다고 밝혔다. 정부는 오는 2025년부터 5년간 약 100조 원 규모의 예산을 AI 데이터센터, GPU 서버, 스마트 안전 시스템 등에 투입할 예정이며, 이로 인해 약 5만 대 이상의 GPU 서버 수요가 발생할 것으로 전망된다. 씨이랩은 이 같은 흐름에 맞춰 GPU 인프라 관리 솔루션 'AstraGo(아스트라고)'를 주력으로 내세우고 있다. AstraGo는 GPU 자원의 자동 분배와 작업 스케줄링 효율을 극대화해 서버 관리 비용을 50% 이상 절감할 수 있는 것이 특징이다. 영상 기반 AI 기술 역시 씨이랩의 주요 사업축이다. 자사의 실시간 AI 영상 분석 솔루션 'XAIVA(엑스아이바)'는 CCTV 기반 위험 탐지, 제조 품질 관리, 바이오 GMP 환경 검증 등 다양한 산업에 적용되고 있다. 특히 XAIVA는 산업별 특화 기능을 강화하며 ‘XAIVA On Device’라는
퓨리오사AI가 자사의 2세대 AI 추론 가속기 ‘레니게이드(RNGD)’를 LG의 대규모 언어모델(LLM) ‘엑사원(EXAONE)’에 전면 도입했다고 22일 밝혔다. 이번 협업은 양사가 약 8개월에 걸쳐 진행한 성능 검증을 바탕으로 추진됐으며, 이를 통해 레니게이드는 GPU를 대체할 수 있는 현실적인 대안으로 주목받고 있다. LG AI연구원은 엑사원 3.5 모델의 파일럿 환경에 레니게이드를 적용해 테스트한 결과, 전력 대비 성능에서 기존 GPU보다 약 2.25배 높은 효율을 확인했다. 특히 대규모 AI 모델 구동 시 GPU가 갖는 고질적인 전력 소모 문제를 해결하면서도 고성능 요건을 충족시켰다는 점에서 의미가 크다. 이번 사례는 대형 엔터프라이즈 AI 추론 환경에서 GPU 이외의 가속기가 실질적으로 도입된 첫 사례 중 하나로, 산업 전반에서 AI 인프라 다변화 가능성을 제시했다. 퓨리오사AI는 이를 통해 글로벌 기업을 대상으로 한 엔터프라이즈 레퍼런스를 확보하게 되었으며, 향후 대형 AI 프로젝트에 활용도를 확대할 수 있는 기반을 마련하게 됐다. LG 측도 레니게이드의 실용성을 높이 평가했다. 전기정 LG AI연구원 프로덕트 유닛장은 “다양한 GPU 및 NPU
SSD 병렬 처리 성능 활용과 유사 쿼리 묶기 및 데이터 저장 구조 개선이 핵심 디노티시아가 참여한 벡터 데이터베이스 최적화 연구가 세계 최고 권위의 데이터베이스 학회 ‘VLDB 2025’에 공식 채택됐다. 해당 논문은 서울대학교 이상원 교수 연구팀 주도 아래 디노티시아 노홍찬 CDO와 도재영 교수(서울대학교)가 공동 참여한 산학 협력 연구 결과로, 실용성과 기술 완성도를 동시에 인정받았다. VLDB(Very Large Data Bases)는 데이터 관리, 분산 시스템, 대규모 처리 아키텍처 등 데이터 인프라 전반을 다루는 학회로, 매년 전 세계 학계와 산업계에서 600편 이상의 논문이 제출되며 채택률은 약 15%에 불과하다. VLDB 2025는 오는 9월 1일부터 5일까지 영국 런던에서 개최될 예정이다. 이번에 채택된 논문 ‘Turbocharging Vector Databases using Modern SSDs’는 검색증강생성(RAG)과 시맨틱 검색 등 AI 기반 검색 시스템에서 핵심적인 벡터 탐색 성능을 개선하는 기술을 다뤘다. SSD의 병렬 처리 성능을 최대한 활용하고, 유사 쿼리 묶기 및 데이터 저장 구조를 개선함으로써 기존 벡터 데이터베이스의 느린
기존 GPU 인스턴스 대비 최대 20배 향상된 연산 성능 및 11배 높은 메모리 용량 제공 아마존웹서비스(AWS)가 초거대 생성형 AI 훈련과 추론을 위한 차세대 인프라로, 엔비디아의 최신 슈퍼칩 ‘그레이스 블랙웰(Grace Blackwell)’ 기반의 P6e-GB200 울트라서버를 공개했다. 이는 기존 GPU 인스턴스 대비 최대 20배 향상된 연산 성능과 11배 높은 메모리 용량을 제공하며, AWS 역사상 가장 강력한 GPU 기반 인프라로 평가된다. 이번에 함께 공개된 P6-B200 인스턴스는 중대형 AI 워크로드에 유연하게 대응할 수 있도록 구성됐다. 두 제품 모두 엔비디아 블랙웰 GPU를 중심으로 설계됐으며, 대규모 AI 시스템과 실시간 고성능 추론이 요구되는 에이전틱 AI 시스템을 위한 솔루션이다. P6e-GB200 울트라서버는 최대 72개의 엔비디아 블랙웰 GPU를 NV링크로 연결해 하나의 컴퓨팅 유닛처럼 동작하며, FP8 연산 기준 360페타플롭스의 성능과 총 13.4테라바이트의 고대역폭 GPU 메모리를 제공한다. 이와 함께 4세대 EFA 네트워크를 통해 초당 최대 28.8테라비트의 대역폭을 구현했다. 반면, P6-B200 인스턴스는 8개의 블랙웰
하이퍼스케일급 고성능 데이터센터 수요가 빠르게 늘어나고 있어 국내 데이터센터의 전력 수요가 2028년까지 연평균 11% 증가하며 1.4배에 달할 것이란 전망이 나왔다. 한국IDC는 최근 발표한 ‘한국 데이터센터 운영 및 코로케이션 서비스 시장 동향 2025’ 보고서를 통해 2025년 기준 4461MW였던 데이터센터 전력 수요가 2028년에는 6175MW까지 증가할 것으로 예측했다. 이번 전망치는 엔터프라이즈 기업의 자체 서버룸은 물론, 클라우드 및 서비스 제공업체들의 대형 데이터센터 수요를 모두 포함한 수치로, 국내에 공급되는 서버 물량을 기반으로 산출됐다. 특히 생성형 AI의 확산으로 인해 하이퍼스케일급 고성능 데이터센터에 대한 수요가 빠르게 늘어나고 있다는 점이 수요 상승의 핵심 요인으로 꼽혔다. 한국IDC는 “AI 인프라에 최적화한 투자로 전환하는 기업은 아직 10% 수준에 불과하다”며, “이에 향후 기업들의 GPU 기반 아키텍처 전환, 고효율 냉각 시스템 구축 등이 본격화되면서 전력 소비는 확대될 것”이라고 분석했다. 또한, 자산운용사, 건설사 등 비 통신·비IT 기업들의 데이터센터 시장 진출이 활발해지며 경쟁 구도도 재편되고 있는 가운데, 이는 전력
풀스택 연결 기술 제품군으로 AI 인프라에 특화한 맞춤형 연결 실현 파네시아가 AI 인프라 최적화를 위한 ‘링크솔루션(LinkSolution)’ 전 제품군을 공식 공개하며, 자사의 기술 철학과 브랜드 정체성을 본격화하고 있다. 이번 발표는 파네시아가 새롭게 개편한 공식 홈페이지를 통해 공개됐으며, AI 인프라 설계 전반에 대한 통합적 접근을 제시하고 있다. 파네시아는 AI 시대를 맞아 GPU, AI 가속기, 메모리 등 다양한 연산 자원을 유연하게 연결하는 연결 반도체 분야에 주력해 왔다. 이번에 선보인 링크솔루션은 하드웨어, 반도체 설계자산(IP), 네트워크 구조, 소프트웨어까지 아우르는 풀스택 연결 기술 제품군으로, AI 인프라에 특화한 맞춤형 연결을 가능케 한다. 제품은 크게 세 가지 구성으로 나뉜다. 첫째, 하드웨어 분야에서는 스위치 SoC(PanSwitch)와 리타이머(PanRetimer)가 핵심이다. 스위치는 여러 AI 장치를 연결해 대규모 네트워크 구성을 지원하며, 리타이머는 장거리 신호 전송 시 신호 세기를 보정해 통신 품질을 유지한다. 이들은 모두 파네시아의 저지연 설계자산이 적용돼 통신 오버헤드를 줄이는 데 효과적이다. 둘째, 반도체 IP 분
양사 협력 현황 공유 및 실전 적용 확대 방안 논의 카카오엔터프라이즈가 AMD와 함께 'AMD-카카오클라우드 개발자 밋업'을 성공적으로 개최했다. 이번 밋업은 경기도 성남시 판교 인근에서 6월 24일 진행됐으며, AI 인프라 고도화와 기술 최적화를 위한 양사의 협력 현황을 공유하고 향후 실전 적용 확대 방안을 논의하는 자리로 마련됐다. 이번 밋업은 단순한 기술 소개를 넘어 실사용 환경에서의 적용 사례, 성능 개선 경험, 그리고 고객 피드백에 기반한 협업 과제 등을 중심으로 양사의 파트너십을 실질적으로 강화하는 계기가 됐다. AMD뿐 아니라 AMD 생태계 내 주요 기술 파트너사들도 대거 참석해 의미를 더했다. 이날 행사에는 망고부스트, 파두 등이 함께 참여해 차세대 AI 인프라 기술을 소개했다. AMD코리아 김홍필 이사는 'AMD Advancing AI 2025'를 주제로 고성능 컴퓨팅 및 AI 로드맵을 발표했고, 망고부스트 권동업 CTO는 대형 언어모델(LLM)의 추론 및 학습 성능을 끌어올리는 자사 솔루션 ‘LLMBoost’를 공유했다. 이어 파두 김승민 박사는 AI 데이터 센터를 위한 고성능·고효율 스토리지 기술에 대해 발표했다. 카카오엔터프라이즈는 AM
단일 기업으로는 이례적으로 다섯 편의 논문 채택받아 파네시아가 차세대 반도체 및 연결 기술 연구 성과를 글로벌 저널 IEEE Micro에 게재하며 기술력을 인정받았다. 파네시아는 컴퓨터 아키텍처 분야 권위지로 꼽히는 IEEE Micro 5·6월호 특집호에 총 5편의 논문을 발표하며, CXL(Compute Express Link)과 인-스토리지 프로세싱을 중심으로 한 차세대 스토리지 아키텍처를 선보였다. 이번 특집호의 주제는 ‘캐시 일관성 보장 연결 기술 및 자원 분리(Cache Coherent Interconnects and Resource Disaggregation Techniques)’로, 마이크로소프트, IBM, 메타, 구글 등 글로벌 빅테크 기업이 최신 연구 성과를 공개한 가운데, 파네시아는 단일 기업으로는 이례적으로 다섯 편의 논문을 채택받아 존재감을 부각시켰다. 핵심 연구는 크게 세 가지 방향에서 진행됐다. 첫 번째는 CXL 기반 SSD(CXL-SSD)를 활용한 고성능 메모리 아키텍처 개발이다. 파네시아는 기존 SSD를 DRAM처럼 활용할 수 있는 구조를 제안하고, 이를 최적화하기 위한 기술 두 가지를 함께 소개했다. 하나는 데이터 처리 방식에 대