대규모 언어모델(LLM) 서비스는 현재 대부분 고가의 GPU 서버에 의존해 운영되고 있으며, 서비스 규모가 커질수록 비용과 전력 소모가 급격히 증가하는 한계를 안고 있다. KAIST 연구진이 이러한 구조적 문제를 해결할 수 있는 차세대 AI 인프라 기술을 개발했다. KAIST는 전산학부 박종세 교수를 중심으로 한 애니브릿지(AnyBridge) AI 팀이 GPU에만 의존하지 않고 다양한 AI 가속기를 통합해 LLM을 효율적으로 서비스할 수 있는 차세대 AI 인프라 소프트웨어를 개발했다고 30일 밝혔다. 해당 기술은 카카오가 주최한 ‘4대 과학기술원×카카오 AI 육성 프로젝트’에서 대상을 수상했다. 이번 프로젝트는 카카오와 KAIST, GIST, DGIST, UNIST 등 4대 과학기술원이 공동으로 추진한 산학 협력 프로그램으로, AI 기술을 기반으로 한 예비 창업팀의 기술력과 사업성을 종합적으로 평가해 우수 팀을 선발했다. 대상 팀에는 총 2000만 원의 상금과 함께 최대 3500만 원 규모의 카카오클라우드 크레딧이 제공된다. 애니브릿지 AI는 KAIST 전산학부 박종세 교수 대표를 중심으로 권영진 교수, 허재혁 교수가 참여한 기술 창업팀으로, AI 시스템과
중국의 ‘인프라 우선’ 인공지능 전략이 에너지와 데이터센터 기반을 앞세워 차세대 AI 경쟁에서 우위를 뒷받침하고 있다는 평가가 나왔다. 미국 홍콩 기반 일간지 사우스차이나모닝포스트(South China Morning Post)는 2026년 1월22일(현지 시간) 스위스 다보스에서 열린 세계경제포럼(World Economic Forum) 패널 토론에서 문샷 AI(Moonshot AI) 장위통(Zhang Yutong) 사장이 중국의 인공지능 산업 발전 전략을 두고 이같이 말했다고 보도했다. 장위통 사장은 중국이 인공지능 산업을 개발하는 과정에서 취하고 있는 ‘인프라 우선(infrastructure first)’ 접근법이 빠르게 진화하는 이 기술 분야에서 최전선 혁신을 여는 데 도움이 될 것이라고 평가했다. 그는 중국의 에너지 확충으로 전력 공급이 “매우 저렴해졌다”며, 이는 기초 연구와 혁신에 필수적이라고 설명했다. 장 사장은 “지원 관점에서 인프라는 분명히 매우 중요하다”고 언급했다. 이 발언은 중국의 ‘AI 플러스(AI Plus)’ 전략을 주제로 한 패널 토론 중 나왔다. 해당 토론은 중국 국제방송 CGTN(China Global Television Netw
HPE는 DB생명이 직원 생산성 향상, 고객 응대 자동화, 운영 효율성 강화를 위한 인공지능 전환 파트너로 HPE를 선정했다고 밝혔다. 생성형 AI 기술의 성숙도가 높아지고 고객 기대치가 변화함에 따라 DB생명은 HPE와 협력해 차세대 AI 기반 챗봇 서비스를 도입하고, HPE 그린레이크 플렉스(HPE GreenLake Flex) 솔루션을 활용한 확장형 대규모 언어모델 운영(LLMOps) 플랫폼을 구축했다. HPE 그린레이크 플렉스 솔루션은 컴퓨팅, 스토리지, 네트워킹, AI 소프트웨어를 유연한 종량제 모델로 결합한 모듈식 서비스형 인프라로, 기업이 통제, 보안, 데이터 주권을 유지하면서 필요에 따라 리소스를 확장할 수 있도록 지원한다. 이번 구축은 직원들의 정보 접근과 활용 방식을 개선하고 응답 시간을 단축하며, 보다 정확하고 개인화된 고객 상담을 제공하도록 설계됐다. 전 세계 금융 서비스 기관들이 운영 효율성과 고객 참여 강화를 위해 생성형 AI 도입을 확대하고 있는 가운데, DB생명은 이번 기술 도입을 통해 혁신과 고객 중심 전략을 본격화했다. 민효식 DB생명 디지털혁신본부장은 “HPE는 DB생명이 고객 서비스를 재정립하는 과정에서 과감한 도약을 할 수
여의시스템은 최근 급증하는 AI 기반 산업 현장 수요에 대응해, 고성능 임베디드 솔루션 브랜드 ‘신코즈’(Cincoze)를 앞세워 국내 엣지 AI 인프라 시장 공략을 대폭 강화한다고 밝혔다. 여의시스템이 공급하는 신코즈 제품군은 대규모 데이터를 실시간으로 처리해야 하는 AI 환경에 최적화된 것이 특징이다. 주요 라인업으로는 AI 추론(Inference)과 딥러닝 연산에 특화된 GPU 컴퓨터를 비롯해, 극한의 외부 환경에서도 안정적인 데이터 처리가 가능한 러기드 컴퓨터, 지능형 HMI 구축을 위한 패널 PC 및 터치 모니터, 공간 효율성을 높인 DIN 레일 타입 컴퓨터 등이 포함된다. 현재 신코즈는 총 16개 시리즈, 500여 개 이상의 모델을 보유하고 있으며 머신비전, 자율주행, 스마트 팩토리, 로봇 등 고도의 AI 연산이 요구되는 산업 분야에서 핵심 연산 장치로 활용되고 있다. 모든 제품은 열악한 산업 현장 환경에서도 AI 애플리케이션이 중단 없이 작동하도록 설계돼 데이터 처리의 연속성과 시스템 안정성을 중시하는 고객들로부터 높은 평가를 받고 있다고 회사는 설명했다. 여의시스템 관계자는 “성공적인 AI 전환(AX)을 위해서는 소프트웨어뿐만 아니라 이를 안정
AI 기반 에듀테크 플랫폼 기업 포스트매스가 AI 인프라 전문 기업 몬드리안AI와 전략적 파트너십을 체결하고, NVIDIA B300(Blackwell Ultra) 기반 인프라를 확보했다. 이번 협약은 포스트매스가 운영하는 AI 콘텐츠 제작 플랫폼 ‘수학비서’의 기술 고도화와 글로벌 시장 확장을 위한 인프라 경쟁력 강화를 목표로 한다. 업체는 이번 협약을 통해 몬드리안AI가 구축한 NVIDIA B300 기반 ‘네오클라우드(NeoCloud)’ 인프라를 활용한다. 네오클라우드는 초고성능 연산이 요구되는 AI 워크로드에 최적화된 차세대 맞춤형 인프라 서비스로 대규모 모델 학습과 추론을 안정적으로 지원하는 것이 특징이다. 이를 통해 포스트매스는 자체 AI 모델 개발을 가속화하고 400만 개 이상 수학 문제 데이터베이스를 활용한 학습 및 자동화 솔루션 개발에 속도를 낼 계획이다. 특히 몬드리안AI의 매니지드 서비스가 결합되면서, 고밀도 전력·냉각 시스템과 MLOps 운영 부담을 최소화했다. 포스트매스 연구진은 인프라 관리에서 벗어나 모델 연구와 서비스 혁신에 집중할 수 있는 환경을 확보했다는 설명이다. ‘수학비서’는 AI 기반 수학 문제 디지털 전환 기술을 적용해 데이
마이크로소프트가 미국에서 인공지능(AI) 데이터센터 확장에 따라 발생할 수 있는 전기·수도 요금 인상 부담을 지역 주민에게 전가하지 않겠다는 원칙을 담은 새로운 커뮤니티 우선 인프라 모델을 내놨다. ESG 전문 매체 이에스지뉴스(ESG News)에 따르면 마이크로소프트는 미국 내 차세대 AI 데이터센터 건설을 규율하기 위한 전국 단위의 ‘커뮤니티-퍼스트 AI 인프라스트럭처(Community-First AI Infrastructure)’ 이니셔티브를 발표했다. 회사는 이를 통해 AI 작업량이 확대되더라도 데이터센터가 입지한 지역사회 주민을 전기요금 상승과 물 부족으로부터 보호하겠다고 밝혔다. 계획에는 AI 인프라가 경제적 혜택을 제공하면서도 생활비와 천연자원을 잠식하지 않도록 하기 위한 다섯 가지 약속이 담겼다. 마이크로소프트 사장 브래드 스미스(Brad Smith) 사장은 이 조치가 “회사가 데이터센터를 건설하고 소유하며 운영하는 지역사회에서 좋은 이웃이 되기 위해 필요한 구체적 조치에 대한 약속”이라고 설명했다. 그는 또 AI 인프라 구축은 “국가가 변혁적인 인프라를 지역사회에 부담을 주지 않고 어떻게 강화하는 방식으로 구축할 수 있는가”라는 오랜 질문을
AI 성능 경쟁의 기준이 근본적으로 변화하고 있다. 개별 칩이나 모델의 성능을 높이는 방식에서 벗어나, 칩·시스템·네트워크·소프트웨어·모델을 하나의 구조로 정교하게 조율하는 인프라 설계가 핵심 경쟁력으로 부상하고 있다. 토크아이티는 12월 30일 오후 2시 텐 오세진 대표와 함께 2025년 AI 인프라의 핵심 흐름과 2026년 전략을 짚는 웨비나를 진행한다. 이번 웨비나에서는 엔비디아가 제시한 Extreme Co-Design 전략을 중심으로 AI 인프라 설계 방식의 변화를 살펴본다. Extreme Co-Design은 개별 요소의 성능 최적화가 아닌, 전체 스택을 하나의 플랫폼처럼 설계하는 접근법이다. 칩, 시스템, 네트워크, 소프트웨어, AI 모델을 동시에 고려해 설계함으로써 비용 효율성과 성능을 함께 끌어올리는 전략으로 평가된다. AI 네이티브 데이터센터로의 전환도 주요 주제로 다뤄진다. 고대역폭·저지연 패브릭 기반 네트워크 재편, 학습과 추론을 동시에 고려한 듀얼 아키텍처 확산, 냉각·배치·전력 효율 중심의 운영 혁신은 기존 데이터센터 운영 방식의 근본적인 변화를 요구하고 있다. 이러한 변화는 단순한 설비 업그레이드를 넘어, 데이터센터를 AI 워크로드에
AMD가 시스코(Cisco), 글로벌 풀스택 AI 솔루션을 제공하는 PIF(사우디 공공투자기금) 산하 기업 휴메인(HUMAIN)과 함께 현지 및 글로벌 고객에게 세계적 수준의 AI 솔루션을 제공하기 위한 합작 법인 설립 계획을 발표했다. AMD와 시스코, 휴메인은 합작 법인의 초기 투자자로 참여하며, 해당 합작 법인은 2026년 운영 개시를 목표로 한다. 합작 법인은 휴메인의 최첨단 데이터센터와 AMD 및 시스코의 기술을 결합해 효율적인 전력 사용과 낮은 자본 지출을 구현하는 현대적 데이터센터 인프라를 제공할 계획이다. 또한 AMD와 시스코는 독점 기술 파트너로 참여해, 2030년까지 최대 1GW 규모의 AI 인프라 개발을 지원하기 위한 제품 및 서비스를 제공한다. 아울러 세 기업은 프로젝트의 1단계로 100MW 규모의 AI 인프라 구축을 발표했으며, 이 인프라는 휴메인의 최신 데이터센터 역량, AMD 인스팅트(Instinct™) MI450 시리즈 GPU 및 시스코의 업계 선도적 핵심 인프라 기술을 기반으로 진행될 예정이다. 사우디아라비아의 AI 기반 경제 도약 지원 올해 초 AMD와 시스코는 휴메인과 함께 개방적이고 확장 가능하며 회복력 있고 비용 효율적인
그록이 호주 시드니 소재 Equinix International Business Exchange 데이터센터에 인프라를 구축하며, 자사의 글로벌 AI 인프라를 아시아 태평양 지역으로 확장했다. 미국과 유럽, 중동 및 아프리카 지역 출시 이후, 이번 협력을 통해 그록의 빠르고 저렴하며 확장 가능한 LPU 추론 엔진이 한국 및 아시아 태평양 전역의 기업과 공공 부문에 확대 제공된다. 이번 파트너십을 통해 그록과 에퀴닉스는 호주 시드니에 4.5MW 규모의 그록 시설을 구축해 호주 최대 규모의 고속 AI 추론 인프라 중 하나를 마련할 예정이다. 이 시설은 기존 GPU 및 하이퍼스케일 클라우드보다 최대 5배 더 빠르고 비용 효율적인 컴퓨팅 성능을 제공한다. 소프트웨어 정의 상호연결 서비스인 Equinix Fabric을 활용해 아시아 태평양 지역 기업들은 안전하면서 지연 시간이 짧은 고속 상호연결성을 통해 생산 AI 워크로드를 위한 그록클라우드(GroqCloud)에 원활하게 접근하고, 완벽한 제어 및 규제 준수를 충족할 수 있다. 아시아 태평양 지역에서 AI 기반 솔루션에 대한 수요와 도입이 지속적으로 증가하고 있다. IDC의 최신 전 세계 AI 및 생성형 AI 지출 가
카카오엔터프라이즈가 19일 전라남도와 함께 중소벤처기업부의 ‘2025년 지역 주도형 AI 대전환 사업’에 참여한다고 밝혔다. 지역 주도형 AI 대전환 사업은 AI 활용률이 낮은 지역 내 중소기업의 빠른 AI 전환을 위해 지역 산업 특성과 여건에 맞게 자율적으로 기획한 맞춤형 AI 활용·확산 프로그램을 2년간 지원하는 사업이다. 전라남도는 화학·철강·세라믹 등 소부장산업, 제약·식품 등 바이오산업, 신재생에너지산업 등 전라남도 주력 산업 기업의 AI 도입 수준을 진단해 맞춤형 AI 설비 및 솔루션 도입을 지원할 계획이다. 더불어 주력 산업에 적합한 AI 에이전트 개발 및 실증에 나선다. 이번 사업은 전라남도가 총괄하며 전남테크노파크가 주관기관으로 카카오엔터프라이즈와 한국과학기술정보연구원, 한국전자통신연구원, 한전케이디엔, 중소기업일자리경제진흥원, 순천대학교, 한국에너지공과대학이 함께 참여한다. 카카오엔터프라이즈는 대규모의 GPU 클러스터 운영 경험을 바탕으로 ▲고성능 AI 인프라 구축 및 운영 ▲AI 오픈 플랫폼 설계 및 구축 추진 ▲마이크로그리드 AI 솔루션 도입 및 실증 ▲AI 활용 인프라 관제 구축 등을 2개년에 걸쳐 진행할 계획이다. 1차년도는 지역 수
세상의 흐름을 읽는 스마트한 습관 [글로벌NOW] 매주, 세계는 조용히 변화를 시작합니다. 기술이 바꾸는 산업의 얼굴, 정책이 흔드는 공급망 질서, 기업이 선택하는 미래 전략. 세계 곳곳에서 매주 벌어지는 이 크고 작은 변화는 곧 우리 산업의 내일과 맞닿아 있습니다. 글로벌NOW는 매주 주목할 만한 해외 이슈를 한 발 빠르게 짚어주는 심플한 글로벌 브리핑입니다. AI, 제조, 물류, 정책 등 다양한 분야에서 벌어지는 굵직한 사건과 트렌드를 큐레이션해 독자들이 산업의 큰 그림을 한눈에 파악하도록 돕겠습니다. [AI] 소프트뱅크, 엔비디아 전량 매각...손정의 ‘AI 초대형 베팅’ 본격화 손정의 회장이 소프트뱅크 보유 엔비디아 지분 32.1만 주(약 58억달러)를 전량 매각하면서 글로벌 금융·테크 업계가 크게 술렁이고 있다. 단순 차익 실현이 아닌, 향후 10년을 좌우할 ‘AI 초격차’에 모든 자원을 집중하기 위한 전략적 승부수라는 분석이 나온다. 손 회장은 그동안도 극단적으로 크고 빠른 결정을 통해 시장을 요동치게 만든 인물이었다. 이번 선택 역시 그의 오랜 투자 패턴을 다시 확인시킨 사례로 평가된다. 손정의 회장은 1990년대 후반 IT 버블 당시 순자산 7
국내 제조 지능화 솔루션 전문기업 피아이이가 9월 3일부터 5일까지 코엑스 마곡 컨벤션센터에서 열리는 ‘제1회 산업AI EXPO 2025’에 참가해 AIOps(제조 AI 운영 지능화) 솔루션을 공개한다. AIOps는 AI 모델을 개발·도입하는 단계를 넘어 운영 단계까지 확장하는 엔드 투 엔드(End-to-End) 체계로, 데이터 흐름 감시와 모델 상태 분석, 자동 대응 기능을 제공한다. 이를 통해 현장 인력이 직접 개입하지 않아도 이상 상황을 신속히 관리할 수 있다는 점이 강점이다. 현재 산업 현장은 자동화 설비를 통해 생산 효율을 높이고 있지만, 장애 대응이나 모델 성능 관리 같은 핵심 운영은 여전히 수작업과 경험에 의존하는 경우가 많다. 피아이이는 이러한 한계를 극복하기 위해 자회사 아하랩스와 협력, △데이터 운영(DataOps) △운영 지능화(AIOps) △AI Agent로 이어지는 3단계 통합 체계를 선보인다. DataOps는 현장 데이터를 자동 수집·분석해 데이터 기반 의사결정을 지원하고, AIOps는 예지보전 및 이상탐지 모델을 상시 모니터링하며 성능 저하 시 자동 재학습으로 최적 상태를 유지한다. AI Agent는 오류 발생 시 상황을 자연어로
가트너가 2024년 전 세계 서비스형 인프라(IaaS) 시장 규모가 전년 대비 22.5% 증가한 1718억 달러에 이를 것으로 전망했다. 이 가운데 아마존이 648억 달러 매출과 37.7%의 점유율로 1위를 유지했으며 마이크로소프트, 구글, 알리바바, 화웨이가 뒤를 이었다. 하딥 싱 가트너 수석 애널리스트는 “기업들이 유연성과 복원력, 성능 강화를 위해 클라우드 마이그레이션과 현대화 서비스를 지속 확대하고 있다”며 “특히 AI 플랫폼 활용 확대와 함께 기존 워크로드를 클라우드로 전환하는 흐름이 가속화되고 있으며 이는 데이터 레지던시와 데이터 주권에 대한 유연한 대응을 요구하는 환경 변화와도 맞물린다”고 설명했다. 클라우드 공급업체들은 AI 특화 IaaS 시장 선점을 위해 대규모 투자를 진행 중이다. 현재 AI가 IaaS 매출에서 차지하는 비중은 낮지만, 하딥 싱 애널리스트는 “향후 주요 매출원이 될 것”이라고 내다봤다. 또한 “하이퍼스케일러 외에도 GPU 기반의 서비스형 인프라(GPUaaS)를 제공하는 중소 규모 업체들이 유연한 고성능 컴퓨팅 수요를 흡수하며 시장에 기여하고 있다”고 밝혔다. 이번 분석에 따르면, 상위 5개 공급업체가 전체 IaaS 시장의 8
Vision AI 전문기업 씨이랩이 레노버 글로벌 테크놀로지 코리아(ISG)와 OEM(주문자상표부착) 계약을 체결하고 GPU 최적화 기술 기반의 고성능 AI 인프라 시장 확대에 나선다. 이번 협약으로 양사는 산업별 맞춤형 AI 통합 어플라이언스를 공동으로 출시하며 고객의 AI 인프라 구축과 운영 효율성 제고를 지원할 계획이다. 이번 OEM 계약을 통해 공급되는 어플라이언스는 레노버의 고성능 인프라스트럭처 솔루션에 씨이랩의 GPU 최적화 소프트웨어를 결합한 형태로, 반도체·자동차·금융·공공 등 다양한 산업군에 걸쳐 적용 가능하다. 특히 씨이랩의 GPU 최적화 기술은 다양한 AI 워크로드에 최적화돼 프로젝트 성능 향상과 비용 절감을 동시에 실현할 수 있는 점이 특징이다. 씨이랩은 Vision AI와 디지털 트윈 기반 산업 특화 기술을 바탕으로 AI 인프라 분야의 기술력을 입증해왔으며 이번 계약을 계기로 고성능 AI 어플라이언스 분야에서의 수익 확대를 본격화할 방침이다. 레노버의 엣지, 클라우드, 에널리틱스 인프라와의 결합을 통해 안정성과 유연성을 확보함으로써 AI 기반 비즈니스 환경을 선도할 수 있는 기반도 마련했다. 레노버 글로벌 테크놀로지 코리아(ISG) 윤
씨이랩이 HPE 파트너 세미나에서 GPU 최적화 솔루션 ‘AstraGo’를 선보이며 대규모 AI 인프라 환경에서의 적용 사례를 소개했다. GPU 자원 활용률을 극대화하는 AstraGo는 AI 프로젝트의 작업 속도 향상과 운영 비용 절감을 목표로 개발된 솔루션이다. AstraGo는 쿠버네티스 기반의 GPU 클러스터 관리 시스템으로 수천 개 노드와 컨테이너를 유연하게 확장할 수 있다. HPE OneView와 연동되며 Redfish 기반의 표준 인터페이스를 채택해 소프트웨어와 하드웨어를 단일 플랫폼에서 통합 관리할 수 있도록 지원한다. 또한 오토 스케일링과 장애 예측 알람 기능을 탑재해 운영 복잡도 역시 낮췄다. 이번 발표는 한국HPE 국내 총판사인 한국정보공학이 주관한 ‘KIES-HPE Partners Day’ 세미나에서 진행됐다. 세미나에는 국내 주요 파트너사와 IT 전문가들이 참석해 AI 서버 로드맵과 GPU 활용 전략을 공유했다. 씨이랩은 AstraGo를 통해 HPE 서버와 연동된 대규모 인프라 통합 관리 방안을 시연하고, 실제 데이터센터 적용 사례를 발표했다. 씨이랩은 한국정보공학과의 총판 계약을 기반으로, 올해부터 데이터센터 및 연구기관 중심으로 Ast