씨이랩이 오는 15일부터 17일까지 일본 도쿄 빅사이트(Tokyo Big Sight)에서 열리는 'AI 엑스포 도쿄 2026'에 참가한다고 밝혔다. AI 인프라 솔루션 전문기업 씨이랩은 이번 전시를 통해 일본 현지 엔비디아 파트너와 전략적으로 협력, 자사의 핵심 GPU 클러스터 관리 솔루션인 'AstraGo(아스트라고)'를 일본 기업 및 연구기관에 선보이고, 인프라 운영 효율화를 기반으로 한 현지 사업권을 본격 확대한다는 방침이다. 현재 일본은 정부와 민간이 주도하는 AI 인프라 투자가 폭발적으로 증가하는 전략적 요충지다. IDC에 따르면 일본 AI 인프라 시장은 2026년 약 55억 달러(8조 원) 규모로 성장하고, 2029년까지 두 자릿수 성장률을 지속할 전망이다. 특히 마이크로소프트 등 글로벌 빅테크의 천문학적 투자가 집중되고 있으나, 급격히 늘어난 GPU 자원을 체계적으로 관리하고 비용을 최적화할 수 있는 소프트웨어 공급은 이에 미치지 못하고 있다. 씨이랩은 이러한 수급 불균형을 기회로 삼아 'GPU 자원 효율 극대화'라는 가치를 제안하며 일본 시장의 '퍼스트 무버(First Mover)' 지위를 굳힌다는 전략이다. 씨이랩의 대표 솔루션 '아스트라고'
국가 인공지능(AI) 프로젝트에 기상청 2개 과제 선정 기상청은 과학기술정보통신부에서 추진하고 있는범국가적 인공지능(AI) 혁신을 위한 국가 인공지능(AI) 프로젝트에 2개 과제가 선정되었다고 밝혔다. 기상청이 활용할 수 있는 첨단 그래픽 처리장치(GPU)는 208장이며, 선정된 정부 부처 중 4번째로 큰 규모에 해당한다. ‘한국형 인공지능(AI) 기상·기후 파운데이션 모델 개발’사업은 2026년부터 2030년까지 추진되는 사업으로, 초단기와 단중기 예보부터 계절 전망까지 아우르는 이음새 없는 예보를 구현하고, 기상·기후 정보가 필요한 재난대응·산업·에너지 등 다분야에서의 정책 의사결정을 지원하기 위한 사업이다. 기상청은 이번 사업을 통해 배분된 그래픽 처리장치(GPU) 자원을 활용하여 대용량 학습자료 처리, 모델 구조 최적화 연구 등 파운데이션 모델에 필요한 핵심기술을 개발하여, 차세대 인공지능(AI) 기상예보체계 기반을 마련할 예정이다. ‘인공지능(AI)-변분법 기반 생성형 수치예보 자료동화 기술개발’사업은 관측자료와 수치예보모델의 결과를 유기적으로 활용하는 인공지능(AI)-수치예보 융합 기술을 개선하고 발전시키는 사업이다. 기상청이 자체 개발한 인공지능
AI 인프라 전문 기업 베슬AI(VESSL AI)가 엔비디아 최신 GPU인 GB200과 B300을 확보했다고 밝혔다. 베슬AI는 자사가 “국내에서 GB200과 B300을 동시에 제공하는 유일한 네오클라우드 사업자"라며, "시장 내 차별화된 포지션을 구축했다”고 자평했다. 베슬AI는 이번 GPU 확보를 통해 기업이 필요에 따라 최적의 GPU를 선택할 수 있는 환경을 구축했다. B300은 대규모 AI 모델의 추론에, GB200은 초거대 모델 학습에 각각 적합한 구조로, 다양한 AI 워크로드에 대응할 수 있는 인프라를 제공한다. 서비스 접근성 측면에서도 강점을 갖췄다. 베슬AI는 A100, H100 등 주요 GPU와 스토리지 및 AI 개발 플랫폼을 별도 협의 없이 즉시 사용할 수 있는 셀프서비스 형태로 제공한다. 기업과 개발자는 계약이나 승인 절차 없이 필요한 시점에 바로 GPU를 활용할 수 있어 AI 개발 속도를 높일 수 있다. 비용 구조 측면에서도 경쟁력을 확보했다. 하이퍼스케일러급에서 지원하는 ‘분 단위 과금’ 체계와 ‘스마트 퍼징(Smart Pausing)’ 기능을 제공한다. 이를 통해 유휴 리소스로 인한 비용 낭비를 줄이고 AI 인프라의 총소유비용(TCO
메타가 메시징 서비스 왓츠앱에 인공지능 기능을 도입하기 위해 엔비디아의 차세대 칩과 기밀 컴퓨팅 기술을 대규모로 도입하기로 했다. 미국 IT 매체 엔가젯(Engadget)은 메타가 엔비디아와 새로운 장기 파트너십을 체결하고, 엔비디아 블랙웰(Blackwell)과 루빈(Rubin) GPU를 "수백만 개" 규모로 구매하기로 했다고 보도했다. 매체에 따르면 이번 협력의 일환으로 메타는 왓츠앱(WhatsApp)에 인공지능 기능을 적용하면서, 사용자 데이터의 기밀성과 무결성을 보장하기 위해 엔비디아의 기밀 컴퓨팅(Confidential Computing)을 도입할 예정이다. 엔가젯에 따르면 메타는 왓츠앱 메시징에서 인공지능을 사용할 수 있도록 하면서도 사용자 데이터 보호를 위해 엔비디아의 기밀 컴퓨팅 기술을 활용하기로 약속했다. 이 기술은 데이터가 서버로 전송되거나 저장될 때뿐 아니라 연산이 이뤄지는 동안에도 데이터를 보호할 수 있도록 설계된 것으로 전해졌다. 엔비디아는 자사 블로그에서 이 기술이 메타와 같은 소프트웨어 개발사나 서드파티 인공지능 에이전트 공급업체가 지적 재산을 보호하는 데에도 도움을 줄 수 있다고 설명했다. 이를 통해 인공지능 기능을 서비스에 통합하
클라우드 AI 플랫폼 전문기업 나무기술이 12일 2025년 연결 기준 매출액 1023억 원, 영업이익 23억 원을 기록했다고 12일 공시했다. 전년 대비 매출은 11.9% 증가했으며, 지난해 22억 원 적자였던 영업이익은 흑자로 전환하며 의미 있는턴어라운드를 이뤘다. 이번 실적은 저마진 하드웨어 중심 사업 구조를 고부가가치 소프트웨어 중심 체제로 재편하는 데 성공한 결과다. 하드웨어 및 기타 매출은 전년 대비 44.5% 감소한 119억 원으로 축소된 반면, 클라우드 부문 매출은 역대 최대인 277억 원을 달성했다. 나무기술은 2024년 이후 겪었던 어려움을 극복하며 가상화·클라우드 솔루션을 중심으로 한 핵심 사업 영역에서 안정적 기반을 되찾았다. 동시에 나무아이씨티, 에스케이팩, 칵테일아이오(구 아콘소프트) 등 자회사들도 각 분야에서 고른 성과를 내며 그룹 전체 매출이 2022년 이후 다시 1천억 원대를 돌파하는 데 기여했다. 클라우드 네이티브 제품군의 시장 확대와 유지보수·라이선스 중심의 안정적 반복 수익 모델을 강화하면서 수익성의 질적 향상이 두드러졌다. 별도 기준 매출은 전략적 사업 재편으로 397억 원으로 소폭 줄었으나, 매출이익률은 전년 대비 2.2
AI 전문 기업 씨이랩이 급증하는 기업들의 GPU 비용 부담을 획기적으로 낮추고 운영 효율을 극대화할 수 있는 엔터프라이즈급 GPU 관리 솔루션 ‘AstraGo(아스트라고) 2.0’을 출시했다고 9일 밝혔다. 최근 AI 모델 개발 경쟁이 치열해지며 고가의 GPU 확보가 기업의 핵심 과제로 떠오른 가운데, 씨이랩은 한정된 자원의 활용도를 극대화해 기업의 비용 절감을 돕는 솔루션으로 시장 공략에 나선다. 이번에 출시된 AstraGo 2.0은 GPU 자원을 기업 내 여러 조직이 마치 ‘부서 전용 GPU’처럼 효율적으로 나눠 쓸 수 있게 만드는 가상화 및 최적화 기술의 결정체다. 기업들은 고가의 GPU를 도입하고도 부서 간 칸막이식 운영으로 인해 자원 활용률이 떨어지는 비효율을 겪고 있다. 씨이랩은 이러한 시장의 니즈를 파악해 AstraGo 2.0에 ▲지능형 스케줄링 ▲실시간 자원 최적화 ▲워크스페이스 기반 멀티테넌트(Multi-tenant) 기능을 탑재했다. 이를 통해 기업은 추가 하드웨어 구매 없이도 기존 인프라의 가동률을 최대치로 끌어올려 천문학적인 AI 인프라 구축 비용을 절감할 수 있게 된다. 이는 단순한 관리 도구를 넘어 기업의 이익률 개선에 직접 기여하
엔비디아가 인공지능(AI) 수요와 메모리칩 공급 부족 여파로 올해 게이밍 그래픽카드 신제품 출시를 미루고 있다. IT 매체 더 인포메이션(The Information)에 따르면 엔비디아는 RTX 50 라인의 업그레이드 모델로 예상되던 제품 출시 계획을 추후로 연기했다. 더 인포메이션은 이로 인해 엔비디아가 약 30년 만에 처음으로 한 해 동안 새로운 게이밍용 GPU를 내놓지 않는 상황이 발생했다고 전했다. 더 인포메이션은 AI 수요가 메모리칩 부족을 심화시키며 소비자 전자 업계를 혼란에 빠뜨렸다고 전했다. 이에 따라 여러 제품의 가격이 상승할 것으로 예상되며, 메모리칩에 의존하는 GPU를 포함한 부품 수급이 크게 어려워졌고, 자동차 산업까지 영향을 받고 있다고 보도했다. 엔비디아는 PC와 게임 콘솔용 그래픽칩으로 성장해온 기업이지만, 이러한 공급 제약 속에서 게이머 수요를 상대적으로 후순위에 두고 있는 것으로 전해졌다. 더 인포메이션에 따르면 엔비디아의 게이밍 GPU 매출 비중은 2022년 처음 9개월 동안 전체 매출의 35%를 차지했지만, 2025년 같은 기간에는 약 8% 수준으로 떨어졌다. 같은 기간 엔비디아 AI 칩의 이익률은 약 65%로, 그래픽카드의
인텔이 그동안 엔비디아가 주도해 온 그래픽처리장치(GPU) 시장에 새로 진입해 인공지능용 반도체 사업을 확대할 계획이다. 미국 IT 매체 테크크런치(TechCrunch)에 따르면 인텔은 기업 쇄신을 추진하는 과정에서 경쟁사 엔비디아(Nvidia)의 성장 동력이 된 새로운 유형의 칩 생산을 시작할 것이라고 밝혔다. 리프 부 탄(Lip-Bu Tan) 인텔 최고경영자(CEO)는 2월 3일(현지 시간) 시스코 인공지능 서밋(Cisco AI Summit)에서 인텔이 그래픽처리장치(GPU) 생산을 시작할 것이라고 발표했다. GPU는 인텔이 전통적으로 생산해 온 중앙처리장치(CPU)에 비해 특수화된 프로세서로, 게임과 인공지능(AI) 모델 학습과 같은 작업에 사용된다. 테크크런치는 추가 정보를 얻기 위해 인텔에 문의했다고 전했다. 통신사 로이터(Reuters)에 따르면 이번 프로젝트는 인텔 데이터센터 그룹의 총괄 부사장 겸 제너럴 매니저인 케보크 케치치언(Kevork Kechichian)이 총괄한다. 케치치언은 지난해 9월, 다수의 엔지니어 채용과 함께 영입됐다. 인텔은 올해 1월 이 전략을 위해 에릭 데머스(Eric Demers)도 영입했다. 데머스는 이전에 퀄컴(Qu
중국 반도체 설계사 상하이 일루바타코어X 세미컨덕터(이하 일루바타코어X)가 차세대 엔비디아 루빈 플랫폼을 겨냥한 수년 단위의 GPU 아키텍처 로드맵을 공개해 자국 반도체 자립 추진 속에서 기술 우위를 노리고 있다. 홍콩 영자지 사우스차이나모닝포스트(South China Morning Post)는 상하이 일루바타코어X 세미컨덕터가 자사의 멀티 이어 그래픽 처리 장치(GPU) 아키텍처 로드맵을 발표하며, 2년 안에 엔비디아(Nvidia)의 차세대 루빈(Rubin) 플랫폼을 능가하는 것을 목표로 내세웠다고 보도했다. 보도에 따르면 이 회사는 자사의 티엔수(Tianshu) 아키텍처가 지난해 엔비디아의 호퍼(Hopper) 플랫폼 성능을 상회했다고 밝혔다. 두 번째 아키텍처인 티엔쉬안(Tianxuan)은 미국 기업 엔비디아의 블랙웰(Blackwell) 플랫폼을 기준점으로 삼아 설계될 예정이라고 설명했다. 세 번째 아키텍처인 티엔지(Tianji)는 2026년에 블랙웰을 추월하는 것을 목표로 설계됐으며, 네 번째 아키텍처인 티엔취안(Tianquan)은 2027년에 루빈을 넘어서는 수준을 달성하는 것을 목표로 하고 있다. 이후 일루바타 코어X는 이를 바탕으로 자사가 “획기적
생성형 AI(Generative AI) 확산세가 ‘인공지능 (AI) 모델 성능 경쟁’에서 ‘인프라(Infrastructure) 경쟁’으로 이동하고 있다. 문자(Text) 중심 서비스만으로도 AI 연산 수요는 이미 임계점에 도달했다. 여기에 로보틱스와 피지컬 AI(Physical AI)가 본격화되면서 수요의 질적 변화가 일어나는 상황이 핵심 배경으로 꼽힌다. 구체적으로 ▲로봇의 시각·센서·기록 데이터 ▲디지털 트윈(Digital Twin) 기반 시뮬레이션 ▲현장 추론 및 제어 수요가 동시에 급증하고 있다. 이에 따라 데이터 적재량은 늘고 이동 속도는 빨라져야 하며, 처리 지연 시간(Latency)은 극도로 낮아져야 하는 과제에 직면했다. 업계는 이러한 변화를 ‘수요 폭발’과 ‘공급 지연’의 프레임으로 규정하고 있다. AI 지출 확대, 에이전틱 AI(Agentic AI) 및 AI 서비스형 소프트웨어(SaaS) 시장 성장, 연간 데이터 생성량 급증 추세 등이 동시에 맞물리고 있기 때문이다. 이 과정에서 시장에서는 ‘AI 채택이 거시 경제의 펀더멘털(Fundamental)을 강화한다’는 메시지가 반복적으로 강조되는 모습이다. 이는 AI 도입이 산업 전반의 생산성을
국내 연구진이 비싼 데이터센터 GPU를 덜 쓰고, 주변에 있는 저렴한 GPU를 활용해 AI 서비스를 더 싸게 제공할 수 있는 기술을 개발했다. 대규모 언어 모델(LLM) 기반 AI 서비스는 지금까지 대부분 고가의 데이터센터 GPU에 의존해 왔다. 이로 인해 서비스 운영 비용이 높고, AI 기술 활용의 진입장벽도 컸다. 한국과학기술원(KAIST)은 전기및전자공학부 한동수 교수 연구팀이 데이터센터 밖에 널리 보급된 저렴한 소비자급 GPU를 활용해 LLM 인프라 비용을 크게 낮출 수 있는 새로운 기술 ‘스펙엣지(SpecEdge)’를 개발했다고 28일 밝혔다. SpecEdge는 데이터센터 GPU와 개인 PC나 소형 서버 등에 탑재된 ‘엣지 GPU’가 역할을 나눠 LLM 추론 인프라를 함께 구성하는 방식이다. 연구팀에 따르면 이 기술을 적용한 결과, 기존 데이터센터 GPU만 사용하는 방식에 비해 토큰(AI가 문장을 만들어내는 최소 단위)당 비용을 약 67.6% 절감할 수 있었다. 연구팀은 이를 위해 ‘추측적 디코딩(Speculative Decoding)’이라는 방법을 활용했다. 엣지 GPU에 배치된 소형 언어모델이 확률이 높은 토큰 시퀀스(단어 또는 단어 일부가 순서
피지컬 AI(Physical AI)를 둘러싼 글로벌 패권 경쟁이 모델의 거대화와 데이터 확보전을 넘어서는 양상이다. 이제는 ‘실행의 완결성’이라는 현실적인 문제를 해결하는 데 집중하는 모양새다. 이렇게 뜨거운 감자로 올라선 피지컬 AI는 가상 환경의 지능이 로봇·장비 등 물리적 실체에 이식된 형태를 말한다. 즉 인공지능(AI)이 상황을 인식하고 판단하는 ‘뇌’라면, 피지컬 AI는 그 판단을 근육과 관절의 움직임으로 바꿔 실질적인 행동을 수행하는 ‘신체’를 가진 AI다. 이 기술이 제조업의 판도를 바꿀 핵심으로 꼽히는 이유는 ‘자율화(Autonomous)’를 구현하기 때문이다. 기존 로봇이 정해진 궤적만 반복했다면, 피지컬 AI는 스스로 상황을 파악해 최적의 동작을 결정한다. 하지만 이 차세대 지능이 산업 현장에서 가치를 인정받기 위해서는 치명적인 전제 조건이 붙는다. 바로 ‘신뢰성’이다. 가상 및 시뮬레이션 환경에서 백발백중이던 AI 기반 로봇이 실제 공장 라인에 투입되는 순간, 미세한 진동과 엇박자를 내며 멈춰 서는 장면은 더 이상 낯선 풍경이 아니다. 현시점 모든 산업 현장이 원하는 AI의 가치는 모터와 축이 그 결정을 얼마나 ‘제때’, ‘일관된 품질로’
수계페이스트 기반 배터리 팩 개발 본격화...실제 산업 현장 자율주행로봇(AMR) 대상 기술 검증 앞둬 차세대 모빌리티용 핫스왑 배터리 시스템 및 고출력 휴머노이드 로봇 확장 설계 추진 인공지능(AI) 연산용 그래픽처리장치(GPU) 서버 및 전력 인프라 특화 하이브리드 냉각 솔루션 구축 예고도 세이프에너지가 고안전 배터리 기술의 실제 산업 현장 안착을 위한 승부수를 던졌다. 사측은 수계페이스트(Aqueous Paste) 기반 배터리 안전 기술을 중심으로, 로봇 및 고발열 전력 환경에 특화된 에너지 솔루션 개념증명(PoC)에 박차를 가하고 있다. 뉴로메카의 사내 벤처 1호로 출발해 독자 노선을 걷기 시작한 독사 독립(Spin-off) 업체다. 이번 실증은 리튬이온 배터리의 열폭주를 구조적으로 억제하는 수계페이스트 기술이다. 수계페이스트는 리튬이온(Li-ion) 배터리의 화재 위험을 낮추기 위해 사용되는 물 기반 특수 혼합물을 뜻한다. 현재 철강 공정 자동화 현장에서 운용 중인 뉴로메카의 자율주행로봇(AMR) ‘모비200(Moby200)’에 해당 기술이 적용된 배터리팩이 탑재됐다. 이를 통해 장시간 운용에 대한 신뢰성 데이터를 확보하는 중이다. 사측은 이에 대해
에퀴닉스는 2026년 한국 기업의 AI 도입과 기술 전략에 영향을 미칠 6대 디지털 인프라 트렌드에 대한 전망을 발표했다. AI 기술이 고도화되고 IT 환경이 복잡해지면서 디지털 인프라는 단순한 백엔드 운영 요소를 넘어 기업 혁신의 전략적 기반으로 자리 잡고 있다. 전 세계에서 AI 도입 속도가 가장 빠른 국가 중 하나로 꼽히는 한국은 GPU 수요 급증과 수도권 전력 및 부지 제약, 데이터 주권 규제 강화 등 복합적인 과제에 직면해 있으며, 이에 따라 안정성과 확장성을 갖춘 인프라의 중요성이 더욱 커지고 있다. 장혜덕 에퀴닉스 한국 대표는 “한국의 빠른 AI 도입은 기업이 혁신하고 글로벌 경쟁력을 높이는 데 중요한 기회가 되고 있다”며 “경쟁력 강화를 위해 지속가능성과 데이터 주권, 안정성 확보는 필수 조건이 됐다”고 말했다. 이어 “에퀴닉스는 AI 기반 혁신의 시대에 국내 기업이 글로벌 수준의 역량을 구축할 수 있도록 지속적으로 지원할 것”이라고 밝혔다. 에퀴닉스는 우선 AI 성장의 주요 제약 요인으로 전력 밀도와 인프라 병목을 꼽았다. 정부의 엔비디아 GPU 26만 개 조달 계획에 따라 하이퍼스케일러와 AI 스타트업 전반에서 GPU 수요가 급증하고 있으나
모니터 속 텍스트와 이미지를 다루던 인공지능(AI)이 로봇과 제조 설비와 같은 실체를 입고 현실을 직접 움직이려 하고 있다. 기존 검색·추천의 기능에서, 기계가 스스로 주변을 인지하고 판단해 움직이는 주체로 AI를 채택한 모양새다. 이 흐름을 통합한 개념이 바로 '피지컬 AI(Physical AI)'다. 피지컬 AI는 AI 모델이 로봇, 공장 설비, 도시 인프라 등 현실 속 하드웨어와 연결돼 복잡한 물리 법칙을 학습하고 실행하는 아키텍처를 갖춘 시스템이다. 이는 센서에서 도출되는 신호, 공간 정보, 인간 언어 및 도메인 지식 등을 한데 통합한다. 이전에는 화면 속 시뮬레이션에 머물던 계획을 실제 동작으로 바꾸는 것이 핵심이다. 정해진 궤적을 반복하던 기존 자동화와 달리, 예측하기 어려운 환경에서도 스스로 상황을 이해하고 목표를 조정하는 방향으로 진화하는 데 주요한 역할을 할 전망이다. 이 개념은 새롭게 탄생한 유행이 아니다. 설비 예지보전 및 품질 예측, 자율주행 기반 로봇, 디지털 트윈(Digital Twin) 공장을 향한 시도는 수십 년간 이어져 왔다. 최근에는 생성형 AI(Generative AI), 대규모 시뮬레이션, 월드 모델 등 기술 논의가 확산되