슈나이더 일렉트릭이 고성능 컴퓨팅(HPC) 및 AI 워크로드에 최적화된 리퀴드쿨링(Liquid Cooling) 솔루션 포트폴리오를 공개했다. 이는 올해 초 인수한 모티브에어(Motivair)와의 통합 이후 처음으로 선보이는 리퀴드쿨링 솔루션으로, AI 팩토리 구현을 위한 데이터센터 열 관리 시장에 본격적으로 진출했다. 고성능 컴퓨팅 및 AI 기술의 발전으로 데이터센터의 랙 당 전력 밀도는 140kW를 넘어 1MW 이상까지 고려해야 하는 상황에 직면해 있다. AI칩이 더욱 뜨겁고 조밀해지면서 기존 공기 냉각 방식으로는 이러한 고발열 환경을 감당하기 어려운 상황이다. 쿨링이 데이터센터 전력 예산의 40%를 차지하는 가운데, 리퀴드쿨링은 공기 냉각 대비 최대 3000배 효율적인 열 제거 성능을 제공하며 칩 수준에서 직접 열을 제거해 냉각 효율과 에너지 사용량을 동시에 개선할 수 있다. 이로 인해 직접 리퀴드쿨링은 차세대 데이터센터의 핵심 기술로 자리 잡고 있다. 슈나이더 일렉트릭의 리퀴드쿨링 솔루션은 높은 GPU 밀도와 전력 수요를 안정적이고 효율적으로 충족하도록 설계됐다. 포트폴리오는 ▲CDUs(Coolant Distribution Unit) ▲후면 도어 열 교
스냅드래곤 8 엘리트 5세대, CPU·GPU·NPU 성능 대폭 향상 퀄컴 테크날러지스가 세계에서 가장 빠른 모바일 시스템 온 칩(SoC)으로 소개한 스냅드래곤 8 엘리트 5세대(Snapdragon 8 Elite Gen 5 Mobile Platform)를 공개했다. 새로운 플랫폼은 사용자의 기대 수준을 한 단계 높이며, 초고속 멀티태스킹과 매끄러운 앱 전환, 전력 효율 개선을 통한 장시간 게임 플레이 환경을 제공한다. 스냅드래곤 8 엘리트 5세대의 가장 큰 특징은 에이전틱(Agentic) AI 기능이다. 온디바이스 멀티모달 AI 모델이 지속적인 학습과 실시간 센싱을 통해 사용자의 패턴을 이해하고, 상황에 맞는 프롬프트 개선과 맞춤형 추천을 제시한다. 모든 데이터는 기기 내에 안전하게 저장돼 보안성도 확보된다. 영상 기능도 대폭 강화됐다. 스냅드래곤 8 엘리트 5세대는 APV(Advanced Professional Video) 코덱 기반 촬영을 지원해 전문가 수준의 영상 제작을 가능하게 한다. AI 기반 카메라 기능은 스튜디오급 녹화와 폭넓은 후반 작업 제어를 지원해 크리에이터들이 창의적 비전을 실현할 수 있도록 돕는다. 성능 향상폭도 눈에 띈다. 3세대 퀄컴
텍트로닉스가 차세대 초고성능 계측기의 첫 모델인 7 시리즈 DPO 오실로스코프 출시를 발표했다. 이번 제품은 업계 최저 노이즈와 최고 유효 비트 수(ENOB)를 구현했으며, 확장 가능한 아키텍처를 기반으로 최대 25GHz 대역폭을 지원한다. 신제품에는 텍트로닉스가 새롭게 개발한 2개의 맞춤형 ASIC을 포함한 최신 신호 처리 및 데이터 처리 기술이 적용됐다. 이를 통해 고속 통신, 고에너지 물리학, 인공지능, 양자 컴퓨팅 등 첨단 연구와 엔지니어링 분야에서 최적화된 성능을 제공한다. 또한 기존 장비 대비 최대 10배 빠른 데이터 전송 속도를 지원해, 복잡한 신호를 더 적은 노이즈로 캡처하고 분석할 수 있다. 엔지니어는 이를 통해 더 넓은 가시성과 깊은 통찰력, 신속한 의사결정과 작업 수행이 가능하다. 크리스 본 텍트로닉스 사장은 “테스트 시스템의 한계가 곧 혁신의 한계가 될 때 새로운 접근 방식이 필요하다”며 “7 시리즈는 세계에서 가장 복잡한 문제들을 해결하는 엔지니어들과 협력해 개발됐으며, 고주파 대역폭, 낮은 노이즈, 빠른 분석 기능을 반영했다. 고객이 혁신을 이끌 수 있는 역량과 자신감을 제공할 것”이라고 말했다. 7 시리즈 DPO는 맞춤형 ASIC,
노르마가 신약 개발용 양자 AI 알고리즘을 엔비디아 GPU 플랫폼에서 실행해 기존 CPU 대비 최대 73배 빠른 성능을 확인했다. 노르마는 자체 개발한 양자 AI 알고리즘을 엔비디아의 CUDA-Q(쿠다큐) 플랫폼에서 구동해 성능을 검증했으며, 해당 결과는 엔비디아 SNS를 비롯해 해외 언론과 양자 전문 채널에 소개됐다. 쿠다큐는 GPU와 QPU의 통합을 단순화하고 양자-고전 하이브리드 연산을 지원하는 핵심 기술로, 양자 알고리즘의 개발과 실행 속도를 가속화한다. 이번 프로젝트는 강동경희대학교병원과 공동으로 진행 중인 신약 후보 물질 발굴 연구에 쿠다큐를 적용하기 위해 추진됐다. 신약 후보 발굴은 방대한 화학적 탐색 공간을 다뤄야 하는데, 기존 AI 연산 방식에는 한계가 있었다. 이에 노르마 퀀텀AI팀은 QLSTM, QGAN, QCBM 등 다양한 양자 AI 알고리즘을 개발하고, 쿠다큐를 통해 타 시뮬레이터 대비 우수한 연산 성능을 확인했다. 노르마는 엔비디아의 기술 지원을 받아 H200 및 GH200 기반 쿠다큐 환경을 구성해 알고리즘을 테스트했다. 그 결과 CPU 대비 순전파 과정은 약 60.14~73.32배, 역전파 과정은 약 33.69~41.56배 빠른
개요 클라우드 도입과 인공지능(AI)의 시대로 접어들면서 데이터 센터 대역폭에 대한 수요가 급격히 증가해 전 세계적으로 데이터 센터도 기하급수적으로 늘어나는 추세다. 그러나 새로운 데이터 센터는 지속가능성과 공간 확보, 그리고 예산이라는 장벽을 마주하고 있다. 여러 정부 당국은 데이터 센터가 생산성, 경제 성장, 연구 발전에 기여한다는 점은 인정하고 있지만, 동시에 지역 사회의 민원, 수자원, 전력 사용에 미치는 영향 등 어려움이 동시에 존재한다. 이에 대한 가장 효과적인 해결책은 우리가 가진 자원의 한계를 고려하면서 기존 데이터 센터의 인프라를 최적화하여 성능을 극대화하는 것이다. 도시와 소비재, 그리고 우리가 살아가는 세계는 앞으로 점점 더 디지털화될 것이며 이에 더 많은 컴퓨팅 파워를 필요로 하게 된다. 현재 보유하고 있는 데이터 센터 인프라를 최적화해 더 높은 성능을 끌어내는 것은 데이터 센터에 닥친 현실적인 제약을 경쟁력으로 바꿔내는 효과적인 방법이다. 데이터 센터 최적화가 중요한 이유 기업의 CIO와 IT 리더는 비즈니스 전반에 활용할 수 있는 높은 성능의 기반 컴퓨팅 인프라를 구축해 새롭고 더 까다로워지는 워크로드들을 처리해야 하는 동시에 지속가
마치 전기가 한 나라의 산업과 생활을 지탱하는 필수 인프라가 된 것처럼, 이제 인공지능도 국가의 심장부를 움직이는 핵심 동력이 되고 있다. 하지만 전기를 외국에서 끌어다 쓰듯, AI를 해외 빅테크 기업의 모델에만 의존한다면 어떤 일이 벌어질까. 행정·의료·교육 같은 민감한 영역에서 우리의 언어와 데이터를 이해하지 못하는 시스템이 결정권을 쥔다면, 이는 단순한 기술 격차가 아니라 국가 주권의 문제로 이어진다. 바로 이 지점에서 ‘소버린 AI(Sovereign AI)’, 즉 각 나라가 자국 상황에 맞게 직접 개발하고 운영하는 AI의 필요성이 등장한다. 소버린 AI가 불러온 파급효과 소버린 AI의 필요성은 무엇보다 국가 안보와 직결된다. 의료·법률·교육·국방과 같은 핵심 영역에서 글로벌 빅테크가 제공하는 AI에 전적으로 의존한다면, 이는 정책적 자율성과 데이터 주권을 잃는 결과로 이어질 수 있다. 특히 다국적 기업이 만든 모델은 해당 국가의 언어적 뉘앙스나 법제·문화적 맥락을 충분히 반영하지 못한다는 한계가 있다. 하지만 반대 측면도 존재한다. 국가별로 AI 모델을 쪼개어 개발하면 글로벌 상호운용성이 저하되고, AI 발전 속도가 늦춰질 수 있다. 데이터 사일로는
망고부스트 김장우 대표 인터뷰 거대한 도시가 제대로 돌아가기 위해선 도로망과 신호체계가 막힘없이 작동해야 한다. AI 인프라도 마찬가지다. GPU, 스토리지, 네트워크가 제 역할을 하려면 서로 간의 데이터 흐름이 매끄럽게 이어져야 한다. 그러나 지금까지의 구조에서는 모든 교통 신호를 CPU 한 대가 관리하다 보니, 차량이 몰리는 순간 도로가 정체되고 처리 속도가 급격히 떨어졌다. 이 병목을 해소하기 위해 망고부스트는 독보적인 DPU(Data Processing Unit) 기술력을 앞세워 시장을 돌파하고 있다. AI 서버 효율 극대화, 그 중심에 선 DPU 프레세덴스 리서치에 따르면, 글로벌 AI 반도체 시장은 2023년 약 450억 달러 규모에서 2028년 1500억 달러로 성장할 전망이다. 대규모 언어모델(LLM) 학습, 실시간 데이터 분석 등 고속·대용량 처리 환경이 확산됨에 따라, DPU는 필수 인프라로 부상 중이다. DPU는 본래 있던 네트워크 카드가 속도와 기능 면에서 진화한 형태로, 데이터 경로를 지능적으로 제어해 GPU의 잠재력을 100% 발휘하도록 돕는다. 이 흐름 속에서 망고부스트는 FPGA와 자체 반도체 설계를 결합해 고객 맞춤형 DPU를
LG CNS는 6일 인도네시아 수도 자카르타에 1000억 원 규모의 인공지능(AI) 데이터센터를 구축한다고 밝혔다. 국내 기업으로 해외에 AI 데이터센터를 짓는 것은 이번이 처음이라고 회사측은 강조했다. LG CNS는 인도네시아 재계 서열 3위인 시나르마스 그룹과 합작법인 ‘LG 시나르마스 테크놀로지 솔루션’을 통해 이번 구축 사업을 성사했다. 이 사업은 자카르타에 10만대 이상 서버를 한꺼번에 수용하는 지상 11층, 수전용량 30메가와트(MW) 규모의 데이터센터를 구축하는 프로젝트다. 계약 발주사인 KMG(Kuningan Mas Gemilang)은 총 수전용량을 220MW까지 확장해 인도네시아 최대 규모 데이터센터로 키울 방침이다. LG CNS는 이번 사업에 ‘원 LG’ 통합 설루션을 적용해 LG전자의 데이터센터 냉각 기술, LG에너지솔루션의 배터리 설루션 등 그룹 역량을 활용할 방침이라고 설명했다. 고성능의 그래픽처리장치(GPU)를 대규모로 사용해 발생하는 열을 하이브리드 냉각 시스템으로 잡고, 온·습도 역시 자동으로 제어하는 친환경 공조 시스템을 구축할 계획이다. 데이터센터 입주사가 통신 회선을 자유롭게 선택할 수 있는 망중립 환경도 조성한다. 현신균
와탭랩스가 AI 시대의 핵심 비전 ‘AI 네이티브 옵저버빌리티(AI-native observability)’의 일환으로 ‘와탭 GPU 모니터링’ 솔루션을 출시했다고 18일 밝혔다. AI 네이티브 옵저버빌리티는 데이터 수집부터 해석, 자동화, 사용자 경험 전반에 이르기까지 모든 과정을 AI 전제로 설계하고, 이를 기반으로 개발과 업데이트를 수행하는 AI 중심의 관측 구조를 의미한다. 이는 단순히 AI 기능을 보완한 수준의 모니터링과는 기술 철학과 설계 수준부터 근본적인 차이를 가진다. AI 네이티브 옵저버빌리티의 첫 단계로, 와탭랩스는 AI 인프라의 핵심 자산인 GPU 자원을 가시화하고 실시간으로 모니터링할 수 있는 GPU 모니터링 서비스를 공개했다. 이동인 와탭랩스 대표는 “GPU는 단순한 컴퓨팅 리소스를 넘어 이제는 기업 경쟁력의 기반이 되는 전략적 자산이다. 하지만 많은 기업들이 여전히 GPU 상태를 제대로 관측하지 못해 큰 손실을 겪고 있다”고 지적했다. 이어 “와탭랩스는 실제 고객사들과 협업하며 현장에서 발생하는 GPU 운영 문제를 잘 파악하고 있으며, 고객의 니즈에 맞춰 전체 인프라 안에서 GPU까지 통합 관측이 가능한 환경을 구축했다”고 강조했다.
오라클은 전 세계 AI 혁신 기업들이 AI 모델의 훈련 및 AI 추론과 애플리케이션 배포를 위해 오라클 클라우드 인프라스트럭처 AI 인프라스트럭처(OCI AI Infrastructure)와 OCI 슈퍼클러스터를 활용하고 있다고 밝혔다. 파이어웍스AI(Fireworks AI), 헤드라(Hedra), 누멘타(Numenta), 소니옥스(Soniox)를 비롯해 수백 개의 선도적인 AI 혁신 기업들이 AI 워크로드 실행 위치에 대한 제어, 컴퓨트 인스턴스 선택권, 확장성, 고성능, 비용 효율성 등의 이유로 OCI를 선택하고 있다. 산업 전반에서 AI 도입이 빠르게 확산됨에 따라 AI 기업들은 신속하고 경제적인 GPU 인스턴스 확장을 지원하는 안전하고 검증된 고가용성 클라우드 및 AI 인프라를 필요로 한다. AI 기업들은 OCI AI 인프라스트럭처를 통해 AI 훈련 및 추론, 디지털 트윈, 대규모 병렬 HPC 애플리케이션 등에 필요한 고성능 GPU 클러스터와 확장성 높은 컴퓨팅 파워에 접근할 수 있다. 크리스 간돌포 오라클 OCI 및 AI 부문 수석 부사장은 “OCI는 다양한 규모의 훈련 및 추론 요구사항을 충족시켜 주며, AI 혁신 기업들이 선호하는 클라우드 플랫폼으
AI 수요가 빠르게 증가하는 가운데, 기업들이 도입을 주저하는 가장 큰 이유는 GPU 등 인프라 구축 비용으로 나타났다. 오케스트로는 지난 6월 클라우드 서비스를 사용하는 기업 및 공공기관 종사자 6615명을 대상으로 한 ‘클라우드 환경에서의 AI 활용방안’ 설문 결과를 17일 발표했다. AI 도입 시 가장 큰 제약 요인은 GPU 등 기술 도입 비용(23.5%)이었다. 이어 전문 인력 부족(22.6%), 데이터 보안 우려(14.4%)가 뒤를 이었다. AI 도입은 초기 구축비도 크지만 사용량 기반의 과금 구조로 인해 장기적인 총소유비용(TCO) 부담이 크다. 여기에 AI 학습과 운영에 활용되는 핵심 데이터가 외부 클라우드에 저장되면서 보안 우려도 높아지고 있다. 비용과 보안이라는 이중 부담 속에서 퍼블릭 클라우드 기반 AI 환경의 한계가 분명해지면서 내부 데이터를 활용한 프라이빗 AI 환경은 더이상 선택이 아닌 대세로 자리잡고 있다. AI에 대한 기대 역시 현실적인 해법에 집중됐다. ‘비용 최적화’와 ‘실시간 보안 대응’이 각각 20.7%로 가장 높았고, ‘장애 원인 분석’(17.1%)과 ‘성능 병목 해소’(15.9%)가 뒤를 이었다. 이러한 기대는 기업이 실
DDR5, PCIe 5.0, Zen 4/5 기반 차세대 9000WX 시리즈 등 업그레이드 진행 예고 AMD는 올해 자사의 라이젠 스레드리퍼 프로 시리즈가 출시 5주년을 맞았다고 발표했다. 이 5년은 워크로드가 폭발적으로 증가한 시기와 맞물려 있다. 2017년 처음 선보인 라이젠 스레드리퍼 프로는 코어 수와 멀티스레드 역량을 앞세워 전문가용 워크스테이션 시장에 본격 진출했다. 이후 Zen 3 아키텍처 기반의 5000WX 시리즈와 7000WX 시리즈가 차례로 등장하면서, 최대 96코어에 달하는 사양과 단일 스레드 5GHz 이상 클럭을 동시 제공하며, 혁신적인 설계 철학을 입증했다. 단지 코어 수만이 아니다. AMD 측에 따르면, 라이젠 스레드리퍼 프로를 동일한 GPU 작업 환경에 적용했을 때, 경쟁 프로세서 대비 그래픽 성능이 최대 38% 더 빠르다. 특히 GPU 연산과 AI 연산 처리 성능에서도 각각 29%의 향상을 기록했다. 이러한 성능 우위는 멀티·싱글 스레드 작업을 가리지 않고 안정적인 생산성을 보장한다. AMD는 AutoCAD, 3ds Max, Inventor, Maya 등 주요 워크스테이션 툴과 긴밀히 협업해 라이젠 스레드리퍼 프로 특성을 최대한 활용
한국레노버가 전문가를 위한 최신 씽크스테이션 및 워크스테이션 솔루션을 출시하고 산업별 전문 작업 환경에 최적화된 고성능 워크플로우를 지원한다. 이번에 선보인 제품 및 솔루션은 ▲AI 개발 지원 ▲가상 환경 기반의 공간 컴퓨팅 성능 강화 ▲언제 어디서나 고성능 워크스테이션 접근이 가능한 유연한 업무 환경 구현 등 세 가지 핵심 영역에서 워크플로우를 가속화할 수 있도록 설계됐다. 새로운 씽크스테이션 P2 및 P3 시리즈는 AI, 레이 트레이싱, 뉴럴 렌더링 등 첨단 기술을 바탕으로 디자인, 엔지니어링 같은 고성능 작업 환경에 최적화된 데스크탑 워크스테이션이다. 전문가를 위한 엔비디아 RTX 에이다 제너레이션(Ada Generation) GPU를 지원하며, 추후 엔비디아 RTX 프로 블랙웰 워크스테이션 에디션 GPU도 지원할 예정이다. 씽크스테이션 P3 타워 2세대는 인텔 코어 울트라 9 프로세서와 엔비디아 RTX 프로 6000 블랙웰 맥스Q GPU(2025년 8월 말 국내 출시 예정)를 지원해 최대 3500TOPS(초당 3500조회 연산) 성능을 제공한다. DDR5 메모리 용량이 확대됐으며 스토리지 구성과 RAID 설정의 유연성이 향상돼 복잡한 전문 워크플로우도
트럼프 정부 관세 정책의 불확실성 속에서도 지난달 우리나라 정보통신기술(ICT) 분야 수출이 증가세를 유지하며 5월 중 최대 실적을 기록했다. 12일 과학기술정보통신부의 ICT 수출입 통계에 따르면 지난 5월 ICT 수출액은 208억8천만 달러로 지난해 같은 달보다 9.6% 증가했다. 최대 수출 품목인 반도체 수출액은 138억 달러로 디램과 낸드플래시 등 주요 제품의 고정가격이 반등하고 고대역폭 메모리(HBM) 등 고부가 메모리의 수출 호조가 이어지면서 역대 5월 중 최대 실적을 냈다. 휴대전화는 부품 수출이 10.2% 감소했지만 미국의 관세 부과 예고에 따라 스마트폰 완제품 수출액이 30.7% 증가하며 전체 수출액이 전년 동월 대비 2.8% 늘어난 10억5천만 달러를 기록했다. 휴대전화 수출액은 4개월 연속 늘었다. 통신장비 수출액은 2억 달러로 10.2% 증가했다. 전장용 장비 수요가 늘며 미국 수출액이 67.2% 증가했고 5G 장비 수요가 높은 인도 수출액도 147.0% 늘었다.컴퓨터·주변기기를 보면 저장장치(SSD) 수요가 회복세를 보이며 수출액 12억 달러로 1.7% 증가했다. 반면, 디스플레이는 미국 관세 정책 불확실성 등으로 인한 수요 둔화로 수
2025년 현재, 인공지능(AI) 반도체 시장에서 주목받는 키워드 중 하나는 ‘HBM(High Bandwidth Memory)’이다. 다시 말해 고대역폭 메모리인 HBM은 AI 서버와 고성능 연산용 GPU의 확산과 함께 폭발적으로 증가하는 데이터 처리 수요를 충족시키며, 기존 DRAM 중심의 메모리 시장을 재편하고 있다. 우리나라는 SK하이닉스와 삼성전자라는 막강한 투톱을 우리나라는 HBM을 기점으로 반도체 강국으로 나아가기 위한 미래를 구상하는 중이다. HBM, 단순 메모리가 아닌 ‘전략 자산’ HBM은 기존 DRAM보다 최대 10배 높은 대역폭을 제공하면서도, 물리적 공간은 줄이고 소비 전력은 낮추는 고성능 메모리 솔루션이다. 특히 AI 학습용 GPU나 고성능 컴퓨팅(HPC) 환경에서는 데이터 병목을 해결하는 핵심 역할을 한다. 한 예로, 엔비디아의 H100, H200, AMD의 MI300 시리즈, 최근 발표된 블랙웰 GPU 등 최신 AI 연산 칩은 모두 HBM과의 결합을 통해 성능을 극대화하고 있다. 이러한 흐름 속에서 SK하이닉스와 삼성전자는 HBM 시장에서 기술력과 수율, 공급 안정성 측면에서 글로벌 리더로 부상하고 있다. HBM3의 경우, 대역폭이