세상의 흐름을 읽는 스마트한 습관 [글로벌NOW] 매주, 세계는 조용히 변화를 시작합니다. 기술이 바꾸는 산업의 얼굴, 정책이 흔드는 공급망 질서, 기업이 선택하는 미래 전략. 세계 곳곳에서 매주 벌어지는 이 크고 작은 변화는 곧 우리 산업의 내일과 맞닿아 있습니다. 글로벌NOW는 매주 주목할 만한 해외 이슈를 한 발 빠르게 짚어주는 심플한 글로벌 브리핑입니다. AI, 제조, 물류, 정책 등 다양한 분야에서 벌어지는 굵직한 사건과 트렌드를 큐레이션해 독자들이 산업의 큰 그림을 한눈에 파악하도록 돕겠습니다. [로보틱스] 폭스콘, 美 휴스턴 AI 서버공장에 휴머노이드 로봇 투입...엔비디아와 스마트 팩토리 구축 본격화 · 내년 1분기까지 픽앤플레이스(Pick & Place), 부품 핸들링, 정밀 조립·검사로 단계 확대 예고 · 가정용 보조, 물류 자동화, 데이터 수집 플랫폼까지 사업 영역 확장 시발점 마련해 · “실험실 단계 넘은 휴머노이드 로봇 산업, 대규모 산업화 국면으로 진입” 글로벌 전자제품 제조 업체 폭스콘(Foxconn)이 미국에서 로봇을 활용한 스마트 팩토리(Smart Factory) 구축을 본격화했다. 사측은 대만 소재 인공지능(AI) 반도
								
				KAIST는 지난 31일 이재명 대통령이 젠슨 황 엔비디아(NVIDIA) 대표를 접견해 대한민국 인공지능(AI) 생태계 혁신 방안을 논의한 것과 관련해, 이번 만남이 국내 AI 기술 발전과 글로벌 협력 강화의 중요한 전환점이 될 것이라며 환영의 뜻을 밝혔다. 엔비디아는 대한민국 정부와 함께 ‘AI 3대 강국’ 및 ‘AI 기본사회’ 실현을 위한 협력 방안을 논의했다. 엔비디아는 최신 GPU 26만 장 이상을 포함한 대규모 AI 컴퓨팅 인프라를 확충하고, 공공과 민간의 AI 수요에 대응하기 위한 기술 협력을 병행할 계획이다. 이번 접견에서는 ▲AI 인프라 구축 ▲피지컬 AI(Physical AI) 기술 협력 ▲AI 인재양성 및 스타트업 지원 등 다양한 분야에서 협력 방안이 폭넓게 논의됐다. 젠슨 황 엔비디아 대표는 APEC CEO 서밋 기조연설에서 “엔비디아의 목표는 한국에 단순히 하드웨어를 공급하는 것을 넘어, 지속가능한 AI 생태계를 조성하는 것”이라며 “KAIST와 같은 우수한 대학, 스타트업, 정부, 연구기관과 협력해 한국의 AI 생태계를 활성화할 것”이라고 밝혔다. 그는 또 “AI의 발전은 필연적으로 로보틱스와의 결합으로 이어질 것”이라며 “인간과 함께
								
				엔비디아가 대한민국 정부와 주요 산업 기업들과 함께 전국 규모의 AI 인프라와 생태계 구축에 나섰다. 이번 협력은 클라우드와 AI 팩토리를 중심으로 약 26만 개 이상의 GPU를 도입해 한국의 혁신과 산업 발전, 일자리 창출을 견인하는 것을 목표로 한다. 과학기술정보통신부는 최신 엔비디아 GPU 5만 개 이상을 활용한 국가 AI 인프라 투자를 추진하고 있으며 NHN클라우드·카카오·네이버 클라우드 등 주요 클라우드 기업이 국가 AI컴퓨팅센터를 포함한 주요 인프라에 이를 배포할 예정이다. 이는 기업과 연구기관이 독자적인 AI 모델과 애플리케이션을 개발할 수 있도록 지원하기 위한 기반으로 한국의 주권 AI 생태계를 강화하는 방향으로 이어진다. 산업계에서도 AI 팩토리 구축이 활발히 추진된다. 삼성전자는 5만 개 이상의 GPU를 탑재한 AI 팩토리를 구축해 반도체 제조 공정과 디지털 트윈 구현에 엔비디아 기술을 활용하고 있다. 특히 쿠다-X, cu리소, 옴니버스 등 엔비디아 플랫폼을 통해 공정 속도와 수율을 높이는 동시에, 아이작 심·아이작 랩을 활용해 로봇 개발 포트폴리오를 강화한다. SK그룹 역시 5만 개 이상 GPU를 기반으로 산업용 클라우드 인프라를 설계해
								
				엔비디아가 정부와 삼성전자, SK그룹, 현대차그룹, 네이버클라우드 등 국내 4개 기업에 총 26만 장의 그래픽처리장치(GPU)를 투입한다. 최대 14조 원에 달하는 규모인데, 이로써 전 세계적으로 부족 현상이 나타나는 GPU를 한국이 우선으로 받는 동시에 엔비디아의 'AI 인프라 생태계'에 참여함으로써 한국의 주권형 AI 구축이 빨라질 수 있다는 관측이 나온다. 이밖에도 엔비디아는 국내 기업들과 6세대 이동통신(6G), 의료, 양자컴퓨팅 부문에서도 폭넓게 협력한다는 계획이다. 최신 GPU ‘블랙웰’ 우선 할당 예상…"국내 AI GPU 수량 6만 5000개에서 30만 개로 증가" 31일 업계에 따르면 엔비디아는 전날 국내외 미디어를 대상으로 온라인 사전브리핑을 열고 이 같은 내용을 담은 한국 인프라·기술 발전 AI 이니셔티브를 발표했다. 한국이 26만 개에 달하는 엔비디아의 최신 GPU ‘블랙웰’을 활용해 AI 인프라를 구축하고, 자동차·제조·반도체·통신 등 주요 산업의 AI 개발과 디지털 전환을 가속한다는 게 골자다. 먼저 정부는 최대 5만개 GPU를 배치해 기업과 산업의 AI 개발을 지원한다는 계획이다. 또 삼성과 SK그룹, 현대차그룹은 각각 최대 5만개의
								
				커머스 AI 에이전트 스타트업 인핸스(대표 이승현)가 과학기술정보통신부와 정보통신산업진흥원이 추진하는 ‘AI컴퓨팅자원 활용기반 강화(GPU 확보·구축·운용지원)사업’에 선정됐다. 이번 선정으로 인핸스는 9개월간 고성능 GPU 자원을 지원받아 자사 행동형 AI 모델 ‘ACT-1’의 성능 고도화에 나선다. 해당 사업은 정부가 기업의 AI 인프라 확보를 지원하고, 국가 차원의 AI 기술 경쟁력을 높이기 위해 GPU 자원을 제공하는 핵심 프로젝트다. 인핸스는 이번 지원을 통해 대규모 AI 학습용 컴퓨팅 인프라를 구축하고, 텍스트·HTML 혼합 데이터와 반복 작업(Task) 데이터셋을 활용해 AI 모델의 정밀도와 처리 효율성을 강화할 계획이다. 인핸스의 ‘ACT-1’은 버튼 클릭, 메뉴 선택, 필드 입력 등 웹 환경 내 다양한 인터페이스를 스스로 제어할 수 있는 LAM(Large Action Model) 기반 행동형 AI 모델이다. 단순한 언어 생성에 머무는 기존 LLM과 달리, 실제 웹 브라우저 상에서 명령을 실행하고 업무를 자동 처리할 수 있는 점이 차별화 요소다. 이 모델은 웹 테스트 자동화, 커머스 운영, 크롤링 등 다중 작업을 수행하며, 복잡한 웹 기반 프로
								
				인공지능(AI) 워크로드와 고성능 컴퓨팅(HPC) 애플리케이션이 폭발적으로 성장함에 따라 초고속 데이터 전송과 초저지연 연결에 대한 요구가 높아지고 있다. 이에 마이크로칩테크놀로지는 업계 최초로 3나노미터(3nm) 공정으로 제작된 PCIe Gen 6 스위치 ‘Switchtec Gen 6’ 제품군을 공개했다. 새로운 Switchtec Gen 6 스위치는 전력 효율과 보안, 그리고 연결 밀도를 모두 강화한 차세대 솔루션으로, 최대 160레인을 지원해 AI 및 데이터센터 인프라의 고밀도 연결을 가능하게 한다. 또한 하드웨어 루트 오브 트러스트와 보안 부팅 기능을 내장하고, CNSA 2.0(Commercial National Security Algorithm Suite 2.0)을 준수하는 포스트 퀀텀 안전 암호 기술을 채택해 보안성을 한층 높였다. PCIe 6.0 표준은 PCIe 5.0 대비 두 배에 달하는 레인당 64GT/s의 대역폭을 제공해, AI 액셀러레이터와 GPU, CPU 간 데이터 병목을 최소화하고 전송 효율을 극대화한다. Switchtec Gen 6 스위치는 CPU, GPU, SoC, AI 가속기, 스토리지 간의 고속 연결을 구현해 데이터센터 설계자들이
								
				슈나이더 일렉트릭이 고성능 컴퓨팅(HPC) 및 AI 워크로드에 최적화된 리퀴드쿨링(Liquid Cooling) 솔루션 포트폴리오를 공개했다. 이는 올해 초 인수한 모티브에어(Motivair)와의 통합 이후 처음으로 선보이는 리퀴드쿨링 솔루션으로, AI 팩토리 구현을 위한 데이터센터 열 관리 시장에 본격적으로 진출했다. 고성능 컴퓨팅 및 AI 기술의 발전으로 데이터센터의 랙 당 전력 밀도는 140kW를 넘어 1MW 이상까지 고려해야 하는 상황에 직면해 있다. AI칩이 더욱 뜨겁고 조밀해지면서 기존 공기 냉각 방식으로는 이러한 고발열 환경을 감당하기 어려운 상황이다. 쿨링이 데이터센터 전력 예산의 40%를 차지하는 가운데, 리퀴드쿨링은 공기 냉각 대비 최대 3000배 효율적인 열 제거 성능을 제공하며 칩 수준에서 직접 열을 제거해 냉각 효율과 에너지 사용량을 동시에 개선할 수 있다. 이로 인해 직접 리퀴드쿨링은 차세대 데이터센터의 핵심 기술로 자리 잡고 있다. 슈나이더 일렉트릭의 리퀴드쿨링 솔루션은 높은 GPU 밀도와 전력 수요를 안정적이고 효율적으로 충족하도록 설계됐다. 포트폴리오는 ▲CDUs(Coolant Distribution Unit) ▲후면 도어 열 교
								
				스냅드래곤 8 엘리트 5세대, CPU·GPU·NPU 성능 대폭 향상 퀄컴 테크날러지스가 세계에서 가장 빠른 모바일 시스템 온 칩(SoC)으로 소개한 스냅드래곤 8 엘리트 5세대(Snapdragon 8 Elite Gen 5 Mobile Platform)를 공개했다. 새로운 플랫폼은 사용자의 기대 수준을 한 단계 높이며, 초고속 멀티태스킹과 매끄러운 앱 전환, 전력 효율 개선을 통한 장시간 게임 플레이 환경을 제공한다. 스냅드래곤 8 엘리트 5세대의 가장 큰 특징은 에이전틱(Agentic) AI 기능이다. 온디바이스 멀티모달 AI 모델이 지속적인 학습과 실시간 센싱을 통해 사용자의 패턴을 이해하고, 상황에 맞는 프롬프트 개선과 맞춤형 추천을 제시한다. 모든 데이터는 기기 내에 안전하게 저장돼 보안성도 확보된다. 영상 기능도 대폭 강화됐다. 스냅드래곤 8 엘리트 5세대는 APV(Advanced Professional Video) 코덱 기반 촬영을 지원해 전문가 수준의 영상 제작을 가능하게 한다. AI 기반 카메라 기능은 스튜디오급 녹화와 폭넓은 후반 작업 제어를 지원해 크리에이터들이 창의적 비전을 실현할 수 있도록 돕는다. 성능 향상폭도 눈에 띈다. 3세대 퀄컴
								
				텍트로닉스가 차세대 초고성능 계측기의 첫 모델인 7 시리즈 DPO 오실로스코프 출시를 발표했다. 이번 제품은 업계 최저 노이즈와 최고 유효 비트 수(ENOB)를 구현했으며, 확장 가능한 아키텍처를 기반으로 최대 25GHz 대역폭을 지원한다. 신제품에는 텍트로닉스가 새롭게 개발한 2개의 맞춤형 ASIC을 포함한 최신 신호 처리 및 데이터 처리 기술이 적용됐다. 이를 통해 고속 통신, 고에너지 물리학, 인공지능, 양자 컴퓨팅 등 첨단 연구와 엔지니어링 분야에서 최적화된 성능을 제공한다. 또한 기존 장비 대비 최대 10배 빠른 데이터 전송 속도를 지원해, 복잡한 신호를 더 적은 노이즈로 캡처하고 분석할 수 있다. 엔지니어는 이를 통해 더 넓은 가시성과 깊은 통찰력, 신속한 의사결정과 작업 수행이 가능하다. 크리스 본 텍트로닉스 사장은 “테스트 시스템의 한계가 곧 혁신의 한계가 될 때 새로운 접근 방식이 필요하다”며 “7 시리즈는 세계에서 가장 복잡한 문제들을 해결하는 엔지니어들과 협력해 개발됐으며, 고주파 대역폭, 낮은 노이즈, 빠른 분석 기능을 반영했다. 고객이 혁신을 이끌 수 있는 역량과 자신감을 제공할 것”이라고 말했다. 7 시리즈 DPO는 맞춤형 ASIC,
								
				노르마가 신약 개발용 양자 AI 알고리즘을 엔비디아 GPU 플랫폼에서 실행해 기존 CPU 대비 최대 73배 빠른 성능을 확인했다. 노르마는 자체 개발한 양자 AI 알고리즘을 엔비디아의 CUDA-Q(쿠다큐) 플랫폼에서 구동해 성능을 검증했으며, 해당 결과는 엔비디아 SNS를 비롯해 해외 언론과 양자 전문 채널에 소개됐다. 쿠다큐는 GPU와 QPU의 통합을 단순화하고 양자-고전 하이브리드 연산을 지원하는 핵심 기술로, 양자 알고리즘의 개발과 실행 속도를 가속화한다. 이번 프로젝트는 강동경희대학교병원과 공동으로 진행 중인 신약 후보 물질 발굴 연구에 쿠다큐를 적용하기 위해 추진됐다. 신약 후보 발굴은 방대한 화학적 탐색 공간을 다뤄야 하는데, 기존 AI 연산 방식에는 한계가 있었다. 이에 노르마 퀀텀AI팀은 QLSTM, QGAN, QCBM 등 다양한 양자 AI 알고리즘을 개발하고, 쿠다큐를 통해 타 시뮬레이터 대비 우수한 연산 성능을 확인했다. 노르마는 엔비디아의 기술 지원을 받아 H200 및 GH200 기반 쿠다큐 환경을 구성해 알고리즘을 테스트했다. 그 결과 CPU 대비 순전파 과정은 약 60.14~73.32배, 역전파 과정은 약 33.69~41.56배 빠른
								
				개요 클라우드 도입과 인공지능(AI)의 시대로 접어들면서 데이터 센터 대역폭에 대한 수요가 급격히 증가해 전 세계적으로 데이터 센터도 기하급수적으로 늘어나는 추세다. 그러나 새로운 데이터 센터는 지속가능성과 공간 확보, 그리고 예산이라는 장벽을 마주하고 있다. 여러 정부 당국은 데이터 센터가 생산성, 경제 성장, 연구 발전에 기여한다는 점은 인정하고 있지만, 동시에 지역 사회의 민원, 수자원, 전력 사용에 미치는 영향 등 어려움이 동시에 존재한다. 이에 대한 가장 효과적인 해결책은 우리가 가진 자원의 한계를 고려하면서 기존 데이터 센터의 인프라를 최적화하여 성능을 극대화하는 것이다. 도시와 소비재, 그리고 우리가 살아가는 세계는 앞으로 점점 더 디지털화될 것이며 이에 더 많은 컴퓨팅 파워를 필요로 하게 된다. 현재 보유하고 있는 데이터 센터 인프라를 최적화해 더 높은 성능을 끌어내는 것은 데이터 센터에 닥친 현실적인 제약을 경쟁력으로 바꿔내는 효과적인 방법이다. 데이터 센터 최적화가 중요한 이유 기업의 CIO와 IT 리더는 비즈니스 전반에 활용할 수 있는 높은 성능의 기반 컴퓨팅 인프라를 구축해 새롭고 더 까다로워지는 워크로드들을 처리해야 하는 동시에 지속가
								
				마치 전기가 한 나라의 산업과 생활을 지탱하는 필수 인프라가 된 것처럼, 이제 인공지능도 국가의 심장부를 움직이는 핵심 동력이 되고 있다. 하지만 전기를 외국에서 끌어다 쓰듯, AI를 해외 빅테크 기업의 모델에만 의존한다면 어떤 일이 벌어질까. 행정·의료·교육 같은 민감한 영역에서 우리의 언어와 데이터를 이해하지 못하는 시스템이 결정권을 쥔다면, 이는 단순한 기술 격차가 아니라 국가 주권의 문제로 이어진다. 바로 이 지점에서 ‘소버린 AI(Sovereign AI)’, 즉 각 나라가 자국 상황에 맞게 직접 개발하고 운영하는 AI의 필요성이 등장한다. 소버린 AI가 불러온 파급효과 소버린 AI의 필요성은 무엇보다 국가 안보와 직결된다. 의료·법률·교육·국방과 같은 핵심 영역에서 글로벌 빅테크가 제공하는 AI에 전적으로 의존한다면, 이는 정책적 자율성과 데이터 주권을 잃는 결과로 이어질 수 있다. 특히 다국적 기업이 만든 모델은 해당 국가의 언어적 뉘앙스나 법제·문화적 맥락을 충분히 반영하지 못한다는 한계가 있다. 하지만 반대 측면도 존재한다. 국가별로 AI 모델을 쪼개어 개발하면 글로벌 상호운용성이 저하되고, AI 발전 속도가 늦춰질 수 있다. 데이터 사일로는
								
				망고부스트 김장우 대표 인터뷰 거대한 도시가 제대로 돌아가기 위해선 도로망과 신호체계가 막힘없이 작동해야 한다. AI 인프라도 마찬가지다. GPU, 스토리지, 네트워크가 제 역할을 하려면 서로 간의 데이터 흐름이 매끄럽게 이어져야 한다. 그러나 지금까지의 구조에서는 모든 교통 신호를 CPU 한 대가 관리하다 보니, 차량이 몰리는 순간 도로가 정체되고 처리 속도가 급격히 떨어졌다. 이 병목을 해소하기 위해 망고부스트는 독보적인 DPU(Data Processing Unit) 기술력을 앞세워 시장을 돌파하고 있다. AI 서버 효율 극대화, 그 중심에 선 DPU 프레세덴스 리서치에 따르면, 글로벌 AI 반도체 시장은 2023년 약 450억 달러 규모에서 2028년 1500억 달러로 성장할 전망이다. 대규모 언어모델(LLM) 학습, 실시간 데이터 분석 등 고속·대용량 처리 환경이 확산됨에 따라, DPU는 필수 인프라로 부상 중이다. DPU는 본래 있던 네트워크 카드가 속도와 기능 면에서 진화한 형태로, 데이터 경로를 지능적으로 제어해 GPU의 잠재력을 100% 발휘하도록 돕는다. 이 흐름 속에서 망고부스트는 FPGA와 자체 반도체 설계를 결합해 고객 맞춤형 DPU를
								
				LG CNS는 6일 인도네시아 수도 자카르타에 1000억 원 규모의 인공지능(AI) 데이터센터를 구축한다고 밝혔다. 국내 기업으로 해외에 AI 데이터센터를 짓는 것은 이번이 처음이라고 회사측은 강조했다. LG CNS는 인도네시아 재계 서열 3위인 시나르마스 그룹과 합작법인 ‘LG 시나르마스 테크놀로지 솔루션’을 통해 이번 구축 사업을 성사했다. 이 사업은 자카르타에 10만대 이상 서버를 한꺼번에 수용하는 지상 11층, 수전용량 30메가와트(MW) 규모의 데이터센터를 구축하는 프로젝트다. 계약 발주사인 KMG(Kuningan Mas Gemilang)은 총 수전용량을 220MW까지 확장해 인도네시아 최대 규모 데이터센터로 키울 방침이다. LG CNS는 이번 사업에 ‘원 LG’ 통합 설루션을 적용해 LG전자의 데이터센터 냉각 기술, LG에너지솔루션의 배터리 설루션 등 그룹 역량을 활용할 방침이라고 설명했다. 고성능의 그래픽처리장치(GPU)를 대규모로 사용해 발생하는 열을 하이브리드 냉각 시스템으로 잡고, 온·습도 역시 자동으로 제어하는 친환경 공조 시스템을 구축할 계획이다. 데이터센터 입주사가 통신 회선을 자유롭게 선택할 수 있는 망중립 환경도 조성한다. 현신균
								
				와탭랩스가 AI 시대의 핵심 비전 ‘AI 네이티브 옵저버빌리티(AI-native observability)’의 일환으로 ‘와탭 GPU 모니터링’ 솔루션을 출시했다고 18일 밝혔다. AI 네이티브 옵저버빌리티는 데이터 수집부터 해석, 자동화, 사용자 경험 전반에 이르기까지 모든 과정을 AI 전제로 설계하고, 이를 기반으로 개발과 업데이트를 수행하는 AI 중심의 관측 구조를 의미한다. 이는 단순히 AI 기능을 보완한 수준의 모니터링과는 기술 철학과 설계 수준부터 근본적인 차이를 가진다. AI 네이티브 옵저버빌리티의 첫 단계로, 와탭랩스는 AI 인프라의 핵심 자산인 GPU 자원을 가시화하고 실시간으로 모니터링할 수 있는 GPU 모니터링 서비스를 공개했다. 이동인 와탭랩스 대표는 “GPU는 단순한 컴퓨팅 리소스를 넘어 이제는 기업 경쟁력의 기반이 되는 전략적 자산이다. 하지만 많은 기업들이 여전히 GPU 상태를 제대로 관측하지 못해 큰 손실을 겪고 있다”고 지적했다. 이어 “와탭랩스는 실제 고객사들과 협업하며 현장에서 발생하는 GPU 운영 문제를 잘 파악하고 있으며, 고객의 니즈에 맞춰 전체 인프라 안에서 GPU까지 통합 관측이 가능한 환경을 구축했다”고 강조했다.