파네시아가 AI 인프라 설계에 대한 기술 비전을 담은 백서 ‘AI 인프라 혁신의 중심, 메모리∙링크 중심의 연결 반도체와 데이터센터 연결 솔루션’을 공개했다. 이번 백서는 컴퓨트익스프레스링크(CXL)를 중심으로 NVLink, UALink, 고대역폭메모리(HBM) 등 차세대 연결 기술과 메모리 기술을 활용해 AI 인프라의 병목을 해소하고자 하는 전략을 구체적으로 담고 있다. 백서는 크게 세 가지 파트로 구성됐다. 첫 번째 파트에서는 챗봇, 이미지 생성, 시계열 데이터 처리 등 최근 활용도가 급증한 시퀀스 기반 AI 모델의 구조와 흐름을 설명하며, 현재 데이터센터 인프라 구조가 가진 문제점을 짚었다. 특히, GPU 간 동기화 과정에서 발생하는 통신 오버헤드와 고정된 자원 구조로 인한 비효율성을 핵심 한계로 지적했다. 이에 대한 해결책으로 두 번째 파트에서는 CXL 기반의 컴포저블(composable) 구조를 제안한다. 파네시아는 자체 CXL 설계 자산(IP)과 스위치 솔루션을 기반으로 실제 프로토타입을 개발하고, AI 응용에서의 가속 효과를 검증했다. CXL을 활용하면 캐시 일관성을 자동 보장하면서 통신 부하를 줄이고, 고정된 자원 구조에서 벗어난 유연한 확장이
AI 인프라 투자 확대 기조에 맞춰 씨이랩이 자사의 GPU 기반 솔루션과 디지털 트윈 기술을 앞세워 사업 확장에 나선다. 씨이랩은 24일 온라인 비전설명회를 통해 향후 성장 전략을 발표하고, 정부의 대규모 AI 인프라 투자를 계기로 GPU 솔루션과 산업특화형 AI 기술 수요에 적극 대응하겠다고 밝혔다. 정부는 오는 2025년부터 5년간 약 100조 원 규모의 예산을 AI 데이터센터, GPU 서버, 스마트 안전 시스템 등에 투입할 예정이며, 이로 인해 약 5만 대 이상의 GPU 서버 수요가 발생할 것으로 전망된다. 씨이랩은 이 같은 흐름에 맞춰 GPU 인프라 관리 솔루션 'AstraGo(아스트라고)'를 주력으로 내세우고 있다. AstraGo는 GPU 자원의 자동 분배와 작업 스케줄링 효율을 극대화해 서버 관리 비용을 50% 이상 절감할 수 있는 것이 특징이다. 영상 기반 AI 기술 역시 씨이랩의 주요 사업축이다. 자사의 실시간 AI 영상 분석 솔루션 'XAIVA(엑스아이바)'는 CCTV 기반 위험 탐지, 제조 품질 관리, 바이오 GMP 환경 검증 등 다양한 산업에 적용되고 있다. 특히 XAIVA는 산업별 특화 기능을 강화하며 ‘XAIVA On Device’라는
퓨리오사AI가 자사의 2세대 AI 추론 가속기 ‘레니게이드(RNGD)’를 LG의 대규모 언어모델(LLM) ‘엑사원(EXAONE)’에 전면 도입했다고 22일 밝혔다. 이번 협업은 양사가 약 8개월에 걸쳐 진행한 성능 검증을 바탕으로 추진됐으며, 이를 통해 레니게이드는 GPU를 대체할 수 있는 현실적인 대안으로 주목받고 있다. LG AI연구원은 엑사원 3.5 모델의 파일럿 환경에 레니게이드를 적용해 테스트한 결과, 전력 대비 성능에서 기존 GPU보다 약 2.25배 높은 효율을 확인했다. 특히 대규모 AI 모델 구동 시 GPU가 갖는 고질적인 전력 소모 문제를 해결하면서도 고성능 요건을 충족시켰다는 점에서 의미가 크다. 이번 사례는 대형 엔터프라이즈 AI 추론 환경에서 GPU 이외의 가속기가 실질적으로 도입된 첫 사례 중 하나로, 산업 전반에서 AI 인프라 다변화 가능성을 제시했다. 퓨리오사AI는 이를 통해 글로벌 기업을 대상으로 한 엔터프라이즈 레퍼런스를 확보하게 되었으며, 향후 대형 AI 프로젝트에 활용도를 확대할 수 있는 기반을 마련하게 됐다. LG 측도 레니게이드의 실용성을 높이 평가했다. 전기정 LG AI연구원 프로덕트 유닛장은 “다양한 GPU 및 NPU
SSD 병렬 처리 성능 활용과 유사 쿼리 묶기 및 데이터 저장 구조 개선이 핵심 디노티시아가 참여한 벡터 데이터베이스 최적화 연구가 세계 최고 권위의 데이터베이스 학회 ‘VLDB 2025’에 공식 채택됐다. 해당 논문은 서울대학교 이상원 교수 연구팀 주도 아래 디노티시아 노홍찬 CDO와 도재영 교수(서울대학교)가 공동 참여한 산학 협력 연구 결과로, 실용성과 기술 완성도를 동시에 인정받았다. VLDB(Very Large Data Bases)는 데이터 관리, 분산 시스템, 대규모 처리 아키텍처 등 데이터 인프라 전반을 다루는 학회로, 매년 전 세계 학계와 산업계에서 600편 이상의 논문이 제출되며 채택률은 약 15%에 불과하다. VLDB 2025는 오는 9월 1일부터 5일까지 영국 런던에서 개최될 예정이다. 이번에 채택된 논문 ‘Turbocharging Vector Databases using Modern SSDs’는 검색증강생성(RAG)과 시맨틱 검색 등 AI 기반 검색 시스템에서 핵심적인 벡터 탐색 성능을 개선하는 기술을 다뤘다. SSD의 병렬 처리 성능을 최대한 활용하고, 유사 쿼리 묶기 및 데이터 저장 구조를 개선함으로써 기존 벡터 데이터베이스의 느린
기존 GPU 인스턴스 대비 최대 20배 향상된 연산 성능 및 11배 높은 메모리 용량 제공 아마존웹서비스(AWS)가 초거대 생성형 AI 훈련과 추론을 위한 차세대 인프라로, 엔비디아의 최신 슈퍼칩 ‘그레이스 블랙웰(Grace Blackwell)’ 기반의 P6e-GB200 울트라서버를 공개했다. 이는 기존 GPU 인스턴스 대비 최대 20배 향상된 연산 성능과 11배 높은 메모리 용량을 제공하며, AWS 역사상 가장 강력한 GPU 기반 인프라로 평가된다. 이번에 함께 공개된 P6-B200 인스턴스는 중대형 AI 워크로드에 유연하게 대응할 수 있도록 구성됐다. 두 제품 모두 엔비디아 블랙웰 GPU를 중심으로 설계됐으며, 대규모 AI 시스템과 실시간 고성능 추론이 요구되는 에이전틱 AI 시스템을 위한 솔루션이다. P6e-GB200 울트라서버는 최대 72개의 엔비디아 블랙웰 GPU를 NV링크로 연결해 하나의 컴퓨팅 유닛처럼 동작하며, FP8 연산 기준 360페타플롭스의 성능과 총 13.4테라바이트의 고대역폭 GPU 메모리를 제공한다. 이와 함께 4세대 EFA 네트워크를 통해 초당 최대 28.8테라비트의 대역폭을 구현했다. 반면, P6-B200 인스턴스는 8개의 블랙웰
하이퍼스케일급 고성능 데이터센터 수요가 빠르게 늘어나고 있어 국내 데이터센터의 전력 수요가 2028년까지 연평균 11% 증가하며 1.4배에 달할 것이란 전망이 나왔다. 한국IDC는 최근 발표한 ‘한국 데이터센터 운영 및 코로케이션 서비스 시장 동향 2025’ 보고서를 통해 2025년 기준 4461MW였던 데이터센터 전력 수요가 2028년에는 6175MW까지 증가할 것으로 예측했다. 이번 전망치는 엔터프라이즈 기업의 자체 서버룸은 물론, 클라우드 및 서비스 제공업체들의 대형 데이터센터 수요를 모두 포함한 수치로, 국내에 공급되는 서버 물량을 기반으로 산출됐다. 특히 생성형 AI의 확산으로 인해 하이퍼스케일급 고성능 데이터센터에 대한 수요가 빠르게 늘어나고 있다는 점이 수요 상승의 핵심 요인으로 꼽혔다. 한국IDC는 “AI 인프라에 최적화한 투자로 전환하는 기업은 아직 10% 수준에 불과하다”며, “이에 향후 기업들의 GPU 기반 아키텍처 전환, 고효율 냉각 시스템 구축 등이 본격화되면서 전력 소비는 확대될 것”이라고 분석했다. 또한, 자산운용사, 건설사 등 비 통신·비IT 기업들의 데이터센터 시장 진출이 활발해지며 경쟁 구도도 재편되고 있는 가운데, 이는 전력
풀스택 연결 기술 제품군으로 AI 인프라에 특화한 맞춤형 연결 실현 파네시아가 AI 인프라 최적화를 위한 ‘링크솔루션(LinkSolution)’ 전 제품군을 공식 공개하며, 자사의 기술 철학과 브랜드 정체성을 본격화하고 있다. 이번 발표는 파네시아가 새롭게 개편한 공식 홈페이지를 통해 공개됐으며, AI 인프라 설계 전반에 대한 통합적 접근을 제시하고 있다. 파네시아는 AI 시대를 맞아 GPU, AI 가속기, 메모리 등 다양한 연산 자원을 유연하게 연결하는 연결 반도체 분야에 주력해 왔다. 이번에 선보인 링크솔루션은 하드웨어, 반도체 설계자산(IP), 네트워크 구조, 소프트웨어까지 아우르는 풀스택 연결 기술 제품군으로, AI 인프라에 특화한 맞춤형 연결을 가능케 한다. 제품은 크게 세 가지 구성으로 나뉜다. 첫째, 하드웨어 분야에서는 스위치 SoC(PanSwitch)와 리타이머(PanRetimer)가 핵심이다. 스위치는 여러 AI 장치를 연결해 대규모 네트워크 구성을 지원하며, 리타이머는 장거리 신호 전송 시 신호 세기를 보정해 통신 품질을 유지한다. 이들은 모두 파네시아의 저지연 설계자산이 적용돼 통신 오버헤드를 줄이는 데 효과적이다. 둘째, 반도체 IP 분
양사 협력 현황 공유 및 실전 적용 확대 방안 논의 카카오엔터프라이즈가 AMD와 함께 'AMD-카카오클라우드 개발자 밋업'을 성공적으로 개최했다. 이번 밋업은 경기도 성남시 판교 인근에서 6월 24일 진행됐으며, AI 인프라 고도화와 기술 최적화를 위한 양사의 협력 현황을 공유하고 향후 실전 적용 확대 방안을 논의하는 자리로 마련됐다. 이번 밋업은 단순한 기술 소개를 넘어 실사용 환경에서의 적용 사례, 성능 개선 경험, 그리고 고객 피드백에 기반한 협업 과제 등을 중심으로 양사의 파트너십을 실질적으로 강화하는 계기가 됐다. AMD뿐 아니라 AMD 생태계 내 주요 기술 파트너사들도 대거 참석해 의미를 더했다. 이날 행사에는 망고부스트, 파두 등이 함께 참여해 차세대 AI 인프라 기술을 소개했다. AMD코리아 김홍필 이사는 'AMD Advancing AI 2025'를 주제로 고성능 컴퓨팅 및 AI 로드맵을 발표했고, 망고부스트 권동업 CTO는 대형 언어모델(LLM)의 추론 및 학습 성능을 끌어올리는 자사 솔루션 ‘LLMBoost’를 공유했다. 이어 파두 김승민 박사는 AI 데이터 센터를 위한 고성능·고효율 스토리지 기술에 대해 발표했다. 카카오엔터프라이즈는 AM
단일 기업으로는 이례적으로 다섯 편의 논문 채택받아 파네시아가 차세대 반도체 및 연결 기술 연구 성과를 글로벌 저널 IEEE Micro에 게재하며 기술력을 인정받았다. 파네시아는 컴퓨터 아키텍처 분야 권위지로 꼽히는 IEEE Micro 5·6월호 특집호에 총 5편의 논문을 발표하며, CXL(Compute Express Link)과 인-스토리지 프로세싱을 중심으로 한 차세대 스토리지 아키텍처를 선보였다. 이번 특집호의 주제는 ‘캐시 일관성 보장 연결 기술 및 자원 분리(Cache Coherent Interconnects and Resource Disaggregation Techniques)’로, 마이크로소프트, IBM, 메타, 구글 등 글로벌 빅테크 기업이 최신 연구 성과를 공개한 가운데, 파네시아는 단일 기업으로는 이례적으로 다섯 편의 논문을 채택받아 존재감을 부각시켰다. 핵심 연구는 크게 세 가지 방향에서 진행됐다. 첫 번째는 CXL 기반 SSD(CXL-SSD)를 활용한 고성능 메모리 아키텍처 개발이다. 파네시아는 기존 SSD를 DRAM처럼 활용할 수 있는 구조를 제안하고, 이를 최적화하기 위한 기술 두 가지를 함께 소개했다. 하나는 데이터 처리 방식에 대
KQC, 국내 유일 양자·AI 통합 서비스 기업으로 성장 박차 한국퀀텀컴퓨팅(KQC)이 오는 6월 24일부터 26일까지 양재 aT센터 제2전시장에서 열리는 ‘퀀텀 코리아 2025’에 참가해, 양자기술의 산업 적용과 상용화를 향한 실질적인 해법을 제시한다. 올해로 세 번째를 맞은 ‘퀀텀 코리아 2025’는 국내외 양자 과학기술 연구 성과와 기업 솔루션을 한자리에 모은 전시회로, 올해는 경제협력개발기구(OECD)와의 공동 워크숍도 함께 진행되며 기술 외교와 정책 논의까지 아우르는 행사로 확대됐다. KQC는 IBM 퀀텀 네트워크의 공식 파트너로, 양자 알고리즘 개발과 소프트웨어 구현은 물론 양자 보안 솔루션을 포함한 풀스택 서비스를 제공해왔다. 이번 전시회에서는 KQC가 자체 보유한 양자컴퓨팅 기술뿐 아니라, 이달 중순 디지털엣지 부평 데이터센터에 새롭게 구축한 ‘AI GPU 팜(AI GPU Farm)’ 기반의 GPUaaS(클라우드 고성능 컴퓨팅 서비스)를 처음으로 선보인다. KQC는 AI와 양자컴퓨팅 간 융합 가능성에 주목하며, 고성능 AI 인프라 제공 기업으로서의 입지를 확고히 다지고 있다. 특히 엔비디아 H200 GPU 기반 인프라를 통해 AI 모델 학습과
지속적인 기술 협력과 공동 마케팅으로 국내 AI 인프라 시장 경쟁력 확보 레노버 글로벌 테크놀로지 코리아(ISG)가 모레(Moreh), AMD와 함께 지난 10일 서울 강남 조선 팰리스에서 ‘Lenovo Tech Day – Smarter HPC for All’ 세미나를 개최하고, AI 인프라 혁신을 위한 공동 전략을 공개했다. 이 자리에서 세 기업은 AI 추론 성능을 크게 끌어올릴 수 있는 통합 솔루션과 함께 하반기 출시 예정인 차세대 데이터 센터 인프라 로드맵을 제시했다. 이번에 발표된 AI 인프라 통합 솔루션은 레노버의 고성능 서버와 AMD의 CPU·GPU, 그리고 모레의 GPU 가상화 및 스마트 라우팅 기술이 결합된 형태다. 세 기업은 이 솔루션이 실제 고객 환경에서 최대 2배 이상의 AI 추론 성능 향상을 이끌어냈다고 설명했다. 플랫폼 종속성을 낮추고, 다양한 워크로드에 유연하게 대응 가능한 점도 주요 강점으로 부각됐다. 세미나 발표에 나선 레노버 ISG 김윤길 부장은 “AI 워크로드에 최적화된 최신 서버 포트폴리오와 HPC 솔루션이 향후 기업들의 IT 전략에 있어 핵심 요소로 부상하고 있다”고 언급했다. 특히 AMD EPYC™ 프로세서의 성능과 모레
CXL 3.x 스위치, CPU·GPU·NPU·메모리 등 다양한 장치를 자유롭게 연결 파네시아가 유럽 최대 슈퍼컴퓨팅 행사인 ‘ISC High Performance 2025(이하 ISC 2025)’에 처음으로 참가하며 CXL 3.x 기반의 고성능컴퓨팅(HPC) 풀 스택 솔루션을 선보였다. 행사 기간은 6월 10일부터 12일까지였으며, 독일 함부르크에서 전 세계 HPC 업계 전문가 3000여 명이 참석한 가운데 진행됐다. 파네시아는 이번 전시에서 자체 개발한 CXL 3.x 스위치와 CXL 설계자산(IP)을 적용한 컴포저블 서버를 공개했다. 이 솔루션의 특징은 연산자원(CPU, GPU)과 메모리 자원을 별도의 노드로 분리하고, 이들을 CXL 스위치를 통해 유연하게 구성할 수 있다는 점이다. 기존 HPC 시스템은 메모리 부족 시 연산 자원을 포함한 전체 서버 증설이 불가피해 자원 낭비 및 비용 부담이 컸다. 반면 파네시아의 컴포저블 서버는 필요한 자원만 선택적으로 추가할 수 있어 불필요한 연산 자원 구매를 방지하고 비용 효율을 높일 수 있다. 핵심 부품인 CXL 3.x 스위치는 CPU, GPU, NPU, 메모리 등 다양한 장치를 자유롭게 연결할 수 있으며, 멀티 레
베슬AI가 한화 AI센터와 함께 6월 12일(현지시간) 미국 샌프란시스코에서 ‘에이전틱 AI 시대를 여는 AI 인프라 전략’을 주제로 밋업을 공동 개최한다. 이번 행사는 금융 산업에 특화된 AI 인프라 도입 전략을 중심으로 현장의 실질적인 인사이트를 공유하는 자리로 기획됐다. 이날 행사에는 실리콘밸리 내 AI 엔지니어, 인프라 전문가, 스타트업 관계자 등 약 200명이 참석한다. SuperAnnotate, Skyfire, Composio 등 AI 인프라 및 데이터 솔루션 분야의 스타트업도 연사로 나서며, 데이터 품질 향상, 워크플로우 자동화, 에이전트 기반 결제 시스템 구축 등 금융권의 주요 AI 도입 과제에 대한 실무적 해법을 제시할 예정이다. 베슬AI는 ‘AI 에이전트 시대, MLOps가 여전히 중요한 이유’를 주제로 발표를 진행한다. 발표에서는 경량화된 특화 모델(sLLM), 모델 증류(distillation) 등의 최적화 기술 발전 속에서 MLOps의 필요성과 자사의 LLM/MLOps 기반 AI 오케스트레이션 기술을 집중적으로 소개할 예정이다. 특히 자체 개발한 ‘LLM 파인튜닝 에이전트’를 통해 모델 학습부터 운영까지 전 과정을 자동화한 사례와 운영
파수가 지난 9일부터 11일까지 미국 메릴랜드 내셔널 하버에서 열린 ‘가트너 시큐리티 서밋 2025’에 참가해 AI 활용을 위한 데이터 보안 인프라 전략을 발표했다. 파수는 올해도 유일한 한국 기업으로 행사에 참여했으며, 발표 세션과 단독 부스를 통해 데이터 품질과 보안을 아우르는 AI 학습 기반 마련 방안을 공유했다. 9일 발표 세션에서 파수 미국법인 론 아덴 CTO는 ‘AI에 최적화된 데이터의 조건’을 주제로 발표를 진행했다. 그는 “조직이 AI에 효과적으로 대응하기 위해서는 데이터의 양, 질, 보안이 충족돼야 한다”며 파수의 데이터 보안 플랫폼을 통해 접근 제어와 일관된 보호 체계를 갖출 수 있다고 설명했다. 파수의 데이터 보안 플랫폼은 제로트러스트 원칙에 기반한 통합 보안 체계를 제공한다. 민감 데이터 식별부터 분류, 암호화, 추적까지 실시간으로 수행되며 태세관리와 가시성 확보, 생애주기 전반의 로그 관리가 가능하다. 특히 문서 중심 업무 환경을 위해 제공되는 ‘랩소디’는 암호화와 버전 관리, 문서 자산화를 통해 고품질의 학습 데이터를 유지할 수 있도록 돕는다. 또한 파수는 단독 부스를 통해 엔터프라이즈 문서 보안 솔루션 ‘Fasoo Enterpris
정무경 대표 "솔루션을 북미 시장에 신속하게 선보이는 데 집중할 것” 디노티시아가 6월 4일부터 5일까지 미국 캘리포니아 산타클라라에서 열리는 ‘TechEx North America 2025’에 참가해 차세대 AI 인프라 솔루션을 선보인다. 이번 전시를 통해 디노티시아는 엣지형 LLM 디바이스 ‘니모스(Mnemos)’와 클라우드 기반 벡터 데이터베이스 SaaS 플랫폼 ‘씨홀스(Seahorse)’를 북미 시장에 첫 공개했다. TechEx North America는 AI, 빅데이터, IoT, 사이버 보안, 클라우드, 엣지 컴퓨팅, 지능형 자동화 등 다양한 분야를 포괄하는 글로벌 기술 전시회다. ‘AI&Big Data Expo North America’가 핵심 행사로 진행되며, 전 세계 2만1000명 이상의 업계 전문가들이 참여해 엔터프라이즈 LLM, 자연어 처리(NLP), 엣지 추론, 벡터 인덱싱, 시맨틱 검색, 멀티모달 AI 등 최신 기술 트렌드가 집중 조명된다. 디노티시아는 이번 전시에서 고성능 LLM을 로컬 환경에서 실행하는 ‘니모스’와 의미 기반 검색 및 RAGOps 기능이 통합된 SaaS형 벡터 데이터베이스인 '씨홀스'를 중심으로 차세대 AI 인