젝스컴퍼니가 로봇 산업 전문 전시회 ‘2025 로보월드’에 참가해 고성능·고확장성 산업용 Edge AI PC ‘JECS-1204GB’를 선보였다. 이번 신제품은 AGV·AMR·로봇 컨트롤러 등 다양한 산업 환경에서 실시간 데이터 처리와 안정적 시스템 제어를 지원하는 차세대 엣지 컴퓨팅 솔루션으로 주목받았다. 젝스컴퍼니㈜는 산업용 안드로이드 보드 및 산업용 컴퓨터 개발·생산에 주력하는 임베디드 솔루션 전문기업이다. 20년 이상 축적된 IT 기술력과 프로젝트 경험을 바탕으로 상담·기획부터 설계, 생산, 품질관리, 사후관리까지 전 과정에 걸친 맞춤형 서비스를 제공하고 있다. 지금까지 수십여 종의 산업용 CPU 보드 개발 프로젝트를 수행하며 다양한 산업군 고객에게 최적화된 시스템을 공급, 국내를 넘어 수출 시장에서도 성과를 내고 있다. 이번 전시에서 공개된 ‘JECS-1204GB’는 팬리스(fanless) 구조를 적용한 산업용 고성능 AI PC로, 열·진동·먼지에 강한 내구성과 높은 신뢰성을 자랑한다. 4개의 HDMI 포트를 통해 각 포트별 4K 해상도의 고화질 영상을 동시에 출력할 수 있으며, 전면부 I/O 확장 옵션(2x CAN, 2x COM, 2x LAN)을
인하대학교는 퓨리오사AI와 AI 반도체 설계 및 인재 양성을 위한 산학협력 업무협약(MOU)을 체결했다고 5일 밝혔다. 이번 협약을 통해 양 기관은 AI 반도체 설계(Design), 패키징(Package), 테스트(Test) 등 전 과정에서의 공동 연구 및 기술 교류를 추진한다. 더불어 산업 현장의 첨단 기술을 교육과 연구에 접목한 실무 중심 반도체 전문 인재 양성에도 협력할 계획이다. 주요 협력 내용은 ▲AI 반도체 설계·검증·패키징·테스트 분야 공동 연구 ▲산업 현장 중심의 실무형 교육과정 개발 ▲학생 인턴십 및 산학 공동 프로젝트 운영 ▲설계·검증·패키징·테스트 기술 실습 협력 등이다. 인하대 반도체특성화대학사업단은 이번 협약을 통해 교육·연구·산업이 연계되는 지속 가능한 산학협력 모델을 구축할 방침이다. 퓨리오사AI는 대규모 인공지능 모델의 연산 효율을 극대화하는 AI 추론(Inference)용 고성능·저전력 반도체 가속기(NPU)를 개발하는 기업으로, 최근 TSMC 5나노(5nm) 공정을 적용한 차세대 AI 가속기 ‘RNGD(Renegade)’를 공개하며 주목받았다. 이를 통해 데이터센터용 AI 연산 기술 확보와 함께 국내 AI 반도체 경쟁력 강화에
딥엑스는 유럽 머신비전 협회(EMVA)가 주최하는 ‘European Machine Vision Forum 2025’에 스폰서 및 전시 참가 기업으로 참여한다고 밝혔다. 딥엑스는 이번 행사를 통해 유럽 내 급성장 중인 임베디드 및 산업용 AI 생태계에서의 입지를 한층 강화할 계획이다. 아미르 셔먼 딥엑스 EMEA 영업 및 사업개발 총괄은 “엣지 단에서의 AI 가속화는 유럽 산업의 미래를 재정의하고 있다”며 “딥엑스는 로보틱스부터 스마트 제조에 이르기까지 GPU 대비 훨씬 낮은 전력과 비용으로 고성능 AI를 구현할 수 있도록 유럽 파트너들을 지원하고 있다”고 말했다. 현재 딥엑스는 유럽 시장에서 Renesas Electronics, NXP Semiconductors, Virtium Embedded Artists AB 등 주요 임베디드 컴퓨팅 기업들과 긴밀히 협력하며 산업 및 무인화용 플랫폼에 고성능 AI 가속 기능을 제공하고 있다. Renesas의 RZ/G3E SoM은 PCIe Gen3 인터페이스를 통해 딥엑스의 DX-M1 AI 가속기와 완벽히 통합되며 차세대 임베디드 AI 설계를 위한 최고 수준의 전력 효율성과 유연성을 제공한다. 또한 NXP i.MX SoM과
인공지능(AI) 워크로드와 고성능 컴퓨팅(HPC) 애플리케이션이 폭발적으로 성장함에 따라 초고속 데이터 전송과 초저지연 연결에 대한 요구가 높아지고 있다. 이에 마이크로칩테크놀로지는 업계 최초로 3나노미터(3nm) 공정으로 제작된 PCIe Gen 6 스위치 ‘Switchtec Gen 6’ 제품군을 공개했다. 새로운 Switchtec Gen 6 스위치는 전력 효율과 보안, 그리고 연결 밀도를 모두 강화한 차세대 솔루션으로, 최대 160레인을 지원해 AI 및 데이터센터 인프라의 고밀도 연결을 가능하게 한다. 또한 하드웨어 루트 오브 트러스트와 보안 부팅 기능을 내장하고, CNSA 2.0(Commercial National Security Algorithm Suite 2.0)을 준수하는 포스트 퀀텀 안전 암호 기술을 채택해 보안성을 한층 높였다. PCIe 6.0 표준은 PCIe 5.0 대비 두 배에 달하는 레인당 64GT/s의 대역폭을 제공해, AI 액셀러레이터와 GPU, CPU 간 데이터 병목을 최소화하고 전송 효율을 극대화한다. Switchtec Gen 6 스위치는 CPU, GPU, SoC, AI 가속기, 스토리지 간의 고속 연결을 구현해 데이터센터 설계자들이
모빌린트가 글로벌 임베디드 플랫폼 기업 에티나(Aetina)와 전략적 업무협약(MOU)을 체결했다. 이번 협약은 모빌린트의 AI ASIC 기반 가속기 카드와 에티나의 엣지 컴퓨팅 솔루션을 결합해 글로벌 시장 공략을 강화하기 위한 것으로, 양사는 AI 엣지 컴퓨팅 상용화를 가속화한다는 전략을 내세웠다. 에티나는 다양한 산업 맞춤형 GPU 및 AI 솔루션을 공급해온 글로벌 기업이다. 이번 파트너십을 통해 양사는 모빌린트의 고성능·저전력 NPU 기술과 에티나의 시스템·플랫폼 제품을 결합한 공동 솔루션을 선보인다. 이를 기반으로 고객사에 최적화된 패키지를 제공하고, 공동 영업(co-selling)과 솔루션 번들링을 추진해 시장 경쟁력을 높일 계획이다. 협력 범위는 제조, 스마트시티, 보안, 로보틱스 등 다양한 산업군을 아우른다. 특히 시장 수요에 따라 자사 및 제휴사 제품을 상호 추천·도입하는 방식으로 산업별 적용 사례를 확대한다. 이는 단순한 기술 협력 차원을 넘어, 실제 비즈니스 기회 창출과 글로벌 시장 진출을 염두에 둔 전략적 협력이라는 점에서 의미가 있다. 모빌린트 측은 이번 협약을 통해 자사의 독자적인 AI 반도체 기술이 에티나 플랫폼과 결합해 글로벌 확산
최근 열린 EVS 2025서 AWS와의 기술 협력 방향 소개해 모빌린트가 Amazon Web Services(AWS)와의 전략적 협력을 통해 글로벌 엣지 AI 시장 공략에 속도를 내고 있다. 양사는 CES 2025에서의 첫 논의를 시작으로, AWS의 엣지 컴퓨팅 플랫폼 ‘AWS IoT Greengrass’에 모빌린트의 고성능 NPU 연동 방안을 협의해 왔다. 모빌린트는 최근 미국 산호세에서 열린 ‘Embedded Vision Summit(EVS) 2025’에 참가해 AWS와의 기술 협력 방향을 소개했다. 이 자리에서 모빌린트는 처음으로 공개한 MXM(Mobile PCI Express Module) 폼팩터 기반 AI 가속기 ‘MLA100 MXM’의 데모도 선보이며 주목을 받았다. 이번 협력을 통해 AWS 플랫폼 상에서 모빌린트의 NPU를 직접 활용할 수 있는 환경이 마련되면, 고객은 실시간 데이터 처리, AI 추론, 민감 정보의 로컬 처리가 필요한 엣지 환경에서 필수적인 기능을 효율적으로 구현하게 된다. 특히 Amazon SageMaker와 모빌린트의 NPU 소프트웨어 개발 키트(SDK)를 연계할 경우, AI 모델의 학습부터 배포, 최적화에 이르는 전 과정이
AI 특화 하드웨어 중심의 엔드 투 엔드 구성…확장성과 오픈성 모두 갖춰 인텔과 델이 손잡고 엔터프라이즈 AI 시장을 겨냥한 새로운 통합 플랫폼을 공개했다. 델 테크놀로지스의 최신 AI 인프라 포트폴리오인 ‘델 AI 팩토리(Dell AI Factory)’에 인텔의 Gaudi 3 AI 가속기를 탑재한 ‘인텔 기반 델 AI 플랫폼(Dell AI Platform with Intel)’이 새롭게 합류한 것이다. 이 플랫폼은 대규모 언어 모델(LLM)부터 엣지 추론까지 다양한 AI 워크로드에 최적화돼 있으며, 검증된 하드웨어와 오픈소스 소프트웨어를 기반으로 기업의 AI 도입과 확장을 가속화하는 것이 핵심 목표다. 델의 신뢰할 수 있는 인프라 전문성과 인텔의 AI 하드웨어 역량이 결합된 이번 플랫폼은 유연성과 확장성, 그리고 비용 효율성까지 고루 갖춘 것이 특징이다. 특히 Llama 3 80B 모델 추론 성능 기준으로 경쟁 제품인 엔비디아 H100 대비 70% 이상 우수한 가격대 성능비를 기록한 인텔 Gaudi 3가 핵심 기술로 주목받고 있다. 인텔 기반 델 AI 플랫폼은 5세대 인텔 제온 프로세서와 Gaudi 3 가속기를 탑재한 파워엣지 XE9680 서버를 중심으로
고성능 컴퓨팅·AI·그래픽·워크스테이션 전략 강화 추진 AMD가 타이베이에서 열린 '컴퓨텍스(COMPUTEX) 2025'에서 새로운 GPU와 프로세서 라인업을 대거 선보이며, 고성능 컴퓨팅(HPC)과 AI 가속 분야에서의 기술 리더십을 다시 한번 부각시켰다. 이번 발표에는 라데온 RX 9060 XT, 라데온 AI 프로 R9700, 라이젠 스레드리퍼 9000 시리즈 프로세서가 포함되며, 게이밍, 콘텐츠 제작, AI 개발, 전문가용 워크스테이션 등 다양한 분야의 고성능 수요를 충족할 수 있도록 설계됐다. AMD 컴퓨팅 및 그래픽 그룹 총괄 잭 후인(Jack Huynh) 수석 부사장은 “제품 포트폴리오 전반에 걸쳐 업계 최고 수준의 혁신을 제공하겠다는 AMD의 비전을 보여주는 자리”라고 강조했다. AMD는 RDNA 4 아키텍처를 기반으로 한 새로운 GPU 라데온 RX 9060 XT를 공개했다. 이 제품은 향상된 레이 트레이싱 성능과 프레임 보간 기술을 통해 1440p 해상도에서 더욱 부드러운 게임 플레이를 제공한다. 최대 16GB GDDR6 메모리와 32개의 컴퓨트 유닛을 탑재해, 이전 세대보다 두 배 향상된 레이 트레이싱 처리 성능을 구현했다. 특히, AMD의
가우디 3의 첫 대규모 상업 배포 사례...인프라 접근성 높일 것으로 보여 인텔이 IBM과 손잡고 자사 AI 가속기인 ‘인텔 가우디 3’를 클라우드 서비스에 최초로 상용 적용한다고 밝혔다. IBM 클라우드는 주요 클라우드 서비스 제공사 중 처음으로 가우디 3를 기반으로 한 AI 서비스 환경을 개시했으며, 이로써 고객들은 고성능 AI 인프라를 보다 합리적인 비용으로 활용할 수 있는 기회를 갖게 됐다. 이번 상용화는 가우디 3의 첫 대규모 상업 배포 사례로, 생성형 AI 서비스 확산을 위한 인프라 접근성을 크게 끌어올리는 계기가 될 전망이다. 인텔과 IBM은 고가의 특화 하드웨어가 필요한 AI 연산 환경에서 비용 효율이라는 기준을 제시하며, 보다 많은 기업이 AI 기술을 실질적으로 도입하도록 협력하고 있다. 가우디 3는 생성형 AI와 대규모 언어모델 추론, 파인튜닝 등 고성능 연산을 요구하는 워크로드를 지원하도록 설계됐다. 특히 멀티모달 LLM, RAG(검색 증강 생성) 등 최신 AI 트렌드에 최적화된 아키텍처를 기반으로 한다. 개방형 개발 프레임워크 지원 또한 가우디 3의 장점 중 하나로, 다양한 개발 환경에 유연하게 대응할 수 있다는 평가다. 인텔에 따르면
로보틱스, 산업 자동화, 엣지 서버 등의 임베디드 AI 시스템에 적합해 모빌린트가 고성능 엣지 AI 시장 공략에 박차를 가한다. 모빌린트는 자사의 AI 가속기 칩 ‘ARIES’를 기반으로 설계한 MXM(Mobile PCI Express Module) 타입 AI 가속기 모듈 ‘MLA100 MXM’을 새롭게 선보였다. MLA100 MXM은 25W 저전력 환경에서 최대 80 TOPS(Tera Operations Per Second)의 연산 성능을 제공하며, 8개의 고성능 코어를 통해 복수의 AI 모델을 병렬로 실행하거나 대규모 추론 연산을 안정적으로 처리하도록 설계됐다. 특히 MLA100 MXM은 82x70mm의 콤팩트한 크기와 110g의 가벼운 무게를 갖춘 MXM 규격을 채택해 공간 제약과 전력, 발열 관리가 중요한 로보틱스, 산업 자동화, 엣지 서버 등의 임베디드 AI 시스템에 적합하다. MLA100 MXM은 대규모 언어 모델(LLM)과 비전 언어 모델(VLM) 같은 트랜스포머 기반 모델의 처리가 가능해 기존 GPU 기반 엣지 솔루션의 대안으로 자리매김한다는 전략도 함께 추진된다. 현재 국내 주요 대기업 및 산업 파트너사들이 MLA100 MXM 기반으로 임베디
검색과 추론 동시에 수행하는 RAG 특화 AI 시스템 개발할 계획 디노티시아와 하이퍼엑셀이 공동으로 ‘검색증강생성(RAG) 최적화 AI 추론 시스템’ 개발에 나선다. 이번 협력은 디노티시아의 벡터 데이터 연산 가속기 칩(VDPU)과 하이퍼엑셀의 거대언어모델(LLM) 가속기 칩인 ‘LLM 프로세싱 유닛(LPU)’을 결합해 하나의 통합 시스템을 구축하는 방식으로 진행된다. AI 서비스 분야에서 데이터 검색의 중요성이 커지면서 빠르고 효율적인 데이터 활용 방식이 요구된다. 기존 시스템은 소프트웨어 기반으로 데이터를 검색한 후 LLM을 활용한 생성형 AI 프로세스를 별도로 처리하는 구조로 인해 응답 속도가 느리고 전력 소모가 많았다. 이에 디노티시아는 VDPU 칩으로 AI가 대규모 멀티모달 데이터를 실시간 검색하고 활용하도록 지원하며, 하이퍼엑셀은 LPU 칩으로 AI 모델의 연산 성능을 극대화하는 역할을 한다. 양사는 이 두 칩을 결합해 검색과 추론을 동시에 수행하는 RAG 특화 AI 시스템을 개발할 계획이다. 이를 통해 AI가 보다 정밀한 데이터를 빠르게 찾아내고, 생성형 AI 모델의 연산 속도를 향상시키는 등 AI 서비스의 성능과 효율성을 개선할 것으로 기대된다
엔비디아가 미국 새너제이에서 GTC 2025(GPU Technology Conference 2025)를 열고 AI 추론을 위한 새로운 패러다임을 제시했다. 엔비디아는 GTC 2025에서 차세대 AI 가속화 솔루션 ‘블랙웰 울트라 AI 팩토리 플랫폼’과 오픈소스 AI 추론 소프트웨어 ‘다이나모(Dynamo)’를 공개했다. 이번 발표에는 AI 추론 및 컴퓨팅 성능의 한계를 극복하는 기술적 혁신이 포함됐다. 블랙웰 울트라는 엔비디아 블랙웰 AI 팩토리 플랫폼의 차세대 버전으로, AI 모델의 추론과 훈련을 더욱 정교하게 수행할 수 있도록 설계됐다. 특히 ‘테스트 타임 스케일링(Test-Time Scaling, TTS)’을 적용해 AI 추론의 정확도를 향상시키고, 복잡한 문제 해결 능력을 개선했다. 이 플랫폼은 최신 AI 칩인 ‘GB300 NVL72’를 기반으로 기존 GB200 NVL72 대비 1.5배 높은 AI 성능을 제공하며, 엔비디아 호퍼 아키텍처 대비 AI 팩토리의 수익 기회를 50배 증가시킬 것으로 기대된다. 이를 통해 에이전틱 AI, 물리 AI, 대규모 언어 모델(LLM) 등 다양한 AI 응용 분야에서 활용될 수 있다. 엔비디아 젠슨 황 CEO는 “AI는
1/4 가량 캐쉬 메모리 사용하면서 개선된 연산 처리 성능, AI 연산 정확도 보여 딥엑스는 낮은 제조 비용, 낮은 소모 전력, 높은 효율 및 성능을 앞세운 플래그쉽 제품 ‘DX-M1’을 양산 전 사전 검증 형태로 국내외 글로벌 고객사 40여 곳에 제공했다고 밝혔다. 딥엑스는 현재 EECP(Early Engagement Customer Program) 프로그램을 운영하며 DX-V1을 탑재한 원칩 솔루션인 스몰 카메라 모듈, AI 가속기 솔루션인 DX-M1을 탑재한 M.2 모듈, 딥엑스의 개발자 환경인 'DXNN'을 빠르게 경험할 수 있는 프로모션을 진행 중이다. 이를 통해 고객사는 딥엑스의 하드웨어와 소프트웨어를 양산 전 사전 검증 형태로 제공받아 양산 제품에 탑재하고 딥엑스의 기술 지원을 받으며 다양한 임베디드 시스템과 사물에 AI 기술 혁신을 실현할 것으로 보인다. DX-M1은 로봇 및 스마트 모빌리티, AI 영상 보안 시스템, AI 서버 관련 글로벌 기업 40여곳의 양산 개발용 제품에 탑재돼 사전 검증 테스트가 이뤄지고 있다. 로봇 및 스마트 모빌리티 분야는 자율주행, 인지 등의 기술이 요구되고 소형 폼팩터에 탑재 가능한 저전력, 고성능의 AI 반도체