신동주 대표, AI가 실제 병원 환경에 적용되는 구체적 활용 방안 공유 모빌린트가 지난 4월 29일부터 30일까지 연세대학교 미래캠퍼스에서 개최된 ‘2025 글로벌 의료 AI 반도체 파트너 서밋’에 참가해 자사의 의료 AI 기술 전략과 반도체 기반 통합 솔루션을 선보였다. 이번 서밋은 의료 AI 시장의 급속한 확대에 대응하기 위해 마련된 국제 행사로, 엔비디아, 인피니언 테크놀로지스, 알테라, 삼바노바 등 글로벌 반도체 기업과 LG, 신세계, 모빌린트 등 국내 주요 기업이 참여해 업계의 주목을 받았다. 모빌린트 신동주 대표는 ‘AI 반도체 기술 동향, 시장 트렌드, 그리고 의료 AI와의 통합 전략’을 주제로 발표를 진행하며, AI 반도체 기술이 의료 현장에서 어떻게 실질적인 혁신을 이끌 수 있는지에 대해 구체적인 사례를 통해 설명했다. 특히 실시간 병리 및 영상 분석, 수술 중 음성 인식, 환자 생체 데이터 모니터링 등 AI가 실제 병원 환경에 적용되는 구체적 활용 방안이 큰 호응을 얻었다. 모빌린트는 행사 전시 부스를 통해 자사의 NPU 기반 솔루션인 ‘ARIES(에리스)’와 ‘REGULUS(레귤러스)’를 활용한 대규모 언어모델(LLM) 및 비전 인식 기
AI반도체 조합으로 효율적인 분산 추론과 모델 최적화 기술 확보에 초점 맞춰 코난테크놀로지가 과학기술정보통신부가 추진하는 K-클라우드 기술개발 사업의 일환으로 진행되는 ‘이종 AI반도체 기반 분산 추론 및 모델 최적화 기술 개발’ 과제에 참여하게 됐다. 본 과제는 과기정통부의 중장기 전략 하에 국내 AI 인프라의 기술 자립과 경쟁력 확보를 목표로 기획된 프로젝트다. 해당 과제는 총 104억 원 규모로, 2025년 4월부터 2029년 12월까지 약 4년 9개월간 진행된다. 한국전자통신연구원(ETRI)이 주관하며, 공동 연구 컨소시엄에는 AI 반도체 스타트업 리벨리온, 서울대학교, 한국과학기술원(KAIST), 그리고 코난테크놀로지가 참여한다. 이번 과제의 핵심은 NPU, PIM 등 다양한 구조의 AI반도체를 조합해 효율적인 분산 추론과 모델 최적화를 구현하는 기술을 확보하는 것이다. 특히, 고비용·고연산을 요구하는 대규모 언어모델(LLM) 기반 서비스가 늘어나는 상황에서, 다양한 AI 하드웨어 환경에 맞춘 분산형 AI 소프트웨어 프레임워크 개발이 산업적 관건으로 부상하고 있다. 코난테크놀로지는 이 중 ‘LLM-RAG 기반 분산 추론 통합 실증 서비스’ 부문을 담
AI 메모리 시대에 걸맞은 협력 모델 고도화에 대해 심도 깊은 논의 이어져 SK하이닉스가 인공지능(AI) 확산 속 반도체 산업 패러다임 변화에 대응하기 위해 협력사와의 상생 전략을 한층 강화한다. 지난 25일 서울 광진구 그랜드 워커힐에서 열린 '2025년 동반성장협의회 정기총회'를 통해 협력사 92개사와 함께 향후 공동 대응 방향을 논의했다. 동반성장협의회는 2001년부터 SK하이닉스가 주도해 온 협의체로, 매년 정기총회를 통해 시장 전망과 협업 방안을 공유해왔다. 올해는 소재, 부품, 장비, 인프라 등 분과별로 공동 핵심 과제를 설정하고, AI 메모리 시대에 걸맞은 협력 모델 고도화가 주요 논의 주제였다. 이번 총회에서는 협력사의 기술 경쟁력 강화를 지원하는 다양한 프로그램이 소개됐다. 특히 올해 착공한 용인 반도체 클러스터 내 '트리니티 팹'은 SK하이닉스 상생 전략의 핵심 인프라로 부각됐다. 트리니티 팹은 실제 양산라인과 동일한 환경의 12인치 웨이퍼 기반 첨단 시설을 갖추고 있으며, 협력사들이 자사 기술의 실증 테스트를 통해 양산성까지 검증할 수 있도록 설계됐다. 또한, 비영리 재단법인 형태로 운영돼 협력사뿐 아니라 스타트업, 연구기관, 학계 등 다
설립 1년 반 만에 이룬 성과...빠른 성장세와 기술 독창성 동시 입증 디노티시아가 글로벌 시장조사업체 CB 인사이트(CB Insights)가 발표한 ‘2025 글로벌 AI 100(Global AI 100)’에 선정됐다고 밝혔다. 이 명단은 매년 전 세계에서 가장 혁신적인 AI 스타트업 100곳을 선정하는 권위 있는 리스트로, 디노티시아는 AI 인프라 부문, 특히 벡터 데이터베이스(Vector Database) 분야에서 기술적 우수성을 인정받았다. 해당 리스트는 투자 유치 규모, 산업 파트너십, 팀 역량, 기술 성숙도 등 다양한 지표를 종합 분석해 선정되며, 올해는 디노티시아를 포함해 엔비디아, 구글, 우버 등과 협업 중인 글로벌 AI 기업들이 다수 이름을 올렸다. 디노티시아의 이번 선정은 설립 1년 반 만에 이룬 성과로, 빠른 성장세와 기술 독창성을 동시에 입증한 사례로 평가된다. 디노티시아는 최근 MCP(Model Context Protocol) 기반 RAGOps(Retrieval-Augmented Generation Operations) 기능을 통합한 SaaS형 벡터 데이터베이스 플랫폼 ‘씨홀스 클라우드(Seahorse Cloud)’의 클로즈 베타 테스
SK하이닉스, 최근 한화세미텍과 10대 규모의 TC 본더 장비 공급 계약 체결 AI 반도체 시대의 주역으로 부상한 HBM(High Bandwidth Memory)이 반도체 업계의 새로운 전선이 되고 있다. 연산 속도와 데이터 처리량을 혁신적으로 끌어올릴 수 있는 HBM은 엔비디아를 비롯한 글로벌 빅테크가 주목하는 핵심 부품이다. 이를 제조하기 위한 열압착 장비인 ‘TC 본더’의 공급망 안정화는 HBM 경쟁력 확보의 핵심 열쇠로 부상하고 있다. 최근 SK하이닉스가 기존 주력 장비사인 한미반도체 외에 한화세미텍을 추가 벤더로 확보하면서, 업계 전반에 미묘한 긴장감이 돌고 있다. 업계에 따르면, SK하이닉스는 최근 한화세미텍과 10대 규모의 TC 본더 장비 공급 계약을 체결했다. 총 계약 금액은 약 420억 원 수준으로 추정되며, 이는 HBM3E 12단 양산을 위한 핵심 설비로 활용될 전망이다. 그간 SK하이닉스는 HBM 생산 공정에 한미반도체의 TC 본더 장비를 전량 사용해 왔으나, 이번 계약을 계기로 이원화 전략을 본격화했다. SK하이닉스의 이번 결정은 단순한 벤더 추가가 아니라, 폭증하는 AI 반도체 수요에 유연하게 대응하기 위한 공급망 재편 시도다. 실제로
젠슨 황, 수출규제에 부합하는 제품 최적화 나설 것 밝혀 미국 정부가 엔비디아의 AI 반도체 대중국 수출을 전방위로 제한한 가운데, 젠슨 황 엔비디아 CEO가 다시 중국을 찾았다. 지난 1월에 이어 약 3개월 만의 방중이다. 이번 방문은 미 상무부가 H20 칩의 수출 제한을 강화한 직후 이뤄져 업계의 주목을 받고 있다. 황 CEO는 17일 중국국제무역촉진위원회(CCPIT) 초청으로 베이징에 도착해 런훙빈 CCPIT 회장과 회담을 진행했다. 그는 “중국은 엔비디아에 매우 중요한 시장”이라며 “엔비디아는 앞으로도 중국과의 협력을 계속 이어가길 바란다”고 밝혔다. 미 정부의 규제가 자사 사업에 중대한 영향을 미쳤다고 인정하면서도, “규제에 부합하는 제품을 지속적으로 최적화하겠다”는 입장을 명확히 했다. 황 CEO는 베이징 인민대회당에서 허리펑 국무원 부총리도 만나 중국 시장의 전략적 중요성을 강조했다. 허 부총리는 “중국은 산업 혁신의 최적지며, 엔비디아를 비롯한 미국 기업의 활발한 활동을 환영한다”고 밝혔다. 이에 황 CEO는 “중국 경제에 긍정적인 기대를 갖고 있으며, 미중 협력의 가교 역할을 할 것”이라고 답했다. 이번 방중에서 황 CEO는 중국의 대표 AI
11월부터 시작하는 ‘국가 AI 컴퓨팅 센터’에 GPU 1만장 규모 도입 계획 밝혀 정부가 국내 AI 생태계의 글로벌 경쟁력을 끌어올리기 위해 총 1조8000억 원 규모의 추가경정예산을 투입한다. AI 컴퓨팅 자원 확보를 최우선 과제로 삼고, 이를 바탕으로 국가대표 AI 모델을 개발할 유망 기업을 선정해 집중 지원하는 전략이다. 과학기술정보통신부(이하 과기정통부)는 18일 임시국무회의를 통해 심의된 AI 추경 예산 가운데 약 1조4600억 원을 활용해 오는 11월부터 서비스를 시작하는 ‘국가 AI 컴퓨팅 센터’에 GPU 1만장 규모를 도입할 계획이라고 밝혔다. 이번 GPU 도입은 엔비디아의 H200과 블랙웰을 기준으로 추산됐으며, 참여 기업이 국내 여건과 비용 효율성을 고려해 최종 모델을 선택하게 된다. 센터 개소 전에는 민간 클라우드 기업들이 보유한 GPU 2600장을 AI 기업이 빌려 쓸 수 있도록 예산 1723억 원이 배정됐다. 특히 이 중 2000장은 차세대 대표 AI 모델을 개발할 ‘월드 베스트 거대언어모델(WBL)’ 프로젝트에 참여할 최대 5개 팀에 우선 지원된다. WBL 프로젝트에는 GPU 외에도 텍스트 및 멀티모달 데이터, 국내외 최고 수준의
RNGD 기반 인프라 접근 개방 및 Llama 3.1 사전 컴파일 모델 기반 API도 추가 제공 예정 퓨리오사AI가 자체 개발한 2세대 AI 추론 가속기 ‘레니게이드(RNGD)’를 마이크로소프트 애저 마켓플레이스에 공식 등록하며, 글로벌 시장 확대에 본격 시동을 걸었다. 이번 조치는 LLM과 멀티모달 AI 추론 환경에 최적화된 고성능 인프라를 세계 수백만 애저 고객이 즉시 활용할 수 있는 길을 열었다는 점에서 주목된다. 레니게이드는 클라우드 중심 환경은 물론 온프레미스와 하이브리드 인프라에도 유연하게 적용 가능한 데이터센터용 AI 가속기로, 2023년 핫칩스(Hot Chips) 컨퍼런스에서 첫 공개된 이후 글로벌 반도체·AI 업계의 큰 관심을 받아왔다. 특히 수 분 내로 추론용 인프라를 배포할 수 있고, 수요에 따라 유연하게 확장 가능하며, 기존 애저 데이터 및 소프트웨어 스택과의 통합도 원활해 클라우드 기반 AI 모델 운영의 접근성과 효율성을 크게 높인 것이 특징이다. 이번 입점을 통해 퓨리오사AI는 애저 사용자에게 RNGD 기반 인프라 접근을 개방하고, 추후 Llama 3.1 사전 컴파일 모델 기반 API도 추가 제공할 계획이다. 기업 고객들은 이를 통해
이번 분기 동안 다섯 번째 High NA EUV 장비를 고객사에 인도해 ASML이 2025년 1분기 실적을 발표하며, 시장 예상을 웃도는 수익성과 안정적인 성장 전망을 내놨다. 4월 16일(현지시간) 발표된 실적에 따르면, ASML의 1분기 총 순매출은 77억 유로, 매출총이익률은 54.0%를 기록했으며, 당기순이익은 24억 유로에 달했다. 특히 매출총이익률은 자사 가이던스를 상회하며 시장의 주목을 받았다. 1분기 예약매출(Net Bookings)은 총 39억 유로로 집계됐으며, 이 가운데 EUV(극자외선) 장비 관련 매출은 12억 유로를 차지했다. 고성능 리소그래피 장비의 수요가 여전히 견조하다는 것을 보여주는 대목이다. ASML은 이번 분기 동안 다섯 번째 High NA EUV 장비를 고객사에 인도하며, 현재까지 세 곳의 고객사가 해당 장비를 보유하게 됐다고 밝혔다. 이는 EUV 기술 고도화의 진입점에서 산업계가 고성능 공정에 대한 투자 기조를 이어가고 있음을 시사한다. ASML 크리스토프 푸케 CEO는 “1분기 매출은 당초 전망 범위 내에서 형성됐으며, 수익성 측면에서는 제품 조합과 고부가 장비의 성과가 실적을 견인했다”고 평가했다. 이어 “고객사들과의
AI반도체 기반 클라우드 플랫폼 기술 확보…초거대 AI 모델 최적화 및 실증 본격화 오케스트로가 과학기술정보통신부와 정보통신기획평가원이 추진하는 ‘AI반도체를 활용한 K-클라우드 기술개발 R&D 사업’에서 총 220억 원 규모의 연구개발 과제 2건을 수주했다. 이번 수주는 국산 AI반도체 기반 클라우드 기술 상용화와 K-클라우드 생태계 조성을 위한 기반 마련을 목적으로 진행됐다. 오케스트로가 주관기관으로 참여하는 AI반도체 컴퓨팅 자원분해 및 자원풀링 기술 개발 과제는 총사업비 76억 원 규모로, 2025년부터 5년간 수행된다. 해당 과제는 거대언어모델(LLM) 기반 AI 환경에서 모노리식 서버 구조의 물리적 제약을 극복하기 위해 CPU, 메모리, 스토리지 등 서버 자원과 AI반도체를 분리하고 고속 인터커넥터를 통해 통합 제어하는 클러스터 환경을 구현하는 것이 핵심이다. 오케스트로는 자원의 유연한 확장·축소와 효율적인 자원 할당·회수 기능을 갖춘 제어 및 관리 소프트웨어 인프라를 구축할 계획이다. 이는 LLM 학습 및 추론 성능을 극대화할 수 있는 기술 역량 확보를 목표로 한다. 또한, 오케스트로는 144억 원 규모의 AI반도체 클라우드 플랫폼 구축
HBM)와 첨단 패키징 기술 중심으로 긴밀한 협력 관계 유지하고 있어 최태원 SK그룹 회장이 다시 한 번 대만을 찾았다. 지난해 6월 이후 약 10개월 만의 방문으로, 이번 출장에서는 TSMC를 포함한 대만 주요 반도체 기업들과 AI 반도체 분야의 협력 방안을 논의한 것으로 알려졌다. 업계에 따르면 최 회장은 이번 주 초 대만을 방문했으며, SK하이닉스의 곽노정 CEO도 동행한 것으로 전해졌다. TSMC와 SK하이닉스는 이미 고대역폭 메모리(HBM)와 첨단 패키징 기술을 중심으로 긴밀한 협력 관계를 유지하고 있다. 지난해 4월 양사는 6세대 HBM인 HBM4 개발을 위해 기술 협력 양해각서(MOU)를 체결한 바 있으며, 같은 해 6월에는 최 회장이 TSMC 웨이저자 이사회 의장과 회동해 AI 시대의 공동 비전과 기술 협력 방향을 논의하기도 했다. 이번 방문은 그러한 협력 관계의 연장선에서, AI 인프라 구축을 위한 차세대 반도체 기술에 대한 공동 대응이 주요 의제였던 것으로 보인다. 특히 최근 글로벌 AI 수요가 고조되면서, 반도체 공급망 내 전략적 파트너십이 기업들의 미래 성장을 좌우하는 중요한 열쇠로 부상하고 있다. SK하이닉스는 TSMC와의 기술 협력을
엔비디아, 창사 이래 처음으로 삼성전자·인텔 앞지르며 1위 기록 2024년 전 세계 반도체 시장이 전례 없는 변화를 맞이했다. 가트너는 최근 발표한 최종 조사에서 2024년 반도체 전체 매출이 총 6559억 달러로 집계됐다고 밝혔다. 이는 2023년 5421억 달러에서 21% 증가한 수치로, 지난 2월 예비 조사 당시 전망치보다 약 300억 달러, 3% 늘어난 것이다. AI 인프라 수요와 메모리 반등이 이 같은 성장세를 견인한 것으로 풀이된다. 무엇보다 이번 조사에서 눈길을 끈 대목은 공급업체 매출 순위의 대격변이다. 엔비디아는 창사 이래 처음으로 삼성전자와 인텔을 앞지르며 1위에 올랐다. 가트너의 가우라브 굽타 애널리스트는 “AI 인프라 구축 수요가 폭발적으로 증가하면서 데이터센터에서 활용되는 디스크리트 GPU(dGPU) 수요가 급증했고, 이는 곧 엔비디아 매출을 끌어올렸다”고 분석했다. 인공지능 붐이 단순한 트렌드를 넘어 반도체 시장의 구조적 판도까지 뒤바꾸고 있는 셈이다. 삼성전자는 급격한 가격 회복세를 보인 DRAM과 낸드플래시 분야에서 실적을 끌어올리며 2위 자리를 유지했다. 공급 부족 해소 이후 수요 회복과 함께 가격이 반등한 것이 주효했던 것으로
이노그리드는 과학기술정보통신부와 정보통신기획평가원(IITP)이 추진하는 ‘AI반도체 클라우드 플랫폼 구축 및 최적화 기술 개발’ 과제 사업을 수주했다고 9일 밝혔다. ChatGPT 등장 이후 생성형 AI 시장이 폭발적으로 성장하면서 AI 컴퓨팅 자원을 효율적으로 제공하는 클라우드 서비스에 대한 요구가 증가하고 있다. 그러나 현재 생성형 AI 시장은 관련 특허를 다수 보유한 글로벌 클라우드 회사들이 이끌어가고 있고 GPU에 대한 높은 의존도로 국내 기업들은 기술 자립과 비용 효율화에 어려움을 겪고 있다. 이에 과학기술정보통신부에서는 세계 최고 수준의 초고속·저전력 국산 AI반도체 개발과 데이터센터 적용을 통해 국내 클라우드 경쟁력을 강화하고 국민들에게 향상된 AI 서비스를 제공하는 ‘K-클라우드 프로젝트’의 일환으로 NPU, PIM 등과 같이 국산 AI반도체를 활용한 AI 지원 클라우드 서비스 제공 플랫폼 및 최적화 기술 개발을 추진하게 됐다. 이번 과제의 주관기관은 한국전자통신연구원(ETRI)이며 이노그리드는 한국전자기술연구원 등과 함께 공동 연구기관으로 참여한다. 본 과제는 2029년 12월까지 5년간 진행되며 총사업비는 144억 원 규모다. 그동안 이노그
공동 마케팅과 PoC 프로젝트로 맞춤형 생성 AI 솔루션 개발 및 공급할 계획 대원씨티에스가 하이퍼엑셀과 손잡고 차세대 생성형 AI 시장 공략에 본격 나선다. 양사는 전략적 파트너십을 체결하고, LLM(거대언어모델) 추론 가속 솔루션을 중심으로 국내외 AI 인프라 시장 공략을 강화한다고 3일 밝혔다. 이번 협약은 고성능 컴퓨팅 수요가 급증하는 가운데, GPU를 대체할 수 있는 새로운 AI 반도체 솔루션에 대한 시장의 기대감이 높아진 시점에서 이뤄졌다. 대원씨티에스는 국내 30년 이상의 유통 및 솔루션 구축 경험을 보유한 IT 기업이며, 하이퍼엑셀은 2023년 설립된 반도체 스타트업으로 LLM 추론에 최적화한 AI 전용 칩 LPU(LLM Processing Unit)를 세계 최초로 개발한 바 있다. LPU는 생성형 AI 모델의 복잡한 연산을 모두 단일 칩에서 처리할 수 있는 구조로, 기존 고성능 GPU 대비 가격 대비 성능과 전력 효율이 두 배 이상 향상된 것으로 알려졌다. 이러한 특성은 고성능 서버 인프라의 구축 및 운용 비용 절감은 물론, 에너지 효율이 중요한 기업 환경에서 차별화된 가치를 제공할 수 있다. 양사는 이번 협력을 기반으로 하이퍼엑셀의 기술을
립부 탄 CEO "공급자 중심 사고에서 벗어나 진정한 협업 관계로 나아갈 것" 인텔이 고객 중심의 사고방식과 엔지니어링 우수성을 앞세워 기술 리더십 회복에 본격 나선다. 인텔 립부 탄(Lip-Bu Tan) 최고경영자(CEO)는 31일(현지시간) 미국 라스베가스에서 열린 ‘Intel Vision 2025’ 기조연설에서 인텔의 전략 방향과 비전을 공유하며 이같이 밝혔다. 이날 기조연설에서 탄 CEO는 "CEO로서 가장 우선시하는 것은 고객과 시간을 보내는 일"이라며, 고객과의 긴밀한 소통과 엔지니어링 중심 기업으로서의 정체성을 분명히 했다. 이어 “인텔은 고객의 목소리를 깊이 있게 경청하고, 그들의 과제를 함께 해결하는 기술 파트너가 될 것”이라며, 기존 공급자 중심의 사고에서 벗어나 진정한 협업 관계로 나아가겠다는 의지를 드러냈다. 탄 CEO는 특히 “새로운 시대를 위한 새로운 접근 방식”을 제시하며, 인텔의 방향성이 단순한 반도체 설계를 넘어 AI 시대에 최적화된 풀스택 솔루션 개발에 있다고 강조했다. 고객의 주요 워크로드를 지원하는 전용 실리콘과 AI 기반 설계 접근법을 통해, 하드웨어와 소프트웨어의 통합된 생태계를 구축하겠다는 전략이다. 인텔은 글로벌 반