2025년 AI 시장은 소수의 글로벌 플레이어를 중심으로 빠르게 재편되고 있다. 단순한 모델 성능 경쟁을 넘어 플랫폼과 에이전트, 신뢰성이 기업 AI 전략의 핵심 키워드로 부상했다. 토크아이티는 아이크래프트 권수용 실장과 함께 구글·오픈AI·앤트로픽의 최신 전략을 비교·분석하는 연말 스페셜 웨비나를 12월 18일 오후 2시에 진행한다. 구글은 Gemini 2.0과 Veo를 중심으로 멀티모달 AI를 고도화하는 한편, Gemini Nano와 SLM 전략을 통해 온디바이스 및 엣지 AI 영역까지 확장하고 있다. ‘AI Everywhere’를 표방하는 구글의 전략은 검색과 업무 환경, 디바이스 전반을 AI 중심으로 재편하는 방향으로 전개되고 있다. 오픈AI는 GPT-5를 통해 추론 능력과 정확성을 크게 끌어올리는 동시에, 기업 시장을 겨냥한 GPT-5.2와 Codex Max를 통해 에이전트 기반 자동화 플랫폼 전략을 강화하고 있다. 이는 단순 API 제공을 넘어 기업 업무 전반을 자동화하는 생태계 구축 전략으로 해석된다. 앤트로픽은 Claude 4.1을 통해 정확성과 안정성을 강화하며 금융·공공·의료 등 규제 산업을 겨냥한 고신뢰 AI 전략을 이어가고 있다. Con
코오롱베니트가 지난 11일 레드햇, 리벨리온과 협업해 엔터프라이즈 AI 플랫폼을 소개하는 세미나를 개최했다. 이번 솔루션은 이종 반도체 기반의 고효율 AI 추론 환경을 제공해 기업들이 AI 서비스를 보다 빠르고 안정적으로 도입·확장할 수 있도록 지원하는 것이 특징이다. AI 모델 최적화 기술과 NPU 기반 고속 추론 구조를 결합해 엔터프라이즈 AI 전환에서 요구되는 높은 성능과 비용 효율, 안정성을 동시에 확보했다. 이번 행사는 신제품 관련 최신 AI 추론 아키텍처 및 오픈소스 기반 운영 기술을 공유하는 세션까지 함께 마련됐다. 엔터프라이즈급 AI 플랫폼인 레드햇 오픈시프트 AI, 리벨리온 아톰 NPU 기반 고성능 추론 플랫폼이 적용된 코오롱베니트의 산업 현장 검증 AI 적용 사례가 자세히 소개됐다. 참석자들은 세션을 통해 AI 인프라 구축부터 모델 서빙, 운영·확장까지 AI 수명 주기 전반을 통합적으로 이해하고, AI 서비스 운영 과정에서 마주하는 현실적인 기술 제약과 이를 해결하기 위한 최신 기술 트렌드까지 함께 확인했다. 코오롱베니트는 첫 발표 세션에서 기업이 AI 비즈니스를 본격화하며 직면하는 전문 인력 확보, 오픈소스 중심 환경의 한계 등의 현실적인
한국어 AI 가드레일 기업 튜닙이 중소벤처기업부가 주관하는 민간투자주도형 기술창업 지원 프로그램 ‘스케일업 팁스(SCALE-UP TIPS)’ R&D 사업에 선정됐다. 이번 사업에는 DSC인베스트먼트가 운영사로 참여했으며 튜닙은 이를 통해 향후 3년간 총 12억 원 규모의 연구개발(R&D) 및 사업화 자금을 확보했다. 스케일업 팁스는 정부와 민간이 공동으로 유망 스타트업을 발굴해 기술 고도화와 글로벌 확장을 지원하는 프로그램이다. 튜닙은 이번 과제를 계기로 한국어 특화 AI 가드레일 기술을 중심으로 한 본격적인 스케일업 단계에 진입했다. 튜닙은 한국어 특화 대규모 언어모델과 음성·형태소 분석 기술을 기반으로 AI 챗봇 및 AI 윤리 가드레일 솔루션을 개발해 온 기술 스타트업이다. 생성형 AI 환경에서 발생할 수 있는 유해 발언, 개인정보 노출, 프롬프트 공격 등을 사전에 탐지·차단하는 AI 윤리 가드레일 기술 고도화에 집중하며 안전한 AI 활용 환경 구축을 주요 과제로 삼고 있다. 최근 AI 에이전트 기술 도입이 빠르게 확산되면서, 자율적으로 작업을 수행하는 AI의 행동을 어떻게 제어할 것인가가 핵심 이슈로 부상하고 있다. 음성·이미지·영상 등
튜닙이 스케일업 팁스에 선정되며 한국어 특화 AI 가드레일 기술 고도화에 속도를 내고 있다. 튜닙은 중소벤처기업부가 주관하는 민간투자주도형 기술창업 지원 프로그램 스케일업 팁스에 선정됐다고 밝혔다. 이번 사업에는 DSC인베스트먼트가 운영사로 참여했으며 튜닙은 향후 3년간 총 12억 원 규모의 연구개발과 사업화 자금을 확보하게 됐다. 프로그램은 정부와 민간이 공동으로 유망 기술 스타트업을 발굴해 글로벌 스케일업을 지원하는 구조다. 튜닙은 한국어 특화 대규모 언어모델과 음성·형태소 분석 기술을 기반으로 AI 챗봇과 AI 윤리 가드레일 솔루션을 개발해 온 기업이다. 생성형 AI 확산 속에서 유해 발언 탐지, 개인정보 노출 방지, 프롬프트 공격 차단 등 안전성 확보 기술을 주요 개발 영역으로 삼아 왔다. 최근 AI 에이전트 도입이 증가하며 음성·이미지·영상 등 멀티모달 기반 작업 수행이 확대되는 흐름 속에서 가드레일은 필수 보안 인프라로 주목받고 있다. 튜닙은 해당 분야에서 구축해 온 기술을 기반으로 안전한 AI 활용 생태계 확장을 목표로 한다. 튜닙은 이번 과제를 통해 한국어 특화 멀티모달 가드레일 시스템을 개발한다. 텍스트뿐 아니라 음성·이미지·영상 환경에서 민
노타는 LG AI연구원과 거대 언어 모델(LLM) ‘엑사원(EXAONE)’의 사업화를 위한 파트너십 계약을 체결했다고 10일 밝혔다. 이번 파트너십은 노타의 기술을 엑사원에 적용해 시너지를 창출하고, 노타 솔루션을 기반으로 공동 사업 협력을 추진하는 내용을 포함한다. 양사는 이를 통해 AI 시장 확대를 목표로 긴밀한 협력 체계를 구축하게 됐다. 이번 협력을 기반으로 양 사는 엑사원의 시장 활용성을 높이기 위한 구체적 협력 구조를 마련했다. LG AI연구원은 노타 기술을 활용해 다양한 산업 현장에서 엑사원을 활용할 수 있도록 기술 지원 효율성을 강화하고, 노타는 엑사원이 다수의 디바이스에서 구동될 수 있도록 지원하며 새로운 사업 기회를 확보하게 됐다. 엑사원은 LG AI연구원이 개발한 차세대 거대 언어 모델로, 자연어·이미지 등 멀티모달 데이터를 동시에 처리할 수 있으며, 뛰어난 추론 능력과 언어 이해·생성 기능을 갖춘 모델이다. 서버 환경뿐 아니라 온디바이스 환경에서도 활용이 가능하다는 점에서 경쟁력을 지닌다. 노타의 AI 경량화 기술은 엑사원과 같은 대규모 AI 모델의 연산량과 메모리 사용을 크게 줄여 다양한 반도체 환경에서 효율적으로 구동되도록 지원한다.
글로벌 영상 이해 기반 멀티모달 AI 기업 트웰브랩스가 차세대 비디오 파운데이션 모델(Video Foundation Model) ‘마렝고 3.0’을 공식 공개했다. 트웰브랩스는 2일, 영상 속 텍스트·음성·동작·상황 맥락을 통합적으로 분석해 인간 수준의 이해 능력을 구현하는 마렝고 3.0을 출시하며 영상 분석 기술의 새로운 기준을 제시했다고 밝혔다. 이번 신모델은 영상을 프레임 단위로 처리하는 기존 방식에서 벗어나 시간·공간적 흐름을 통합적으로 파악하는 네이티브 파운데이션 구조가 핵심이다. 마렝고 3.0은 대사·장면·행동의 연속적 관계를 스스로 해석할 수 있으며, 몇 분 후 등장하는 장면과 동작을 연결해 분석하는 등 보다 자연스러운 영상 이해 능력을 갖췄다. 가장 주목되는 기능은 업계 최초로 도입된 ‘복합 이미지 검색’과 ‘고유명사 검색’이다. 복합 이미지 검색은 이미지와 텍스트를 결합해 검색할 수 있는 기능으로, 예를 들어 특정 배경 위 특정 인물이 등장하는 장면을 이미지 조합으로 요청할 수 있다. 고유명사 검색은 ‘사람’이나 ‘제품’을 개별 엔티티로 등록해 이름처럼 검색할 수 있는 기능으로, 방송·스포츠·보안 분야에서 활용도가 높다. 또한 트웰브랩스는 마
KAIST 전산학부 윤성의 교수 연구팀과 이화여대 노준혁 교수 연구팀이 영상 속에서 정답을 위해 꼭 필요한 핵심 장면, 즉 ‘Trigger moment’를 스스로 찾아내는 AI 기술을 개발해 국제 대회에서 우수성을 입증했다. KAIST는 두 연구팀이 ICCV 2025에서 열린 Perception Test Challenge의 영상 근거 기반 질의응답(Grounded Video Question Answering) 트랙에서 1위를 차지했다고 28일 밝혔다. 이번 대회는 구글 딥마인드가 주관한 인지 테스트 챌린지로 총 상금 5만유로가 걸려 있으며, 영상·음성·텍스트를 종합적으로 이해하는 멀티모달 AI의 실제 근거 기반 판단 능력을 평가한다. 언어 패턴에 의존해 ‘그럴듯한 답’을 만드는 기존 AI의 한계를 극복하는 것이 핵심 과제로 제시됐다. 연구팀은 영상을 처음부터 끝까지 단순 분석하는 방식 대신, 질문에 답하기 위해 꼭 필요한 장면을 먼저 추출하는 새로운 프레임워크를 설계했다. 연구팀은 이를 CORTEX(Chain-of-Reasoning for Trigger Moment Extraction)라고 명명했다. CORTEX는 세 모델이 순차적으로 협업하는 구조를 갖춘다
DGIST는 지능형로봇연구부 안진웅 박사 연구팀이 딥러닝 기반 뇌신호 분석에서 가장 큰 한계로 지적돼 온 ‘레이블 데이터 부족’ 문제를 해결한 새로운 AI 파운데이션 모델을 개발했다고 밝혔다. 이번 기술은 뇌신호를 스스로 학습하도록 설계돼 극도로 적은 양의 레이블만으로도 높은 정확도를 구현할 수 있다는 점에서 큰 관심을 받고 있다. 이번 연구는 안진웅 박사와 정의진 박사후연수연구원이 공동으로 수행했으며, EEG(뇌파)와 fNIRS(기능적 뇌혈류) 신호를 동시에 이해하고 분석할 수 있는 ‘뇌파–기능뇌혈류 멀티모달 파운데이션 모델’을 세계 최초로 구현한 것이 핵심 성과다. 연구팀은 총 918명으로부터 약 1250시간에 달하는 초대형 뇌신호 데이터를 확보해, 레이블 없이 비지도 방식으로 모델을 학습시켰다. 이를 통해 EEG와 fNIRS 각각이 가진 고유한 특성뿐 아니라 두 신호가 공유하는 잠재적 표현까지 동시에 파악할 수 있도록 설계했다. 기존에는 EEG와 fNIRS를 동시에 측정한 데이터 확보가 매우 어려워 멀티모달 AI 개발에 한계가 있었다. 하지만 이번에 개발된 모델은 동시계측 데이터가 없어도 학습이 가능하도록 설계됐으며, 소량의 레이블만으로도 높은 정확도를
한국퀀텀컴퓨팅(KQC)은 AI 산업 전반의 경쟁력 강화와 기술 융합을 통한 비즈니스 혁신을 위해 퀀텀에이아이와 전략적 업무협약(MOU)을 체결했다고 20일 밝혔다. 이번 협약을 통해 양사는 KQC가 보유한 엔비디아 H200 GPU 기반 초고성능 AI GPU 팜 인프라와 퀀텀에이아이의 자체 언어모델 및 멀티모달 기반 AI 서비스 개발 기술력을 결합해 급속히 성장하는 AI 시장에서 차별화된 경쟁력과 새로운 비즈니스 모델을 창출하기로 했다. 이번 협약으로 퀀텀에이아이는 KQC의 AI 데이터센터 인프라를 통해 신규 AI 서비스 모델 및 솔루션을 공동 기획·개발하며, 자체 개발한 언어모델(LLM)과 멀티모달 데이터 처리 기술을 적극 도입할 계획이다. KQC는 퀀텀에이아이의 서비스 개발 및 운영 효율성을 높이기 위해 안정적이고 경쟁력 있는 GPUaaS 환경과 기술 자문, 우대비용 혜택을 제공할 방침이다. 양사는 인프라와 기술의 상호 결합을 통해 AI 모델 학습·최적화, 서비스 품질관리 및 사용자 맞춤형 고성능 AI 서비스 개발을 가속화할 예정이다. 양사의 이번 협약은 ▲AI 서비스 시장 선도 및 경쟁력 강화 ▲비용 효율적인 AI 서비스 확장 및 최적화 ▲기술 시너지 창
파일러가 엔비디아 인셉션 스타트업 그랜드 챌린지 2025에서 최우수상 1위를 차지했다. 엔비디아의 기술을 기반으로 혁신적 AI 서비스를 구현하는 스타트업을 선정하는 대회에서 기술력과 시장성을 인정받은 것으로 멀티모달AI 기반 T&S 분야의 경쟁력을 입증했다는 평가다. 올해 대회 파이널리스트로 선정된 기업은 엔비디아 개발자 행사와 AI데이 서울 파이널 쇼케이스 참여 기회를 얻는다. 파일러는 80여 개 기업이 참가한 예선에서 파이널리스트 5개 사 중 한 곳으로 선정됐고 최종 피칭을 통해 1위를 기록했다. 대회는 엔비디아가 2020년부터 중소기업벤처부와 창업진흥원과 함께 지원해온 엔업 프로그램의 연장선으로 마련됐으며 엔비디아 기술을 활용한 스타트업의 성장을 촉진하는 데 목적을 두고 있다. 파일러 팀은 멀티모달AI를 기반으로 브랜드 세이프 확보와 T&S 고도화 방향을 제시하며 기술적 차별성을 강조했다. 오재호 파일러 대표는 AIGC 확산으로 발생하는 딥페이크와 아동 성착취물 같은 유해 콘텐츠 문제를 해결하려면 자동화된 검증 레이어가 반드시 필요하다고 밝혔다. 사람이 직접 검수하는 구조는 한계가 있기 때문에 대규모 영상 검증을 수행할 AI솔루션이 요구된
AI 전문기업 바이브컴퍼니는 13일 서울 한남동 본사에서 생성AI 선도인재양성사업 2025년도 성과공유회를 열고 산학협력을 통해 추진한 2년차 연구성과를 공개했다고 밝혔다. 과학기술정보통신부와 정보통신기획평가원이 주관하는 생성AI 선도인재양성 사업은 2027년까지 총 145억 원 규모의 예산이 투입되는 국가 연구개발 사업이다. 바이브컴퍼니는 2024년 주관기관으로 선정돼 고려대, 서울대, 국민대, 연세대 등과 함께 생성AI 기반 응용 기술과 인재양성 연구를 진행해왔다. 이번 성과공유회에서는 바이브컴퍼니의 사업 운영성과, 대학별 연구 성과, 내년도 계획 발표 등이 진행됐다. 고려대학교 연구팀은 멀티모달 모델의 환각 문제를 개선한 Tri-layer Contrastive Decoding 기술을 선보였다. 이 기술은 모델 내부 층별 인식 특성을 조정해 추가 학습 없이도 사실 기반 정확도를 향상시키는 방식으로, 글로벌 벤치마크 POPE, MME, AMBER에서 정확도 최대 10% 향상, 환각률 최대 38% 감소 성과를 기록했다. 또한 자연어처리 분야 최고 권위 학회인 EMNLP 2025에 채택되며 연구 성과를 인정받았다. 서울대학교는 통계정보 검색 및 시각화 기술을,
슈퍼브에이아이가 신용보증기금의 ‘제14기 혁신아이콘’으로 선정됐다고 10일 밝혔다. 혁신아이콘은 신기술 또는 혁신적인 비즈니스 모델을 보유한 스타트업이 유니콘 기업으로 성장할 수 있도록 지원하는 신용보증기금의 대표 스케일업(Scale-up) 프로그램이다. 오늘의집, 루닛, 퓨리오사에이아이, 두나무, 밀리의서재 등 주요 기업이 과거 혁신아이콘으로 선정돼 유니콘 기업으로 성장하거나 업계에서 기술력을 인정받은 바 있다. 이번 제14기에는 총 143개 기업이 지원해 약 29대 1의 경쟁률을 기록했으며, 슈퍼브에이아이를 포함한 5개 기업이 차세대 유니콘 후보로 최종 선정됐다. 신용보증기금은 선정 기업에 3년간 최대 200억 원의 신용보증, 0.5%의 최저 보증료율, 협약은행 추가 지원, 해외진출 및 컨설팅 등 금융·비금융 서비스를 제공한다. 슈퍼브에이아이는 제조, 모빌리티, 물리보안, 관제 등 산업 분야에 특화된 AI 솔루션을 제공하는 비전 AI 전문 기업이다. ‘슈퍼브 플랫폼(Superb Platform)’과 국내 최초 산업 특화 비전 파운데이션 모델 ‘제로(ZERO)’ 등 올인원 MLOps 기반 솔루션을 운영하고 있다. 슈퍼브 플랫폼은 방대한 데이터를 효율적으로
코오롱베니트는 자체 개발한 AI 안전 관제 시스템 ‘AI 비전 인텔리전스’를 상용화하고, 델 테크놀로지스 및 리벨리온과 협력해 프리패키지 형태의 올인원 어플라이언스를 출시했다고 29일 밝혔다. 이번 출시로 산업 현장의 안전성과 운영 효율을 동시에 높이는 AI 기반 통합 솔루션이 본격 상용화됐다. 이번 ‘AI 비전 인텔리전스’는 코오롱베니트의 독자 AI 모델, 리벨리온의 고성능 NPU, 델 테크놀로지스의 파워엣지 R760xa 서버를 결합한 프리패키지형 제품이다. 델 파워엣지 서버는 높은 안정성과 확장성을 갖춘 AI 전용 플랫폼으로, 자동화 기능을 통해 시스템 운영 효율을 극대화한다. 리벨리온의 AI 반도체는 GPU 대비 에너지 효율과 연산 속도가 뛰어나 CCTV 영상 기반의 추론 성능을 크게 향상시킨다. 코오롱베니트의 AI 모델은 이들 하드웨어와 결합해 안전모 미착용, 위험구역 진입, 중장비 접근 등 다양한 위험 상황을 실시간으로 탐지한다. 탐지된 위험은 정교한 언어 알림으로 변환되어 관리자가 즉시 대응할 수 있도록 지원한다. 이를 통해 산업 현장에서의 사고 예방 효과를 극대화했다. 이번 제품은 코오롱베니트, 코오롱글로벌, 리벨리온, 위시(Wish)가 참여한
보통 그림과 글자가 함께 있을 때 사람의 시선이 그림에 먼저 가는 것처럼, 여러 감각을 동시에 활용하는 ‘멀티모달 인공지능’도 특정 데이터에 더 크게 의존하는 경향이 있다. KAIST 연구진은 이러한 한계를 극복해, 그림과 글자를 모두 고르게 인식해 훨씬 더 정확한 예측을 가능케 하는 새로운 멀티모달 인공지능 학습 기술을 개발했다. KAIST는 전기및전자공학부 황의종 교수 연구팀이 다양한 데이터 유형을 한 번에 처리해야 하는 멀티모달 인공지능이 모든 데이터를 고르게 활용할 수 있도록 돕는 새로운 학습 데이터 증강 기술을 개발했다고 14일 밝혔다. 멀티모달 인공지능은 텍스트, 영상 등 여러 데이터를 동시에 활용해 판단하지만, 기존 AI 모델은 특정 정보(예: 텍스트 또는 이미지)에 치우쳐 판단하는 경향이 있었다. 이로 인해 예측 정확도가 떨어지고, 실제 환경에서의 일반화 성능이 제한되는 문제가 있었다. 연구팀은 이러한 편향을 해결하기 위해 일부러 서로 어울리지 않는 데이터를 섞어서 학습에 사용했다. 이를 통해 인공지능은 특정 데이터에만 의존하지 않고, 글과 그림, 소리 등 모든 정보를 균형 있게 활용하는 방법을 학습하게 된다. 또한 품질이 낮은 데이터는 보완하
멀티모달 AI 혁신을 이끌고 있는 트웰브랩스(TwelveLabs, 대표 이재성)가 영상 인텔리전스를 AI 에이전트에 손쉽게 구현할 수 있는 MCP(Model Context Protocol) 서버를 공식 출시했다. 이번 발표는 AI 어시스턴트가 영상을 직접 이해하고 검색·요약할 수 있게 됐다는 점에서 업계의 새로운 전환점으로 평가된다. MCP는 미국 AI 기업 앤트로픽이 제안한 오픈 표준 프로토콜로, AI 시스템 간 데이터와 기능 연결을 표준화하는 기술이다. 트웰브랩스 MCP 서버는 자사의 영상 이해 모델을 클로드 데스크톱(Claude Desktop), 커서(Cursor), 구스(Goose) 등 개발자 친화적 AI 도구와 연동한다. 개발자들은 플러그 앤 플레이 방식으로 해당 기능을 손쉽게 적용할 수 있어, 별도 복잡한 세팅 없이 영상 이해 기능을 자체 애플리케이션에 통합할 수 있다. 서버의 기반은 트웰브랩스가 독자적으로 개발한 멀티모달 영상 이해 모델 ‘마렝고(Marengo)’와 영상언어 생성 모델 ‘페가수스(Pegasus)’다. 이를 활용해 ▲자연어 기반 영상 검색 ▲영상 콘텐츠 자동 요약·질의응답 ▲다단계 영상 워크플로우 ▲실시간 영상 탐색 등 다양한 기능