씨이랩은 자체 개발한 기업용 비전언어모델(Vision-Language Model, VLM)을 공식 출시하고 자사의 대표 AI 영상 분석 플랫폼 XAIVA(엑스아이바)와 클라우드 영상 분석 서비스 VidiGo(비디고)에 본격 탑재했다고 31일 밝혔다. 씨이랩의 기업용 VLM은 영상 데이터를 텍스트와 결합해 높은 수준의 인지 및 분석 능력을 제공한다. 특히 객체 분류, 자세 추정, 얼굴 인식 등 130종 이상의 Vision AI 모델을 보유하고 있으며 이를 바탕으로 영상속 객체와 상황을 정확히 파악해 실시간으로 이상 징후 탐지 및 대응이 가능하다. VLM이 탑재된 VidiGo는 대용량 영상 데이터를 자동으로 요약하고 문맥 기반 검색(Contextual Query Matching) 기능을 제공한다. 예를 들어 사용자가 단순히 영상을 업로드하고 키워드나 질문을 입력하는 것만으로 AI가 필요한 장면을 자동 탐색하고 앞뒤 맥락을 파악해 요약 결과를 클립과 문서 형태로 동시에 제공한다. 대용량 영상 검색 및 분석이 필요한 미디어 및 기관에 납품돼 활용되고 있다. CCTV 기반 실시간 영상분석 플랫폼 XAIVA는 VLM을 적용해 프롬프트 기반 이벤트 탐지 기능을 제공한다.
노타가 코스닥 상장 예비심사를 통과했다고 30일 밝혔다. 노타는 예비심사를 청구한지 약 2개월 만의 승인을 받으면서 지난 12월 기술성 평가 ‘A·A’ 등급 획득에 이어 다음 단계로 진입했다. 노타는 2025년 하반기 상장을 목표로 IPO 절차를 본격화할 예정이다. 주관사는 미래에셋증권이다. 노타 관계자는 “IPO 심사 기준이 한층 강화되며 올 상반기까지도 예심 승인율이 하락하고 철회 기업이 증가한 가운데, 노타는 신속한 예비심사 승인을 통해 기술력과 사업성을 모두 입증해냈다”며 “이는 단순한 기술 잠재력이 아닌 실제 글로벌 시장에서의 상용화 실적과 수익 기반을 확보한 기업으로서의 경쟁력을 반영한 결과”라고 강조했다. 노타는 자체 개발한 AI 모델 최적화 플랫폼 ‘넷츠프레소(NetsPresso)’를 통해 엣지 디바이스 환경에 특화된 AI 모델을 개발, 배포하는 기술을 제공한다. 최근에는 비전언어모델(VLM) 기술을 접목한 지능형 영상 관제 솔루션 ‘노타 비전 에이전트(NVA)’를 중심으로 산업 안전, 선별 관제, 지능형 교통시스템(ITS) 등 다양한 산업군에서 실증 프로젝트 계약을 이어가고 있다. 채명수 노타 대표는 “최근 기술특례 상장이 더욱 까다로워지는
씨이랩은 바이오써포트와 제약·바이오 산업 현장의 제조 품질관리 AI 솔루션 공동 개발을 위한 전략적 업무협약(MOU)을 체결했다고 23일 밝혔다. 이번 협약은 씨이랩의 AI 영상분석 기술과 바이오써포트의 GMP 품질시스템 컨설팅 역량을 결합해 바이오·제약 산업에 특화된 AI 플랫폼 개발과 AI GMP 공동 사업 추진을 목표로 한다. 양사는 씨이랩의 AI 위생품질관리 솔루션 엑스아이바 온디바이스(XAIVA ON-DEVICE) 솔루션에 바이오써포트의 GMP 설계 및 밸리데이션 기술력을 융합해, 제약바이오 제조 공정 내 작업자 위생관리 및 품질 이상을 실시간으로 감지하고 분석하는 통합 플랫폼을 공동 개발할 예정이다. 이와 동시에 바이오써포트는 엑스아이바 온디바이스의 공식 리셀러로 참여해 제약바이오 기업 대상으로 영업 및 검증을 적극 지원한다. 양사는 이를 통해 AI 기반 스마트 GMP 시장에서 시장을 확대할 계획이다. 씨이랩은 자체 개발한 VLM(Vision-Language Model) 기반의 멀티모달 AI 기술을 바탕으로, 바이오 식품위생 산업에 특화된 엑스아이바 온디바이스를 통해 제조 현장의 품질관리를 자동화하고 작업 효율성을 획기적으로 향상시키며 고도화 레퍼
숙련 인력 빠르게 확보하고, 자동화 기반의 검수 도구로 정합성과 신뢰도 높여 크라우드웍스가 자사 공식 블로그를 통해 최근 수행한 고난도 LLM(대규모 언어모델) 학습 데이터 구축 사례를 공개하며, ‘AI 레디 데이터’ 공급 역량을 선보였다. 이번에 소개된 사례는 인포그래픽 기반 텍스트 매칭 데이터셋, 텍스트 기반 SQL 파인튜닝용 학습 데이터, 전문 의학지식 질의응답 데이터 등 고난도 정제 작업이 요구되는 과업으로, 단순 수집이나 라벨링을 넘어 복합적 언어 구조 분석과 도메인 지식 기반 설계 역량이 핵심이다. 특히 인포그래픽 데이터셋 구축은 복잡한 시각 요소가 포함된 문서 이미지에서 컴포넌트와 노드를 식별하고, 이에 대한 자연어 설명을 생성하는 고난이도 작업이었다. 크라우드웍스는 VLM(Vision-Language Model)을 기반으로 설명문 자동화 기능을 구현하고, JSON 시각화 툴을 자체 개발해 검수 프로세스를 최적화했다. 이를 통해 프로젝트를 당초 예상보다 한 달 앞당긴 3개월 만에 마무리하며 기술력과 운영 효율성을 동시에 입증했다. 이와 같은 프로젝트는 평균 데이터 단가가 일반 과업 대비 20~30% 이상 높고, 고급 인력과 품질 관리 체계가 필수
감지부터 진압까지 전 과정 아우르는 원스톱 재난 대응 시스템 구축할 계획 인텔리빅스와 엠젠솔루션이 손잡고 차세대 재난안전 플랫폼 개발에 나선다. 양사는 6월 26일 서울 서초구 인텔리빅스 본사에서 전략적 업무협약(MOU)을 체결하고, AI 화재 대응 플랫폼 공동개발에 착수했다고 밝혔다. 이번 협력을 통해 양사는 인텔리빅스의 생성형 AI 기반 지능형 영상관제 플랫폼과 엠젠솔루션의 자율형 화재 대응 솔루션 ‘알파샷(AlphaShot)’을 연계해 감지부터 진압까지 전 과정을 아우르는 원스톱 재난 대응 시스템을 구축할 계획이다. 특히, 인텔리빅스의 엣지 영상분석 장치 ‘빅스원(VIXone)’과 시각언어모델(VLM) 기반 생성형 관제 시스템 ‘젠 AMS(Gen AMS)’, 엠젠솔루션의 자율형 화재진압 로봇 및 드론 시스템을 통합해 화재 발생 위험이 높은 건설 현장, 물류창고, 전기차 충전소, 폐기물 처리장, 산림지역 등 다양한 산업 현장에 실시간 대응 가능한 안전 플랫폼을 구현할 방침이다. 양사는 기술 통합뿐 아니라 신규 사업 기회 발굴, 융합 솔루션 개발, 공동 수주 활동 등 다방면의 협업을 단계적으로 추진할 예정이다. 인텔리빅스는 국내 최초로 비전 AI와 생성형
씨이랩은 국내 주주 및 일반 투자자를 대상으로 기업설명회를 개최했다고 29일 밝혔다. 이번 설명회는 주주와의 소통을 강화하기 위해 마련된 자리로 씨이랩은 AI 사업 현황과 함께 회사의 중장기 비전 달성 및 지속 성장을 위해 현재 추진 중인 유상증자의 활용방안 및 구체적인 실행 계획을 공개했다. 이날 씨이랩은 성장 기반 마련을 위한 실행 로드맵을 공개하며, 그 중심에 AI 컴퓨팅 인프라 사업 확대가 있음을 강조했다. 최근 급증하는 AI 서비스 수요와 국가 차원의 GPU 인프라 확대 정책에 대응해 유상증자를 통해 확보한 자금을 데이터센터 확대 및 GPU 최적화 솔루션 아스트라고(AstraGo) 고도화에 집중 투입한다. 특히 수 만장의 GPU 대규모 클러스터를 안정적으로 운영할 수 있는 하이퍼스케일 인프라 기술을 확보해 GPU 수요 증가에 따른 직접적인 매출 성장을 본격화할 계획이다. 또한 연구개발(R&D) 자금을 통해 자체 개발 중인 VLM(Vision-Language Model)과 피지컬 AI 기술을 고도화해 증가하는 CCTV의 AI화 수요를 선점해 비전 AI 사업 매출을 대폭 확대할 예정이다. 더불어 로봇·제조·자율주행 분야에서 물리적 환경을 디지털
아이서티는 고려대학교 MILI(멀티모달 인터랙티브 인텔리전스 연구소)와 ‘Vision-Language Model(VLM) 기반 지능형 영상보안 관제기술 개발’을 위한 산학협력 MOU를 체결했다고 27일 밝혔다. 이번 협약은 멀티모달 AI 기술을 접목한 차세대 영상보안 관제기술 개발을 위해 민간기업과 학계가 손을 잡았다는 점에서 업계의 주목을 받고 있다. 협력 주요 분야는 ▲오픈소스 대규모 언어모델(LLM)을 기반으로 한 VLM 기술 개발 ▲실시간 영상 내 보안 이벤트 자동 감지 ▲한국어 특화 LLM 기반 의사결정 지원 기술 연구 등이다. VLM(Vision-Language Model)은 영상, 오디오, 자막 등 다양한 시각·청각 데이터를 동시에 분석한 뒤 대규모 언어모델(LLM)을 통해 상황을 종합 판단해 문맥 기반 리포트를 생성하는 AI 기술이다. 기존 영상보안 시스템이 단순 움직임 감지에 그쳤다면 VLM은 상황의 맥락까지 이해해 실제 위험상황을 정확히 구분할 수 있다. 특히 이번 프로젝트는 멀티모달 데이터를 활용해 문맥을 이해하고 이상 징후를 식별하는 AI 기술 구현에 집중한다. 기존 보안관제 시스템의 한계를 극복하고 산업 전반의 보안 패러다임 전환을 견
한국딥러닝이 국내 대형 금융사와 ‘비정형 여신 서류 AI OCR 자동화’ 프로젝트 계약을 체결하면서 시각지능 기반 DEEP OCR+ 솔루션을 적용한다. 이번 수주는 금융 업무에서의 비정형 문서 자동화를 본격화하는 사례로, 금융권 디지털 전환의 실질적 성과를 예고하고 있다. 대상 금융사는 기존에 여신 심사 과정에서 46종에 달하는 신청 및 증빙 서류를 하나의 PDF로 수령하고 수작업으로 분류 및 입력 작업을 했다. 이로 인해 문서 누락, 입력 오류, 병목 현상 등이 반복돼 왔다. 한국딥러닝은 이 문제를 해결하기 위해 자사 VLM 기반 AI 문서이해 솔루션 DEEP OCR+를 도입했다. DEEP OCR+는 이미지와 언어를 동시에 이해하는 VLM 기반 OCR 솔루션으로, 문서의 구조와 의미를 함께 분석해 핵심 정보를 자동 추출한다. 문서 병합 해제, 분류, 주요 항목 추출까지 전 과정이 자동화돼 검증 대시보드와 RPA 연계로 후속 업무까지 연동된다. 휴먼인더루프 검수 기능도 지원돼 실시간 오류 검증이 가능하다. 이번 프로젝트로 DEEP OCR+는 문서 구조 인식 정확도를 27% 향상시키고 평균 10배 빠른 병렬 처리로 실무 효율을 크게 개선한다. 오탈자 발생률은
씨이랩은 윤세혁, 채정환 각자 대표이사가 총 1억원 규모의 자사주를 장내 매수했다고 16일 공시했다. 이번 자사주 매입은 회사가 추진 중인 AI 사업 실행에 대한 경영진의 자신감을 보여주는 동시에, 책임경영 실천과 주주가치 제고 의지를 명확히 보여주는 것으로 풀이된다. 지난 14일 씨이랩은 급증하는 AI컴퓨팅 인프라 수요 대응과 Physical AI 시장 선점을 목표로 약 178억 원 규모의 유상증자 계획을 발표했다. 유상증자를 통해 확보한 자금은 ▲고성능 GPU 데이터센터 증축 및 GPU 클러스터 최적화SW 개발 ▲VLM(Vision Language Model) 및 디지털 트윈 기술 개발 ▲글로벌 영업망 확대 등 회사 미래 성장동력에 집중 투자될 예정이다. 특히 씨이랩은 최근 엔비디아와의 파트너십을 바탕으로 제조, 반도체, 바이오 등 다양한 산업에 솔루션을 공급하며 시장 영향력을 확대하고 있다. 이 같은 기술력과 성장 잠재력을 바탕으로 차세대 Physical AI 분야에서 확고한 선도기업으로 자리매김한다는 계획이다. 씨이랩 관계자는 “이번 자사주 매입은 회사가 추진 중인 AI 비즈니스 성장에 대한 경영진의 확고한 자신감을 보여주는 것”이라며 “경영진이 이번
한국딥러닝이 오는 14일부터 16일까지 서울 코엑스에서 열리는 AI EXPO KOREA 2025에 참가해 VLM 기반 OCR 솔루션 ‘DEEP OCR+’을 선보인다. 이 솔루션은 문서 의미와 구조를 자동 분석하는 시각언어모델(VLM) 기술로 다양한 형태의 문서를 별도 학습 없이 처리한다. 이를 활용하면 문서 검토 시간을 80% 이상 단축할 수 있다. DEEP OCR+는 기존 OCR의 한계를 넘는 차세대 솔루션으로 문서의 의미와 전체 구조를 이해하고 핵심 정보를 자동 추출한다. 한국딥러닝이 5년간 4억 장 이상의 텍스트·이미지 데이터를 학습해 개발한 VLM 모델을 기반으로 작동한다. 데이터 수집이나 라벨링 없이도 다양한 유형의 문서를 즉시 처리할 수 있어 초기 도입 부담이 낮다는 장점이 있다. 비정형 문서, 손글씨, 다국어 혼합 문서 등에도 적용 가능하다. 이번 전시 기간 동안 한국딥러닝은 DEEP OCR+의 실시간 데모 체험을 운영한다. 금융권 대출 서류, 법률 계약서, 공공 민원 서류 등 산업별 실제 적용 사례를 중심으로 기능을 소개한다. 또한 AI 컨설팅 전문가가 부스에 상주하며 1:1 맞춤형 AI 도입 상담을 진행해 기업의 데이터와 업무 프로세스에 맞춘
엔젠바이오와 씨이랩은 ‘AI 기반 암 맞춤 치료 및 예측 플랫폼’ 개발을 위한 전략적 업무협약(MOU)을 체결했다고 29일 밝혔다. 이번 협약을 통해 양사는 엔젠바이오의 유전체 분석 및 임상데이터 역량과 씨이랩의 VLM(비전 언어 모델)기반 멀티모달(multimodal) AI 기술력을 결합해 차세대 정밀의료 솔루션을 개발할 계획이다. 국내에는 미국의 AI 정밀의료 기업인 템퍼스AI(Tempus AI)처럼 임상 및 분자 데이터 라이브러리를 구축하고, 이를 기반으로 AI를 활용한 정밀의료 서비스를 제공하는 플랫폼이 아직 없다. 이에 엔젠바이오와 씨이랩은 국내 의료 환경과 임상 데이터에 최적화된 ‘K-Tempus AI’를 개발해 암 환자들에게 맞춤형 치료 솔루션을 제공할 예정이다. 양사는 항암 치료 반응을 사전에 예측하고 환자 개인에 최적화된 치료 옵션을 제안하는 정밀의료 플랫폼을 공동 개발하며 향후 다양한 질환 영역으로 협력 범위를 확대할 방침이다. 엔젠바이오는 국내 최초로 대용량 유전체 분석 기술을 상용화한 기업으로 병원 및 연구기관과의 협력 네트워크를 기반으로 환자 맞춤형 정밀진단 서비스를 제공한다. 이번 협력에서 엔젠바이오는 NGS 암 패널 및 임상 데이터
한국딥러닝이 VLM 기반 OCR 솔루션인 ‘DEEP OCR+’을 출시했다고 10일 밝혔다. DEEP OCR+은 기존 광학문자인식(OCR)의 기능을 넘어 문서의 의미와 구조를 자동으로 분석하고 핵심 정보를 추출할 수 있도록 설계됐다. 한국딥러닝이 지난 5년간 4억 장 이상의 텍스트·이미지 문서를 학습한 VLM(Vision-Language Model) 모델을 기반으로 개발됐다. 한국딥러닝 관계자는 “별도의 데이터 수집이나 라벨링 없이도 다양한 문서 유형을 즉시 처리할 수 있어 초기 도입 부담이 거의 없다”며 “최소한의 고객 데이터만으로도 최적의 정확도를 보장한다”고 설명했다. 기존 OCR 솔루션은 문서 이미지에서 텍스트를 추출하는 데 중점을 뒀다. 하지만 표, 조항, 문단 등 복잡한 문서 구조를 인식하는 데는 제약이 있었다. 특히 계약서나 청구서처럼 포맷이 일정하지 않은 문서의 경우, 문서마다 별도 설계와 라벨링이 필요해 도입 및 유지비용이 높았다. DEEP OCR+는 특정 포맷에 의존하지 않고도 문서의 전체 구조와 의미를 이해할 수 있어 비정형화된 문서도 즉시 처리 가능하다. 이미지와 텍스트를 동시에 처리할 수 있는 VLM 기술을 바탕으로 사용자가 문서를 업로
영상 상황 감지뿐 아니라 맥락과 의미 이해로 자연어 설명 가능해 인텔리빅스가 세계 최대 보안 전시회 중 하나인 ‘ISC West 2025’에서 세계 최초의 VLM(비전언어모델) 기반 생성형 AI 영상관제 시스템인 ‘Gen AMS’를 공개하며 주목을 받았다. 인텔리빅스는 미국 라스베이거스에서 열린 이번 전시회에서 영상보안의 패러다임을 전환하는 기술적 진보를 제시했다는 평가를 받았고 밝혔다. Gen AMS는 기존 CCTV 중심의 영상관제가 갖고 있던 인간의 피로와 오탐 문제를 해소하기 위해 개발된 시스템이다. 영상 속 상황을 AI가 단순 감지하는 것을 넘어, 그 맥락과 의미를 자연어로 설명할 수 있다는 점에서 기존 자동화 관제 시스템과 차별화한다. 실제 시연에서는 스마트폰 화면 속 불꽃을 AI가 '화재가 아님'으로 판단하고, 손을 머리 위로 올리는 동작을 '구조 요청'으로 실시간 인식하며 관람객의 박수와 호응을 이끌어냈다. 이번 전시회에서 공개된 버전은 VLM을 기반으로 관제일지를 자동 생성하는 기능까지 갖춘 상용화 모델이다. 이처럼 영상 의미를 실시간으로 해석하고 문서화까지 가능한 시스템은 전 세계에서 처음으로 상용화된 사례로 기록될 전망이다. 인텔리빅스는 C
씨이랩이 제조 기업 고객을 위한 ‘2025 AWS 파트너 클라우드 솔루션 컨퍼런스’에 참가해 제조업 대상 AI 자동화 및 클라우드 전환 사례 발표를 진행했다고 25일 밝혔다. 서울 롯데호텔에서 개최된 이번 컨퍼런스는 매년 1000명 이상의 제조 산업 관계자가 참석하는 대규모의 IT 행사다. AWS 파트너사들의 전문성과 경험을 바탕으로 제조 산업 내 첨단 클라우드 기술과 구축 사례를 공유하며, 기업의 디지털 혁신과 생산성 향상을 지원하는 자리다. 이날 씨이랩은 Vision AI 솔루션을 활용한 AI 자동화 및 클라우드 전환 사례를 주제로 제조업 내 시스템 운영 효율성 증대 및 분석 정확도 향상을 위한 VLM(Vision Language Model) 모델 활용 방안을 소개했다. 특히 AWS 클라우드를 기반으로 AI 분석 모델을 운영함으로써 품질 개선, 운영 최적화, 비용 절감 효과를 극대화할 수 있음을 강조하고, Vision AI 모델과 디지털 트윈 기술을 결합해 제조 현장의 자동화 수준을 향상시키고 스마트 팩토리 효율화 구축을 용이하게 하는 전략을 제시했다. 세션 발표와 함께 씨이랩은 부스 현장에서 신제품인 ‘XAIVA On-Device’를 공개했다. XAIV
비전 언어 모델(VLM) 포함 및 연쇄적 사고 기능 추가돼 IBM이 기업용 거대 언어 모델(LLM) '그래니트(Granite) 3.2'를 출시했다. 이번 버전은 기존 모델 대비 크기를 줄이면서도 성능을 유지하는 데 초점을 맞췄다. IBM은 이를 통해 기업들이 AI를 효율적으로 활용하도록 지원한다는 방침이다. 그래니트 3.2 모델은 아파치 2.0 라이선스 하에 허깅 페이스에서 제공되며, IBM 왓슨x.ai, 올라마, 리플리케이트, LM 스튜디오 등 다양한 플랫폼에서 즉시 활용 가능하다. 또한, 레드햇 엔터프라이즈 리눅스(RHEL) AI 1.5에서도 곧 제공될 예정이다. 주요 기능으로는 문서 해석 작업을 지원하는 비전 언어 모델(VLM)이 포함됐다. 해당 모델은 DocVQA, ChartQA, AI2D, OCRBench 등의 벤치마크에서 기존 대형 모델과 유사한 성능을 보였으며, IBM은 8500만 개의 PDF를 처리하고 2600만 개의 질문-답변 데이터를 생성하는 오픈소스 도구 '도클링'을 활용해 성능을 강화했다. 추론 성능 향상을 위한 ‘연쇄적 사고’ 기능도 추가됐다. 이를 통해 8B 모델은 아레나하드, 알파카이벨과 같은 벤치마크에서 두 자릿수 이상의 성능 향