‘Your Fine-Tuning Roadmap’ 주제로 실무 중심의 노하우 및 전략 공개 예정 생성형 AI가 비즈니스 전반에 빠르게 확산되며, 기업의 기술 도입 패러다임에도 근본적인 변화가 일고 있다. 단순히 대형 언어모델(LLM)을 도입하는 수준을 넘어, 각 기업의 비즈니스 맥락에 맞게 모델을 커스터마이징하고 운영 단계에서 안정적이고 효율적인 시스템을 구축하는 것이 새로운 과제로 부상하고 있다. 특히 ‘파인튜닝 이후’를 고민하는 기업들이 늘어나면서, 모델 성능 고도화뿐 아니라 실제 서비스 환경에서의 적용 전략, 데이터 활용 방식, 운영 효율성 확보 등 실무 중심의 노하우가 절실히 요구되고 있다. 기업의 인공지능 도입이 본격화되는 가운데, 산업 현장의 실무자들이 실제로 활용할 수 있는 전략과 사례 중심의 컨퍼런스가 열린다. ‘AI 융합 비즈니스 개발 컨퍼런스 2025(AI Tech 2025)’가 오는 5월 15일 서울 삼성동 코엑스에서 개최된다. AI Tech 2025는 ‘Your Fine-Tuning Roadmap’을 주제로, 파인튜닝 이후 기업 현장에서 AI를 어떻게 실질적으로 활용할 것인지에 초점을 맞춘다. 생성형 AI의 확산 속에서 많은 기업들이 겪고
‘Your Fine-Tuning Roadmap’ 주제로 실무 중심의 노하우 및 전략 공개 예정 생성형 AI가 비즈니스 전반에 빠르게 확산되며, 기업의 기술 도입 패러다임에도 근본적인 변화가 일고 있다. 단순히 대형 언어모델(LLM)을 도입하는 수준을 넘어, 각 기업의 비즈니스 맥락에 맞게 모델을 커스터마이징하고 운영 단계에서 안정적이고 효율적인 시스템을 구축하는 것이 새로운 과제로 부상하고 있다. 특히 ‘파인튜닝 이후’를 고민하는 기업들이 늘어나면서, 모델 성능 고도화뿐 아니라 실제 서비스 환경에서의 적용 전략, 데이터 활용 방식, 운영 효율성 확보 등 실무 중심의 노하우가 절실히 요구되고 있다. 기업의 인공지능 도입이 본격화되는 가운데, 산업 현장의 실무자들이 실제로 활용할 수 있는 전략과 사례 중심의 컨퍼런스가 열린다. ‘AI 융합 비즈니스 개발 컨퍼런스 2025(AI Tech 2025)’가 오는 5월 15일 서울 삼성동 코엑스에서 개최된다. AI Tech 2025는 ‘Your Fine-Tuning Roadmap’을 주제로, 파인튜닝 이후 기업 현장에서 AI를 어떻게 실질적으로 활용할 것인지에 초점을 맞춘다. 생성형 AI의 확산 속에서 많은 기업들이 겪고
다올티에스와 업스테이지가 국내 AI 생태계 확장을 위한 전략적 협력에 나선다. 양사는 지난 14일 다올티에스 본사에서 양해각서(MOU)를 체결하고 AI 비즈니스 활용(LLM, RAG) 및 GPU 인프라 분야에서의 기술 협력과 시장 확대를 본격화한다고 밝혔다. 다올티에스는 델 테크놀로지스, 수세, 팔로알토 네트웍스의 국내 총판사로서, 서버·스토리지·네트워크 등 하드웨어 인프라뿐만 아니라 클라우드, 가상화, 인공지능 분야에 이르기까지 폭넓은 IT 솔루션을 제공하는 기업이다. 특히 지난해 전략사업본부를 신설하며 AI 사업을 본격화하고 다양한 ISV 파트너들과 협력해 AI 에코시스템을 구축 중이다. 업스테이지는 비정형 데이터 정형화 솔루션 ‘다큐먼트 파스(Document Parse)’, 자체 사전학습 거대언어모델(LLM) ‘솔라(Solar)’를 중심으로 금융, 법률, 헬스케어 등 다양한 분야에 산업별 맞춤형 AI 모델을 제공하고 있다. 이번 협약을 통해 양사는 다올티에스의 AI 인프라 설계 및 구축 역량과 업스테이지의 LLM 및 AI 솔루션 수행 역량을 결합, AI 인프라부터 애플리케이션 서비스까지 아우르는 통합 AI 플랫폼 사업의 활성화를 도모할 계획이다. 양사는
가트너, 소규모언어모델 중심의 AI 생태계 전환 제안 운영 효율성과 수익 창출 동시 실현 전망 가트너는 기업이 2027년까지 특정 업무에 최적화된 소규모언어모델(SLM)을 본격 도입하고 전체 사용량이 범용 대규모언어모델(LLM)보다 최소 3배 이상 많아질 것으로 전망했다. SLM은 높은 정확도, 빠른 응답 속도, 적은 자원 소모가 특징으로 전문성이 요구되는 업무에 적합한 모델로 주목받고 있다. 수밋 아가왈 가트너 VP 애널리스트는 “다양한 업무 흐름과 높은 정확도 요구로 인해 SLM 전환이 가속화되고 있다”고 분석했다. SLM은 운영 비용 절감과 응답 속도 개선 측면에서 장점을 가지며 도메인별 특화 데이터와 연계해 미세조정하거나 검색 증강 생성(RAG) 방식으로 구현될 수 있다. 기업은 고유 데이터를 기반으로 SLM을 구성할 수 있으며 이 과정에서 ‘데이터 준비’, ‘품질 관리’, ‘버전 관리’가 중요하다. 아가왈 애널리스트는 “기업이 자사 데이터와 프로세스에서 도출한 인사이트를 바탕으로 새로운 수익을 창출하고 외부와 협업하는 생태계를 형성할 수 있다”고 밝혔다. 이는 기존 보호 중심의 데이터 접근 방식에서 협업 중심 전략으로의 전환을 의미한다. 가트너는 S
AI가 추출한 답변의 출처인 문서 파일명, 관련 페이지 등의 정보 확인 가능 사이냅소프트는 자사 최신 제품 ‘사이냅 문서뷰어 2025’가 RAG(Retrieval-Augmented Generation) 기반 대화형 AI 에이전트 도입에 필수 솔루션으로 주목받고 있다고 25일 밝혔다. 최근 기업과 공공기관들은 AI 기반 정보 검색 및 요약 기술을 접목한 대화형 에이전트 도입에 속도를 내고 있다. 특히 계약서, 약관, 설명서 등 정보 신뢰성이 중요한 문서를 다루는 환경에서는 AI가 제공하는 답변의 ‘출처 확인’이 핵심 요건으로 부상하고 있다. 이런 흐름 속에서 사이냅 문서뷰어 2025는 AI 에이전트의 신뢰도를 높이는 도구로 주목받고 있다. 사용자는 AI가 추출한 답변의 출처인 문서 파일명, 관련 페이지 등의 정보를 확인할 수 있으며, 별도 다운로드 없이 브라우저에서 직접 해당 문서를 열람할 수 있다. 이는 AI가 제공하는 결과물의 투명성과 신뢰도를 높이는 데 실질적인 도움을 주고 있다. 사이냅 문서뷰어는 한글, MS 오피스, PDF 등 다양한 포맷의 문서를 별도의 소프트웨어 설치 없이 웹에서 바로 열람할 수 있도록 지원하는 솔루션이다. 현재 대기업 50여 개사
검색과 추론 동시에 수행하는 RAG 특화 AI 시스템 개발할 계획 디노티시아와 하이퍼엑셀이 공동으로 ‘검색증강생성(RAG) 최적화 AI 추론 시스템’ 개발에 나선다. 이번 협력은 디노티시아의 벡터 데이터 연산 가속기 칩(VDPU)과 하이퍼엑셀의 거대언어모델(LLM) 가속기 칩인 ‘LLM 프로세싱 유닛(LPU)’을 결합해 하나의 통합 시스템을 구축하는 방식으로 진행된다. AI 서비스 분야에서 데이터 검색의 중요성이 커지면서 빠르고 효율적인 데이터 활용 방식이 요구된다. 기존 시스템은 소프트웨어 기반으로 데이터를 검색한 후 LLM을 활용한 생성형 AI 프로세스를 별도로 처리하는 구조로 인해 응답 속도가 느리고 전력 소모가 많았다. 이에 디노티시아는 VDPU 칩으로 AI가 대규모 멀티모달 데이터를 실시간 검색하고 활용하도록 지원하며, 하이퍼엑셀은 LPU 칩으로 AI 모델의 연산 성능을 극대화하는 역할을 한다. 양사는 이 두 칩을 결합해 검색과 추론을 동시에 수행하는 RAG 특화 AI 시스템을 개발할 계획이다. 이를 통해 AI가 보다 정밀한 데이터를 빠르게 찾아내고, 생성형 AI 모델의 연산 속도를 향상시키는 등 AI 서비스의 성능과 효율성을 개선할 것으로 기대된다
그리드원은 한국수자원공사의 업무용 생성형 AI 서비스 ‘K-water GPT’를 성공적으로 구축하고 정식 오픈했다고 21일 밝혔다. 이번 서비스는 검색증강생성(RAG) 기반 시스템으로 지난해 12월 4일 사규, 업무기준 기능을 사전 오픈하고 이날 전체 서비스를 업무에 정식 적용했다. 국내 공공기관 중 RAG 기반 업무 시스템을 정식 오픈한 기관은 수자원공사가 최초다. K-water GPT 구축에는 그리드원의 RAG 솔루션 ‘고 래그(GO RAG)’가 적용됐다. 그리드원은 자동화 솔루션 개발사로 자체 개발한 로보틱스자동화(RPA)와 이미지텍스트추출(AI-OCR)기술을 RAG와 결합해 HWP, PDF 같은 비정형 문서의 의미를 추출하고 AI가 답변하는 자료를 최신 상태로 갱신한다. 또한 고성능 경량 거대언어모델(LLM)을 내부 구축해 정보 유출을 원천 차단하고 초기 도입 부담을 줄였다. K-water GPT 서비스는 AI가 사용자 질문 유형을 분석해 최적화된 검색 방법을 적용하고 사용자가 원하는 목록의 자료만 검색 및 여러 문서들의 내용을 조합하고 출처와 미리보기를 표시해 답변 정확도를 높였다. 문서 다운로드 제한과 접근권한을 제어하는 관리자 기능으로 보안성을
사이냅소프트가 디딤365와 AI 사업 협력을 위한 업무협약(MOU)을 체결했다고 19일 밝혔다. 이번 협약을 통해 양사는 ‘사이냅 도큐애널라이저’와 ‘DidimVSM’ 솔루션을 연계해 상호 시너지를 극대화할 계획이다. 특히 안전하고 신뢰성 있는 RAG 구축을 위한 기술개발 및 사업 개발에 협력하기로 했다. 사이냅 도큐애널라이저는 LLM학습데이터 구축과 디지털 문서 자산화를 위한 솔루션이다. 아래아 한글, 오피스 문서, PDF등의 일반 업무용 문서와 이미지 문서 등 다양한 비정형 문서의 포맷과 레이아웃, 속성 및 객체를 분석해 정보화 한다. 또한 표, 도형 같은 시각적 정보와 제목, 문단, 머리글/바닥글, 캡션, 각주, 페이지 번호와 같은 문서 구조 정보를 Markdown, XML 형식의 정형 데이터로 전환한다. 디딤365의 DidimVSM은 대규모 언어 모델(LLM)의 성능을 강화하기 위한 솔루션이다. 데이터 수집/전처리/청킹/임베딩/벡터 DB 적재까지 모든 과정을 자동화해 LLM 서비스의 성능 개선을 위한 RAG(검색증강생성)를 쉽고 빠르게 구성할 수 있도록 지원한다. 전경헌 사이냅소프트 대표는 “최근 생성형 AI 시스템에서는 데이터의 질이 더욱 중요해지고
클라썸이 AI 기반 개인 맞춤형 대학 학사 상담 시스템 ‘클라썸 커넥트’를 출시했다고 7일 밝혔다. 클라썸 커넥트(CLASSUM Connect)는 대학별 학사 정보를 기반으로 학생들의 문의에 신속하게 확실한 답변을 제공하는 AI학사 상담 서비스다. 자동으로 학사 정보를 업데이트하고 광범위한 질문에도 정확하고 신뢰성 있는 답변과 함께 해당 정보의 출처까지 제시한다. 클라썸 관계자는 “클라썸 커넥트로 교직원의 업무 효율성은 크게 향상되고 학생들에겐 학교생활에 대한 만족도를 높인다”고 말했다. 또한 “최근 대학에서 추진하고 있는 ‘글로컬대학30’이나 ‘지역혁신중심 대학지원체계(RISE)’ 사업과 연계된 학사 운영 내실화를 위한 과제에 사용하기 매우 적합하다”고 설명했다. 클라썸 커넥트는 기존 챗봇의 한계인 불편한 학사 정보 업로드, 신뢰도 낮은 답변, 학사 정보 업데이트 시간 및 비용 소요 등을 해결했다. 챗봇은 학사 규정 파일에 기반해 시나리오를 설계한 데 반해 클라썸 커넥트는 응용프로그램 인터페이스(API) 연동을 통해 손쉽고 편리하게 규정 파일을 자동으로 올린다. 대규모 학사 정보도 쉽게 업로드 가능하다. FAQ 답변 파일을 이미 보유하고 있는 경우 업로드를
바이브컴퍼니(이하 바이브)가 2024 대한민국 정부 박람회에 참가해 RAG 기술 기반 AI 솔루션을 선보였다. 이번 박람회는 디지털 플랫폼 정부의 성과와 현황을 공유하고 향후 방향성을 모색하는 자리로, 13일부터 15일까지 광주광역시 김대중컨벤션센터에서 진행됐다. 바이브가 박람회에서 소개한 바이브 서치(VAIV Search)는 데이터베이스 내 문서에서 관련 정보를 검색한 후 이를 바탕으로 답변을 생성하는 검색 증강 생성 기술 기반 검색 솔루션이다. 바이브는 검색 정확도를 높이기 위해 LLM 학습, 결과 재순위화, 도메인에 따른 UX 기술 개발을 적용해 활용성을 강화했다. 바이브 서치는 내부에서 운영해 보안 문제에서 자유로운 사내 구축형 솔루션이다. 내·외부 문서와 결합한 자연어 의미 검색, 고객 상담 챗봇, 리포트 작성 등 다양한 업무에 활용되고 현재 국회도서관과 외교부를 포함한 기관 및 기업에 도입됐다. 바이브는 이외에도 이번 박람회에서 빅데이터 분석 서비스 ‘썸트렌드 클라우드(Cloud)’, AI 챗봇 솔루션 ‘바이브 챗봇(Chatbot)’, 인공지능 기반 이슈 요약 서비스 ‘바이브 뉴스다이제스트(NewsDigest)’ 등 다양한 서비스를 소개했다. 바이
채팅상담, 문서 등 다양한 데이터 학습하고 답변을 생성해 상담 업무 자동화 실현 루나소프트-엠비아이솔루션이 자사 상담 솔루션을 ‘해피톡’으로 통합하고 인공지능(AI) 고객상담 시스템 고도화에 나선다고 13일 밝혔다. 이번 솔루션 통합은 엠비아이솔루션이 자체 개발한 AI 엔진인 ‘hAI(happytalk AI, 해피톡 AI)’ 출시 및 기능 업그레이드에 따른 결정이다. 지난해 10월 M&A 계약을 체결한 루나소프트와 엠비아이솔루션은 양사 대표 고객상담 솔루션인 ‘루나톡’과 ‘해피톡’을 별도로 서비스해 오다 올해 상반기 hAI 출시를 기점으로 솔루션 통합 절차에 속도를 내고 있다. 루나톡과 해피톡이 각각 제공해 온 채팅상담과 챗봇, 콜 서비스 등을 해피톡으로 일원화하고 여기에 hAI를 전면 탑재해 AI 고객상담 솔루션으로 고도화할 예정이다. hAI는 거대언어모델(LLM)과 검색증강생성(RAG) 기술 기반의 CS 특화 생성형 AI 엔진이다. 채팅상담 내용이나 문서 등 다양한 데이터를 학습하고 이를 토대로 답변을 생성해 상담 업무를 자동화한다. 현재 해피톡에서 서비스 중인 QA 챗봇에 우선 적용해 기존 챗봇보다 정교한 응대가 가능하도록 했다. QA 챗봇은 질
최적인 RAG 파이프라인 정의 및 실행해 기존 방식 대비 성능 높여 인텔리시스는 거대언어모델(Large Language Model, LLM)을 활용한 서비스 개발에 필수적인 검생증강생성(Retrieval Augmented Generation, RAG)을 노코드 기반으로 자동 구축할 수 있는 솔루션 ‘레그빌더(Rag Builder)’를 출시했다고 밝혔다. RAG는 거대언어모델이 답변을 생성하기 전에 사전 학습한 데이터뿐 아니라, 기업 내의 신뢰할 수 있는 주요 정보를 참조하도록 하는 프로세스로, 막대한 리소스가 소요되는 학습 과정을 거치지 않고도 LLM 서비스에 있어서 치명적인 할루시네이션 현상을 완화시키고, 정확한 지식 활용으로 답변 투명성을 제공해 최근 생성형 AI 분야에서 가장 주목받는 기술이다. 인텔리시스 이상구 대표는 “RAG는 정보자원을 지식 단위로 분할하는 청킹부터, 각 청크(지식 단위)를 벡터화 하는 임베딩, 사용자 질문에 근거가 되는 청크를 찾아내는 의미 검색, 이를 이용해 정확한 답변을 생성하게 하는 증강 생성에 이르는 여러 단계의 파이프라인을 거치는데, 각각의 단계에서 어떤 기술적 전략을 선택하는지에 따라 답변의 정확도가 크게 차이가 난다”
범용·언어 모델, 안전 장치 및 안전성 모델, 혼합 전문가 모델로 분류돼 IBM은 오늘 연례 '테크익스체인지(TechXchange)' 행사에서 가장 진보된 자사 인공지능(AI) 모델 제품군인 '그래니트(Granite) 3.0'을 발표했다. IBM의 3세대 그래니트 플래그십 언어 모델은 많은 학술 및 산업 벤치마크에서 비슷한 크기의 다른 모델을 능가하거나 동등한 성능을 보이며, 뛰어난 성능, 투명성, 안전성을 입증했다. IBM 그래니트 모델은 오픈소스 AI에 대한 IBM의 의지를 바탕으로 아파치 2.0 라이선스 하에 공개돼 특정 모델에 대한 비종속성은 물론, 성능 및 비용 효율성 측면에 있어 기업 고객과 커뮤니티에 독보적인 가치를 제공할 것으로 예상된다. 이번에 발표된 IBM의 그래니트 3.0 제품군은 범용·언어 모델, 안전 장치 및 안전성 모델, 혼합 전문가 모델로 분류된다. 범용·언어 모델은 그래니트 3.0 8B 인스트럭트, 그래니트 3.0 2B 인스트럭트, 그래니트 3.0 8B 베이스, 그래니트 3.0 2B 베이스로 분류된다. 안전 장치 및 안전성 모델은 그래니트 가디언 3.0 8B, 그래니트 가디언 3.0 2B으로, 혼합 전문가 모델은 그래니트 3.0
벡터 데이터베이스 기술 활용해 LLM 서비스에 필수적인 RAG 시스템 지원 디노티시아는 최근 베슬에이아이와 전략적 업무 협약(MOU)을 체결했다고 발표했다. 이번 협약은 AI 및 벡터 데이터베이스 기술 분야에서 양사의 첨단 기술을 융합해 차세대 AI 솔루션 개발 및 시장 경쟁력 강화를 목표로 한다. 디노티시아는 벡터 데이터베이스 시스템과 하드웨어 가속기 개발에서 독보적인 기술력을 보유하며, 베슬에이아이는 확장성과 안정성이 뛰어난 LLMOps(Large Language Machine Operations) 솔루션을 통해 대규모 AI 서비스 운영과 관리를 효율화하는 기술을 제공한다. 이번 MOU을 통해 양사는 벡터 데이터베이스 기술을 활용해 LLM 서비스에 필수적인 RAG(Retrieval Augmented Generation) 시스템을 지원한다. 특히, 디노티시아의 벡터 데이터베이스가 베슬에이아이의 LLMOps 플랫폼에 통합됨으로써 AI 모델의 실시간 처리 능력이 대폭 향상될 것으로 기대된다. 양사는 이번 협약을 바탕으로 다양한 분야에서 긴밀히 협력할 계획이다. 이를 통해 기술 정보의 상호 공유와 공동 연구 개발을 촉진하고, 벡터 데이터베이스와 LLMOps 솔루
주요 대학 및 기술기업과 협력해 벡터 데이터베이스 개발에 박차 디노티시아는 최신 AI 서비스의 필수 요소로 주목받는 검색증강생성(RAG)의 핵심 기술인 벡터 데이터베이스 기술 개발 및 사업화에 박차를 가하고 있다. 디노티시아는 과학기술정보통신부가 지원하고 전문기관인 정보통신기획평가원이 주관하는 SW컴퓨팅산업원천기술개발사업 중 ‘초거대 AI모델의 장기 기억 저장을 위한 벡터 DB개발’ 과제(이하 과기부 과제)를 통해 세계 최고 성능과 정확도를 가지는 국산 벡터 데이터베이스 공개 소프트웨어를 개발한다고 밝혔다. 또한, 산업통상자원부에서 지원하고 한국산업기술평가관리원이 전문기관으로 수행하는 소재부품기술개발(이종기술융합형) 사업의 ‘LLM을 위한 벡터 데이터베이스 가속기 개발’ 과제(이하 산자부 과제)를 통해 세계 최초로 벡터 데이터 연산에 특화된 반도체 칩을 개발한다. 각각 과제는 4년 88억 원(총 과제 금액), 3년 73억 원(총 과제 금액)이다. RAG는 대규모 언어 모델(LLM)을 사용하는 인공지능에 실시간 정보를 반영하고 개인화 서비스를 가능하게 하며, 할루시네이션을 줄여주고 장기 기억 기능을 더해주는 필수 기술이다. 이 모든 과정의 중심에는 디노티시아가