배너
닫기
배너

알리바바 ‘큐원3’ 발표...사고 기반 추론으로 LLM 진화 가속

URL복사

 

자체 개발한 하이브리드 추론 기능으로 처리 효율 극대화해

 

알리바바 클라우드가 오픈소스 대규모 언어모델(LLM) 신제품군 ‘큐원3(Qwen3)’를 공개하며 생성형 AI 경쟁에서 다시 한 번 존재감을 드러냈다. 이번 시리즈는 모바일부터 자율주행까지 다양한 AI 활용 환경을 겨냥해 설계됐으며, 사고 기반 하이브리드 추론 등 새로운 구조로 성능과 효율성 모두를 잡았다는 평가다.

 

큐원3는 총 6종의 밀집 모델(0.6B, 1.7B, 4B, 8B, 14B, 32B)과 2종의 전문가 혼합(MoE) 모델(30B 중 3B 활성, 235B 중 22B 활성)로 구성된다. 모든 모델은 깃허브, 허깅페이스, 모델스코프를 통해 누구나 자유롭게 활용 가능하며, 곧 API 형태로도 서비스될 예정이다. 


큐원3의 가장 큰 특징은 알리바바가 자체 개발한 하이브리드 추론 기능이다. 복잡한 논리 추론이나 수학, 코딩과 같은 다단계 작업에는 사고 기반 추론 모드를, 빠른 응답이 필요한 일반 대화에는 비사고 기반 추론 모드를 자동 전환해 처리 효율을 극대화한다. 개발자는 API 상에서 최대 3만8000개의 토큰까지 사고 지속 길이를 조절할 수 있어, 성능과 리소스의 균형을 자유롭게 맞출 수 있다. 

 

큐원3의 대표 모델인 Qwen3-235B-A22B는 액티브 파라미터 수를 제한한 MoE 아키텍처로 성능을 유지하면서도 연산 비용을 절감한 점이 눈에 띈다. 알리바바는 이를 통해 누구나 접근 가능한 고성능 AI 생태계를 확장하고 있다고 강조한다. 


큐원3는 전작보다 두 배 늘어난 총 36조 개의 데이터를 기반으로 학습됐다. 이로 인해 119개 언어 및 방언을 지원하는 등 다국어 성능이 대폭 강화했으며, 감정 표현, 다중 턴 대화, 롤플레잉 등에 있어서도 자연스러운 인터랙션을 구현한다.

 

또한, 모델 컨텍스트 프로토콜(MCP)과 함수 호출 기능도 탑재해 에이전트 기반 자동화 기능에서도 경쟁력을 확보했다. 수학 추론(AIME25), 실시간 코딩, 도구 활용(BFCL) 등 주요 벤치마크에서 최고 수준의 성능을 기록한 점도 큐원3의 기술력을 입증한다. 알리바바는 큐원3의 학습을 위해 연쇄사고(CoT) 기반 초기학습, 강화학습(RL), 사고 모드 융합 등 4단계 학습 기법을 적용해 고성능을 구현했다고 설명했다. 


알리바바에 따르면 큐원 시리즈는 누적 다운로드 3억 회를 기록했으며, 허깅페이스 내 파생 모델만 10만 개 이상이다. Qwen3는 향후 알리바바의 AI 비서 서비스 ‘쿼크(Quark)’의 핵심 엔진으로도 활용될 예정이다. 알리바바 클라우드 측은 “큐원3는 접근성과 효율성, 기능성을 모두 고려한 개방형 AI 모델로, 글로벌 개발자와 기업들이 다양한 환경에서 AI 혁신을 구현하는 데 기여할 것”이라고 밝혔다.

 

헬로티 서재창 기자 |









배너









주요파트너/추천기업