중국 알리바바 클라우드가 개발한 범용 인공지능 모델 궈원3(Qwen-3)가 궤도상에서 운용되는 세계 최초 수준의 AI 모델 가운데 하나로 올라섰다. 홍콩 영자지 사우스차이나모닝포스트(South China Morning Post)는 알리바바 클라우드가 개발한 궈원3가 궤도상에서 업로드 및 운용에 성공하며, 중국의 우주 기반 컴퓨팅 분야 선도 전략에서 이정표를 세웠다고 보도했다. 보도에 따르면 중국 항공우주 스타트업 아다스페이스 테크놀로지(Adaspace Technology)는 궤도상의 우주 컴퓨팅 센터에 궈원3를 성공적으로 배치하고, 지난해 11월 여러 차례 추론(inference) 작업을 수행했다. 또한 쿼리 업로드부터 궤도상의 추론 실행, 그리고 지구로의 결과 전송까지 궈원3의 전체 처리 과정은 2분이 채 걸리지 않은 것으로 전해졌다. 이 움직임은 같은 달 미국에서도 우주 기반 AI 시연이 이뤄진 가운데 나와, 지구 밖 컴퓨팅을 둘러싼 글로벌 경쟁 구도를 부각시켰다. 미국 워싱턴에 기반을 둔 스타클라우드(Starcloud)는 최근 미국 경제방송 CNBC 보도를 통해, 구글(Google)의 제미나이(Gemini) 모델을 기반으로 한 공개 대형 언어 모델 젬마
알리바바그룹(Alibaba Group)이 최신 추론 모델 ‘Qwen3-Max-Thinking’을 공개했다. 알리바바는 해당 모델이 강화학습(Reinforcement Learning)을 위해 1조 개 이상의 파라미터로 모델 규모를 대폭 확장했으며, 이를 통해 사실적 지식 처리, 복합 추론, 지시 수행, 인간 선호도 정렬, 에이전트 기능 등 여러 핵심 영역에서 성능 향상을 달성했다고 밝혔다. 알리바바에 따르면 Qwen3-Max-Thinking은 총 19개 주요 벤치마크 평가에서 Claude Opus 4.5, Gemini 3 Pro, GPT-5.2-Thinking-xhigh 등 최신 고성능 모델들과 비교해 경쟁력 있는 선도적 성능을 입증했다. 과학·수학·코딩 문제 해결은 물론, 검색 도구를 활용해 다양한 분야의 전문가급 질문을 해결하는 평가 항목에서도 높은 수준의 결과를 보였다. Qwen3-Max-Thinking의 차별화된 성능은 두 가지 핵심 기술 혁신에서 비롯된다. 첫째는 적응형 도구 활용(Adaptive Tool-use) 기능으로, 모델이 상황에 따라 정보를 검색하고 내장된 코드 인터프리터를 필요 시 자동으로 호출해 활용함으로써, 사용자가 도구를 직접 선택하
자체 개발한 하이브리드 추론 기능으로 처리 효율 극대화해 알리바바 클라우드가 오픈소스 대규모 언어모델(LLM) 신제품군 ‘큐원3(Qwen3)’를 공개하며 생성형 AI 경쟁에서 다시 한 번 존재감을 드러냈다. 이번 시리즈는 모바일부터 자율주행까지 다양한 AI 활용 환경을 겨냥해 설계됐으며, 사고 기반 하이브리드 추론 등 새로운 구조로 성능과 효율성 모두를 잡았다는 평가다. 큐원3는 총 6종의 밀집 모델(0.6B, 1.7B, 4B, 8B, 14B, 32B)과 2종의 전문가 혼합(MoE) 모델(30B 중 3B 활성, 235B 중 22B 활성)로 구성된다. 모든 모델은 깃허브, 허깅페이스, 모델스코프를 통해 누구나 자유롭게 활용 가능하며, 곧 API 형태로도 서비스될 예정이다. 큐원3의 가장 큰 특징은 알리바바가 자체 개발한 하이브리드 추론 기능이다. 복잡한 논리 추론이나 수학, 코딩과 같은 다단계 작업에는 사고 기반 추론 모드를, 빠른 응답이 필요한 일반 대화에는 비사고 기반 추론 모드를 자동 전환해 처리 효율을 극대화한다. 개발자는 API 상에서 최대 3만8000개의 토큰까지 사고 지속 길이를 조절할 수 있어, 성능과 리소스의 균형을 자유롭게 맞출 수 있다. 큐