구글 제미나이(Gemini)를 비롯한 주요 상용 거대언어모델(LLM)이 효율성 향상을 위해 채택하고 있는 ‘전문가 혼합(Mixture-of-Experts, MoE)’ 구조가 새로운 보안 위협이 될 수 있다는 사실이 국내 연구진에 의해 세계 최초로 규명됐다. KAIST는 전기및전자공학부 신승원 교수와 전산학부 손수엘 교수 공동연구팀이 전문가 혼합 구조의 근본적인 보안 취약성을 악용한 공격 기법을 처음으로 제시하고, 해당 연구로 정보보안 분야 최고 권위 국제 학회인 ACSAC 2025에서 최우수논문상(Distinguished Paper Award)을 수상했다고 26일 밝혔다. MoE 구조는 하나의 대형 AI 모델 대신 여러 개의 ‘작은 전문가 AI 모델’을 두고, 입력 상황에 따라 일부 전문가만 선택적으로 호출하는 방식이다. 구글의 제미나이를 포함해 다수의 최신 LLM이 이 구조를 활용하고 있다. 연구팀은 이번 연구에서 공격자가 상용 LLM의 내부 구조에 직접 접근하지 않더라도, 단 하나의 악의적으로 조작된 ‘전문가 모델’이 오픈소스로 유통돼 혼합 구조에 포함될 경우, 전체 거대언어모델의 안전성이 심각하게 훼손될 수 있음을 실증적으로 입증했다. 정상적인 전문가들
산업을 움직이는 단어 하나, 그 안에 숨은 거대한 흐름을 짚습니다. ‘키워드픽’은 산업 현장에서 주목받는 핵심 용어를 중심으로, 그 정의와 배경, 기술 흐름, 기업 전략, 시장에 미치는 영향을 차분히 짚어봅니다. 빠르게 변하는 산업 기술의 흐름 속에서, 키워드 하나에 집중해 그 안에 담긴 구조와 방향을 살펴보고자 합니다. AI 기술이 발전하면서 언어 모델의 크기는 기하급수적으로 커지고 있다. 파라미터 수조 개에 달하는 초거대 모델은 정밀한 문장 생성 능력을 보이는 반면, 그만큼 막대한 컴퓨팅 자원과 에너지를 소모한다. 이 문제를 해결하기 위한 대안으로 최근 업계의 이목을 끌고 있는 기술이 있다. 바로 ‘MoE(Mixture of Experts)’ 아키텍처다. 선택적으로 작동하는 전문가 집단의 협업 구조, MoE는 AI 기술의 효율성과 확장성을 동시에 확보할 수 있는 새로운 방향성을 제시하고 있다. MoE는 이름 그대로 여러 명의 ‘전문가(Experts)’가 혼합된 구조다. 모델 전체가 항상 동시에 작동하는 기존 방식과 달리, MoE는 입력 데이터의 특성에 따라 몇몇 전문가만 선택적으로 활성화된다. 이때 어떤 전문가를 사용할지는 ‘게이팅 네트워크(Gating