셀렉트스타가 자체 개발한 AI 안전성 검증 기술로 세계 최상위 AI 학회에서 연구 성과를 인정받았다. 인공지능 데이터·신뢰성 평가 전문기업 셀렉트스타는 AI Safety팀의 연구 논문 ‘CAGE: A Framework for Culturally Adaptive Red-Teaming Benchmark Generation’이 오는 4월 브라질에서 열리는 ICLR 2026 메인 컨퍼런스에 채택됐다고 밝혔다.
ICLR은 AI 및 머신러닝 분야에서 영향력 있는 국제 학회로 꼽힌다. 올해는 약 1만 9천 건의 논문 중 상위 약 28%만이 채택됐으며 셀렉트스타 논문은 메인 트랙에 선정됐다. 이번 연구는 기획 구현 검증 논문 게재 전 과정을 외부 교수진이나 연구기관 도움 없이 내부 인력만으로 수행했다는 점에서 의미를 더했다.
논문의 핵심은 국가별 문화와 법적 맥락을 반영해 AI 안전성을 검증하는 레드티밍 데이터를 자동 생성하는 프레임워크다. AI가 위험한 질문에 직면했을 때 안전하게 대응하는지 점검하는 시험문제를 언어와 문화권별로 생성한다. 기존 검증 방식이 영미권 데이터셋을 단순 번역해 활용한 것과 달리 현지 맥락을 반영한 공격 질문을 생성한다는 점이 차별점이다.
연구팀은 ‘시맨틱 몰드’ 개념을 제안해 국가 문화 특성을 반영한 현지화 공격 질문을 도출했다. CAGE로 생성된 시나리오는 사람이 직접 작성한 수준의 자연스러움을 보였으며 AI 모델의 방어율을 넘어 잠재 위험을 탐지하는 공격 성공률 측면에서도 성과를 보였다. 캄보디아어 등 데이터가 부족한 언어권에서도 성능을 확인했다.
논문에는 한국 상황에 적용한 한국형 안전성 벤치마크 ‘KoRSET’도 함께 공개됐다. KoRSET은 단순 번역 기반 데이터셋 대비 AI 모델 취약점 탐지 성능을 높이며 한국 문화 기반 안정성 검증에 최적화된 결과를 제시했다. CAGE 기술은 현재 셀렉트스타가 협업 중인 대기업 AI 프로젝트에 적용돼 모델 취약점 점검과 운영 효율 개선에 활용되고 있다.
김민우 셀렉트스타 AI Safety 팀장은 “이번 ICLR 채택은 셀렉트스타가 단순 데이터 구축 기업을 넘어 독보적인 원천 기술을 보유한 AI 기술 기업임을 입증한 사례”라며 “CAGE 기술은 이미 대기업의 AI 프로젝트에 적용되어 모델의 취약점 점검과 운영 효율 개선에 활용되고 있다”고 말했다.
임용택 셀렉트스타 연구원은 “AI의 성능 경쟁을 넘어 이제는 ‘안전성’이 핵심 경쟁력인 시대”라며 “현장에서 바로 활용 가능한 품질의 안전 평가 기술로 글로벌 기준을 만드는 데 기여할 것”이라고 전했다.
헬로티 구서경 기자 |
















































