공공 부문과 민간 산업 현장을 아우르는 구성으로 이뤄져 국제인공지능윤리협회(IAAE)가 오는 27일 서울 강남구 구글 스타트업 캠퍼스에서 ‘2025 ASC(AI Safety Compass) 컨퍼런스’를 개최한다. 이번 행사는 ‘변화하는 AI 환경에서의 기업 경쟁력 확보’를 주제로, 기술 혁신과 함께 AI 안전성과 윤리 문제를 중심에 둔 지속가능한 활용 전략을 논의하는 자리가 될 전망이다. AI 산업이 급속히 성장하는 가운데, 미국과 중국 등 주요국은 막대한 예산과 정책적 지원을 바탕으로 자국 중심의 AI 생태계를 강화하고 있다. 이에 맞서 국내 기업들도 AI 기술을 단순히 도입하는 것을 넘어, 안전하고 윤리적인 방식으로 운영해 글로벌 경쟁력을 높일 수 있는 기반 마련이 절실한 상황이다. 이번 컨퍼런스는 공공 부문과 민간 산업 현장을 아우르는 구성으로 이뤄진다. 공공 세션에서는 정부와 연구기관의 전문가들이 국가 차원의 AI 정책 방향과 차세대 기술 연구 동향을 제시한다. 과학기술정보통신부 공진호 인공지능기반정책과장은 국내 AI 정책 및 법제화 흐름을 공유하며, KISTI 이경하 초거대AI연구센터장은 AI 기술의 확장성과 안전성을 조화롭게 관리하는 연구 방향을
은밀한 유해표현, 설득력 등 다양한 지표를 통해 AI의 잠재 위험성 탐지 에임인텔리전스가 연세대학교, KIST, 서울대학교와 공동으로 개발한 AI 안전성 진단 체계 ‘ELITE(Enhanced Language-Image Toxicity Evaluation)’가 머신러닝 학술대회인 'ICML 2025'에 공식 논문으로 채택됐다. 이는 국내 연구진이 글로벌 AI 안전성 연구 흐름을 선도하는 신호탄으로 해석된다. ICML(International Conference on Machine Learning)은 인공지능 및 머신러닝 분야에서 가장 권위 있는 학회 중 하나로, 매년 전 세계 연구자들이 최신 기술을 발표하고 교류하는 자리다. 올해로 42회를 맞이한 이 학회에 국내 연구팀의 논문이 이름을 올린 것은, 한국 기술력의 실질적 성과가 국제적으로 공론화됐다는 점에서 의미가 깊다. ELITE는 이미지와 텍스트를 함께 입력받는 비전언어모델(VLM)의 응답을 ‘정밀 진단’하는 평가 체계다. 단순히 노골적인 표현만을 걸러내는 기존 방식에서 나아가, 겉보기에 문제가 없는 응답 속에서도 은밀한 유해 표현, 설득력, 구체성 등 다양한 지표를 통해 AI의 잠재 위험성을 탐지한다.
AI 보안의 중요성이 날로 커지는 가운데, 국내 AI 보안 기업 에임인텔리전스가 세계적인 AI 연구기업 앤트로픽(Anthropic)의 비공개 AI 모델을 정밀 진단하며 실력을 입증했다. 서울대학교 전기정보공학 석사 출신 유상윤 대표가 이끄는 에임인텔리전스는 레드팀 테스트를 통해 AI 모델의 취약점을 분석하고 글로벌 AI 보안 시장에서 경쟁력을 강화하고 있다. 앤트로픽은 최근 AI 보안 강화를 위해 새로운 버그 바운티(Bug Bounty) 프로그램을 도입했다. 에임인텔리전스는 해당 프로그램에 초청받아 AI 모델의 악용 가능성을 방지하는 최신 방어 시스템을 점검하고 사전에 보안 취약점을 찾아내는 데 집중했다. 특히, CBRN(화학, 생물학, 방사능, 핵)과 관련된 10개 금지 질문을 설정해 AI 모델이 얼마나 정확히 대응하는지 평가하는 과정을 수행했다. 전 세계에서 초청된 해커 중 약 20명만이 2개 이상의 문제를 우회하는 데 성공했으며 에임인텔리전스의 박하언 연구원이 이에 포함되며 탁월한 보안 분석 능력을 인정받았다. 에임인텔리전스는 AI 모델이 내장한 보안 기능을 우회할 수 있는 방법을 탐색하며 기존의 방어 체계를 뚫는 새로운 기법을 실험했다. 이러한 연구