딥러닝 기반 이미지 인식 기술이 빠르게 고도화되고 있지만, AI가 내부에서 어떤 기준으로 이미지를 보고 판단하는지는 여전히 명확히 설명하기 어려운 영역으로 남아 있다. 특히 대규모 모델이 ‘고양이 귀’, ‘자동차 바퀴’와 같은 개념을 어떤 방식으로 조합해 결론을 내리는지는 오랫동안 해결해야 할 주요 과제로 제기돼 왔다. KAIST는 김재철AI대학원 최재식 교수 연구팀이 인간이 이해할 수 있도록 AI의 판단 근거를 시각적으로 보여주는 설명가능성(XAI) 분야에서, 모델 내부의 개념 형성 과정을 회로(circuit) 단위로 시각화하는 새로운 XAI 기술을 개발했다고 26일 밝혔다. 이번 연구는 “AI가 어떻게 생각하는가?”라는 질문에 구조적 접근을 가능하게 한 중요한 진전으로 평가된다. 딥러닝 모델 내부에는 인간의 뇌처럼 뉴런(Neuron)이라는 기본 계산 단위가 존재한다. 뉴런은 귀 모양, 색상, 윤곽선처럼 이미지의 작은 특징을 감지해 다음 단계로 신호를 전달하는 기능을 한다. 반면 ‘회로(circuit)’는 여러 뉴런이 서로 연결돼 하나의 개념을 함께 인식하는 구조로, 예컨대 ‘고양이 귀’를 인식하기 위해 귀 윤곽·삼각형 형태·털 패턴 등을 감지하는 뉴런들이
행정안전부는 인공지능(AI) 기술을 통한 행정혁신을 촉진하면서도 국민 신뢰를 확보하기 위해 ‘공공부문 인공지능 윤리원칙’을 마련했다고 밝혔다. 최근 AI 기술이 급속히 발전하며 행정, 산업, 사회 전반으로 확산되는 가운데, 알고리즘 편향과 개인정보 침해 등 부작용이 우려되고 있다. 이에 각국 정부는 공공영역에서 AI를 안전하고 책임 있게 활용하기 위한 윤리체계 마련에 나서고 있다. 우리나라도 과학기술정보통신부, 교육부 등 부처별로 윤리지침을 운영 중이다. 행정안전부는 공공영역의 인공지능 활용이 국민 생활과 직결되는 만큼, 민간과는 차별화된 윤리원칙이 필요하다고 판단해 전문가 워킹그룹과 자문회의를 통해 초안을 마련했다. 이번에 제시된 공공부문 인공지능 윤리원칙은 ‘행정혁신 촉진과 국민 신뢰 구축’을 목표로 ▲공공성 ▲투명성 ▲안전성 ▲형평성 ▲책임성 ▲프라이버시 보호 등 6대 원칙으로 구성됐다. 또한 원칙별로 90여 개의 세부 점검항목을 마련해 공공기관 종사자가 직접 윤리 이행 여부를 점검할 수 있도록 했다. 이번 윤리원칙의 주요 특징은 두 가지다. 첫째, 모든 사회 구성원이 아닌 중앙행정기관, 지방자치단체, 공공기관 및 지방공사·공단 등 ‘공공부문 종사자’를
SK텔레콤이 자사 AI 서비스의 신뢰성과 안전성을 체계적으로 관리하기 위한 ‘AI 거버넌스 포털’을 공식 오픈했다. 이번 포털은 SKT가 자체 수립한 AI 거버넌스 원칙 ‘T.H.E. AI’를 기준으로 AI 서비스의 위험과 기회 요인을 분석하고, 위험 수준별 체크리스트 준수 여부를 진단하는 기능을 갖췄다. ‘T.H.E. AI’는 ▲by Telco(통신기술 기반의 연결과 신뢰) ▲for Humanity(인류 복지 증진과 다양성·포용) ▲with Ethics(결정 투명성과 윤리적 책임성 강조)를 의미한다. AI 거버넌스 포털은 사업팀의 자가진단과 거버넌스팀·Red Team의 검토·심의로 이원화된 프로세스를 통해 운영된다. 사업팀은 ‘T.H.E. AI’ 원칙을 기준으로 ▲신뢰성 ▲다양성과 포용 ▲결정 투명성 ▲윤리적 책임성 등 4개 영역, 60여 개 체크리스트로 자가진단을 진행한다. 이후 Red Team과 AI 거버넌스팀이 2차 진단을 수행해 기술적 결함, 저작권, 편향성 등 잠재적 위험 요인에 대한 심층 피드백과 개선 조치를 제시한다. 특히 Red Team은 사업팀 결과를 바탕으로 서비스 취약점을 분석하고 개선책을 요구하는 등 엄격한 평가를 수행한다. 이러한 진
AI 기본법 중심으로 국내외 법제화 동향과 윤리적 논점, 산업 적용 방안 등 논의해 구글코리아 디지털책임위원회 산하 '책임감있는AI포럼'이 올해 상반기 두 차례에 걸쳐 개최된 포럼을 통해 인공지능 기본법의 핵심 쟁점과 규제 방향에 대해 심층 논의를 진행했다. 포럼은 AI의 사회적 영향력과 산업 성장 동력 사이에서 책임 있는 기술 활용과 규범 정립을 위한 실질적인 해법을 모색하는 자리가 됐다. 올해는 법률, 정책, 기술, 스타트업 등 다양한 분야에서 활동하는 전문가 14인이 정기적으로 참여해 AI 기본법을 중심으로 국내외 법제화 동향과 윤리적 논점, 산업 적용 방안 등을 다각도로 조망하고 있다. 3월 열린 제1차 포럼에서는 ‘고영향 AI’의 정의와 법적 기준이 핵심 이슈로 부각됐다. AI 기본법은 인간의 생명, 안전, 기본권에 중대한 영향을 미칠 수 있는 11개 분야의 AI 시스템을 고영향 AI로 규정하고 있지만, 여전히 구체적인 범위나 기준이 모호하다는 지적이 이어지고 있다. 발제자로 나선 이성엽 고려대학교 교수는 국내외 AI 규제 현황과 고영향 AI 기준을 비교 분석하고, 규제의 명확성과 산업의 혁신성을 동시에 고려한 균형 있는 입법 필요성을 강조했다. 전