생성형 AI 스타트업 포티투마루(42Maru)가 10일 서울 서초구 포티투마루 본사에서 국제인공지능윤리협회(IAAE)와 함께 임직원을 대상으로 ‘생성형 AI 윤리 교육’을 진행했다고 밝혔다. 이번 교육은 방송미디어통신위원회와 한국지능정보사회진흥원(NIA)이 주관하는 '미래 사회의 경쟁력, 인공지능 윤리 교육'의 일환으로 진행됐다. 생성형 AI 기술을 핵심으로 하는 기업인 포티투마루는 2023년 NIA와 IAAE가 주관한 교육을 시행한 데 이어 2년 만에 내부 직원들을 대상으로 한 AI 윤리 교육을 다시 진행하며, 기술 발전 속도에 맞춰 윤리적·사회적 책무도 함께 다하겠다는 의지를 다졌다. 교육은 '생성형 AI의 업무 활용 실습 및 윤리적 활용법'을 주제로, 생성형 AI에 대한 기술적 접근과 인공지능 윤리의 개념에 대한 이해를 높이는 것부터 시작한다. 특히, 챗지피티(ChatGPT), 클라우드(Claude) 등 생성형 AI의 직장인 업무 활용법과 생성형 AI 윤리 주요 내용 및 이슈(편향성, 환각 현상, 저작권 등)와 윤리 가이드라인을 다루어 실무 역량과 윤리적 분별력을 동시에 강화한다. 포티투마루는 2023년 교육 당시, AI 윤리의 5대 문제(편향성, 오류
‘딥페이크, 사후 프라이버시…’ 늘어나는 쟁점, AI 윤리가 기술 개발 기준점 돼야 법무법인 원의 이유정 변호사가 생성형 AI 관련 기업들이 더 자유롭고 편안하게 기술을 개발할 수 있도록 하기 위해선 정부가 신속히 최소한의 가이드라인을 만들어야 한다고 촉구했다. 이유정 변호사는 The AI Forum 2023(TAF 2023)에서 생성형 AI 시대에 고민해봐야 할 여러 문제들에 대한 생각을 나누며 이같이 말했다. 이유정 변호사는 “인공지능 기술의 진보는 매우 빠른 속도로 이뤄지고 있지만, 그에 비해 인공지능 윤리와 법과 규제에 대한 논의는 매우 천천히 뒤따라가고 있다”며, “우리나라도 오래전부터 인공지능 기본법을 발의한다는 얘기가 나왔지만 아직 통과되지 않고 있다”고 지적했다. 저작권, 딥페이크, 사후 프라이버시 등 다양한 인공지능 관련 쟁점에 대해 이 변호사는 “인공지능은 기존 법 체계로 해결할 수 없는 문제들이 많다”며, “현재 우리의 법 체계는 인간 중심의, 국가를 단위로 한 법 체계이기 때문에 근본적으로 다양한 한계를 안고 있다”고 설명했다. 또한 “인공지능 기술을 사전적으로 규제하려면 예측이 가능해야 하는데 인공지능 기술이 예측할 수 없을 만큼 빠르
Human x AI Forum 7일 한국프레스센터서 개최…’AI 윤리 표준화와 검인증 체계 구축 및 전망’ ChatGPT의 등장 이후 생성형 AI 시장은 폭발적으로 성장하고 있다. AI는 인간의 생활 속으로 빠르게 침투해 들어오면서 다양한 방면에서 편리함을 가져다주는 한편, 차별이나 혐오의 표현이 포함된 문장로부터 데이터를 획득, 문장을 생성하는 등 한계 역시 드러나고 있다. 어떻게 인공지능을 윤리적으로 만들 것인지에 대한 이슈가 부각되면서 많은 연구자, 산업 종사자들은 AI 윤리 표준화, 검인증, 영향평가 등에 대한 구체적인 실천 방안을 모색하고 있다. 오늘 7일 ‘AI 윤리 표준화와 검인증 체계 구축 및 전망‘을 주제로 제 2회 Human x AI Forum(이하 포럼)’이 한국프레스센터에서 열렸다. 포럼에는 국민의힘 송석준 의원, 국제인공지능&윤리협회(IAAE) 전창배 이사장, 코어소프트 소순주 대표, 씽크포비엘 박지환 대표, 정보통신정책연구원(KISDI) 지능정보사회정책센터 문정욱 센터장 등이 참석했다. IAAE 전창배 이사장은 개회사에서 “올해는 ChatGPT와 생성형 AI 열풍으로 AI 윤리의 당위성과 실천이 더 중요해졌다”며, “전 세계적
[헬로티] ▲최근 인공지능 챗봇 ‘이루다’를 둘러싼 논란으로 윤리적 인공지능 개발·활용에 대한 관심이 높아졌다. 과학기술정보통신부(이하 과기정통부)와 정보통신정책연구원이 오는 2일 서울 더케이호텔에서 ‘사람 중심의 인공지능를 위한 인공지능 윤리 정책세미나’를 개최한다. 이번 정책세미나는 최근 인공지능 챗봇 ‘이루다’를 둘러싼 논란으로 윤리적 인공지능 개발·활용에 대한 관심이 높아지는 상황에서, 우리사회 인공지능 윤리 정립을 위한 실천방안을 모색하고 각계의 다양한 의견을 폭넓게 수렴하기 위해 마련됐다. 특히 과기정통부는 인공지능 윤리에 대한 폭넓은 사회적 숙의·토론과 함께 인공지능 윤리 이슈가 성장 단계에 있는 인공지능 기술·산업 발전을 저해하지 않도록 현장의 의견에 기반한 균형적 정책 방향을 모색하는 데 본 세미나의 의의가 있다고 설명했다. 이번에 개최되는 인공지능 윤리 정책세미나는 인공지능 윤리 실천을 위한 주제별 발표세션과 학계·기업·시민단체를 대표하는 전문가들의 토론 세션으로 구성된다. 먼저 발표세션에서는 문정욱 정
[헬로티] 과학, 법학 등 각 분야 전문가 자문에 참여 ▲인공지능 윤리기준 3대 기본원칙은 인간의 존엄성 원칙, 사회의 공공선 원칙, 기술의 합목적성 원칙이다. (출처 : 게티이미지뱅크) 정부가 인공지능 개발 및 활용에 대한 윤리기준을 발표했다. 과학기술정보통신부(이하 과기정통부)와 정보통신정책연구원은 23일 대통령 직속 4차산업혁명위원회 전체회의에서 인공지능 시대에 바람직한 인공지능 개발·활용 방향을 제시하기 위한 ‘인공지능(AI) 윤리기준’을 마련했다. 이번 기준은 그간 인공지능·윤리학·법학 등 학계·기업·시민단체를 아우르는 각 분야의 전문가들이 자문과 의견수렴 과정에 참여했고 지난 7일 공개 공청회 등을 통해 시민 의견수렴을 거쳤다. 과기정통부는 올해 4월부터 인공지능·윤리 전문가로 구성된 인공지능 윤리연구반을 통해 국내외 주요 인공지능 윤리원칙을 분석하고, 그 결과를 윤리철학의 이론적 논의와 연계해 ‘인간성을 위한 인공지능(AI for Humanity)’을 목표로 하는 윤리기준 초안을 마련했으며, 3개월에 걸쳐 학계·기업&
[첨단 헬로티] 인공지능(AI)에 대한 윤리적 대응체계를 만들기 위해 민관학협력 모델을 시급히 구축하고, AI윤리에 대한 총론적 규범논의 수준에서 벗어나 산업별·서비스별 윤리 이슈에 대한 구체적이고 탄력적인 정책적 대응이 필요하다는 지적이 제기됐다. 이 같은 의견은 ‘인공지능의 윤리적 개발 동향과 입법 대응 과제’라는 주제로 개최된 정책세미나 참가자들에 의해 발언됐다. 이번 세미나는 한국인공지능법학회와 KAIST 인공지능연구소, 바른 미래당 신용현 의원(국회 4차산업혁명특별위원회 전 인공지능소위원장) 주최로 7일, 국회의원회관 제2소회의실에서 개최됐다. 이 자리에서 국내외 AI 전문가들은 AI 기술 개발 뿐만 아니라 윤리적 대응 체계를 갖추는 일이 시급하다고 입을 모았다. 특히 이번 세미나는 AI를 디자인하는 공학전문가와 AI의 정책 및 법률 이슈를 다루는 법학 연구자들이 모여 AI의 윤리적 이용을 위한 정책방안을 논의하는 크로스오버 세미나로 진행돼 눈길을 끌었다. 안토니 쿡(Antony Cook) 마이크로소프트 아시아지역 법무정책 총괄매니저는 기조 발표를 통해 “정부는 AI 활용이 미래 경쟁력의 핵심 동력임을 인