[아이뉴스24 정유림 기자] 카카오는 스위스 제네바에서 열린 UN 산하 인권최고대표(OHCHR) 주최 제14차 UN 기업과 인권 포럼에서 인권 기반 인공지능(AI)과 기술의 공공 기여 사례를 발표했다고 26일 밝혔다.
![카카오 로고 [사진=카카오]](https://image.inews24.com/v1/55e88373842a3e.jpg)
지난 24일부터 3일간 열린 이번 포럼은 2011년 채택된 UN 기업과 인권 이행원칙(UNGPs)의 실천을 위해 매년 개최하는 회의다. 정부 관계자와 기업을 비롯해 지역공동체, UN 기구, 인권단체, 학계 등의 이해 관계자가 함께 참석한다.
카카오는 '인공지능 시대의 인권 증진' 세션에 참여했다. 이 자리에서 하진화 AI 세이프티 시니어 매니저는 "카카오는 AI 기술 개발, 운영 전 과정에 인권 보호 체계를 접목하고 있으며 한국어와 문화 맥락에 최적화된 AI 가드레일 모델을 오픈소스로 공개하는 등 공공 조달의 신뢰성을 위한 기반을 마련하고 있다"고 발표했다.
카카오는 AI 기술의 개발과 서비스 출시, 운영 등에 이르는 과정에 인권 관점을 내재화한 거버넌스를 운영하고 있다. 그룹의 안전한 AI를 위한 핵심 체크리스트는 국가인권위원회가 개발한 AI 인권영향평가 도구를 주요 참고문헌 중 하나로 지정해 제작했다.
그룹 AI 윤리 원칙인 '카카오 그룹의 책임 있는 AI를 위한 가이드라인'은 인권을 명시적 원칙으로 포함하며 다양한 항목을 다각도로 반영하고 있다. 디지털 아동·청소년 보호 체크리스트의 경우 유니세프(UNICEF)의 디지털 아동 영향평가를 참고해 개발했다고 덧붙였다. 카카오는 이러한 내부 기준을 OHCHR, AI 얼라이언스 등 기관과의 협력을 통해 국제적 기준과의 정합성을 꾸준히 맞춰가고 있다고 강조했다.
이밖에 안전한 AI 관련 기술을 개발하고 이를 오픈소스로 공개해 공적 기여를 확대하고 있다. 최근에는 한국정보통신기술협회(TTA), 카이스트(KAIST)와 함께 생성형 AI 안전성 평가 데이터셋(AssurAI)을 함께 개발했다. 총 1만1480건으로 구성된 데이터셋은 글로벌 AI 위험 분류체계를 기반으로 하며 한국의 사회·문화적 맥락을 반영한 것이 특징이다. AI 모델의 안전성 평가나 연구 개발을 위해 누구나 활용할 수 있도록 오픈소스 커뮤니티인 허깅 페이스를 통해 오픈소스로 공개됐다.
김경훈 카카오 AI 세이프티 리더는 "AI 기술 개발과 서비스 운영 측면에서 이용자 보호를 최우선 가치로 여기며 관련 정책을 고도화하고 있다"며 "기술의 투명성 확보와 공공 기여 확대를 통해 IT 기업으로서 인권 존중을 선도하고 지속 가능한 기술 생태계와 사람 중심의 AI를 위해 노력할 것"이라고 밝혔다.
--comment--
첫 번째 댓글을 작성해 보세요.
댓글 바로가기