IT·과학 산업 경제
정치 사회 문화·생활
전국 글로벌 연예·스포츠
오피니언 포토·영상 기획&시리즈
스페셜&이벤트 포럼 리포트 아이뉴스TV

[IT돋보기] "AI도 차별한다"…'기업 AI 윤리' 실상은?

본문 글자 크기 설정
글자크기 설정 시 다른 기사의 본문도 동일하게 적용됩니다.

"AI윤리 작동은 테크기업의 중요한 책무"…국내외 기업 AI윤리 원칙 수립

쏟아지는 정보통신기술(ICT) 현안을 잠시 멈춰 서서 좀 더 깊숙히 들여다봅니다. 'IT돋보기'를 통해 멈춘 걸음만큼 보다 심층적으로 분석하되, 알기 쉽게 풀어쓰겠습니다. [편집자주]
인공지능
인공지능

[아이뉴스24 박진영 기자] 전세계적으로 인공지능(AI)의 차별과 편향성 문제가 불거지고 있다.

이에 따라 각 국 정부와 기업은 'AI 윤리 기준' 도입에 골몰하고 있다. 다만, 업계에서는 산업이 초기 발전 단계인만큼 기업들의 자율규제가 우선돼야 한다는 주장이다. 또한 국내에서는 AI 챗봇인 '이루다 AI' 사태를 계기로 관련 논의가 급물살을 타고 있다.

우리 정부는 최근 '신뢰할 수 있는 AI 실현전략'을 마련하고, 2025년까지 '누구나 신뢰할 수 있는, 모두가 누릴 수 있는 인공지능'을 구현하겠다는 목표를 세웠다. 정부의 AI전략은 '민간 자율성'에 초점을 두고 있으며, 재정·기술력이 부족한 스타트업, 중소 벤처기업 등에 대한 지원책을 담았다.

민간 자율규제의 필요성이 높아지면서 IBM, MS, 구글 등 해외 주요기업들은 자체 AI개발원칙을 마련했다. 국내에서도 네이버, 카카오, 삼성전자, SK텔레콤 등 주요 대기업들이 AI윤리 준칙을 도입했으며, 다수의 국내 기업들이 현재 가이드라인을 준비 중이다.

그렇다면, 해외 각국의 기업들은 'AI 윤리' 문제를 어떻게 해소하고 있을까.

◆ 구글·MS 등 AI윤리 기업 의무로 인식…AI 얼굴인식 우려에 사업 중단 늘어

구글은 최근 AI윤리 담당 연구진을 2배 규모로 늘리겠다는 방침을 발표했다. 현재 구글에서 AI 윤리적 책임을 연구하는 인원은 200명인데, 두배가 되면 AI 윤리연구원은 총 400명이다. AI윤리가 제대로 작동하지 않으면, 기술을 개발한 회사에도 사업적으로 문제가 된다고 회사 측은 설명했다.

또 AI 기술 고도화로 인류에게 미칠 각종 악영향을 사전에 차단하기 위한 프로그램 검증팀에 대한 예산 지원도 대폭 늘린다. 앞서 구글은 스마트폰 사용자 손가락을 통해 심장박동 이상을 감지하는 AI 기술을 개발하는 과정에서 흑인 사용자에 대해서만 유독 오류가 자주 발생한다는 점을 발견했고, 이를 곧바로 수정했다.

MS는 AI기술 설계·개발에서 기술 단계까지 전 과정에서 감시·비판할 수 있는 사내 자문 조직인 '에터 위원회(aether committee)'를 운영 중이다. 지난 2016년 AI 챗봇 '테이'가 성·인종차별·대량학살 옹호 발언 등의 문제로 출시 하루만에 서비스를 중단한 것을 계기로 AI의 부정적 영향을 중대하게 고려하고 있다.

회사는 인류를 중심으로 한 AI개발을 위해 '책임 있는 AI 원칙'을 발표했다. 원칙에는 ▲공정성 ▲신뢰·안전 ▲프라이버시·보안 ▲포용성 ▲투명성 ▲책임성 등 6개 기준이 담겨있다.

AI 기술 중 차별·편향성이 실질적 피해로 이어질 우려가 높은 사업은 중단하거나 제한하는 경우도 있다.

IBM·MS·아마존은 '얼굴인식 기술'에 대한 각종 우려로 사업 철수나 제한적 판매 방침을 세웠다. 얼굴인식 기술은 AI를 이용해 얼굴 생김새로 사람의 신원을 파악할 수 있는 기술이다.

IBM은 이 기술이 인종·편견에 따른 구조적 차별 문제가 생길 수 있어 관련 사업에서 철수했다. 흑인, 아시아인, 여성 등 백인 남성이 아닌 경우 신원을 잘목 파악할 가능성이 크다는 것이다.

MS도 얼굴인식 기술을 규제하는 법이 마련될 때까지 경찰 등 법 집행기관에는 기술을 판매하지 않겠다는 방침이다. 시민사회를 감시하는 도구로 악용될 수 있다는 우려가 높기 때문이다.

아마존도 지난해 5월, 미국 경찰을 상대로 자사의 얼굴인식 서비스를 1년간 사용하지 못하도록 했는데 최근 이를 무기한 유예했다. 유색 인종에 대한 부당체포 위험이 높다는 비판이 거세지자 이같은 결정을 내린 것. 이번 유예 결정은 아직 기술과 관련된 윤리적 규칙이 정립되지 않았기 때문인 것으로 보인다.

카카오 AI 알고리즘 윤리 교육 자료 [사진=카카오]
카카오 AI 알고리즘 윤리 교육 자료 [사진=카카오]

◆ 네이버·카카오 등 대기업 중심으로 AI윤리 준칙 세워

해외뿐만 아니라 국내서도 AI 윤리에 대한 문제의식이 깊어지고 있다. 이에 따른 대응책을 속속 내놓고 있는 상태다.

지난 1월, 이루다 사태가 논란이 된 지 1달 만에 네이버는 "AI개발·이용 과정에서 인간 중심의 가치를 최우선"으로 두는 '네이버 AI 윤리 준칙'을 발표했다. 이는 서울대학교 AI 정책 이니셔티브(SAPI)와 공동으로 만들었다.

윤리 준칙에는 개인정보 보호 관련 법적 책임을 넘어 실질적으로 프라이버시를 보호하고 정보 보안을 강화하는 내용이 담겼다. 구체적으로 ▲인간 중심의 AI개발 ▲다양성 존중 ▲이용자에 AI서비스에 대한 합리적 설명 ▲안전을 고려한 서비스 설계 ▲프라이버시 보호·정보보안 등 5가지 조항이 있다.

네이버는 윤리 준칙 설계 과정에서 개발 리더들과 초안을 작성하고, AI 업무 연관성이 있는 현업 직원들과 간담회를 여는 등 다양하게 사내 피드백을 담았다. 또한 윤리 준칙의 실효성을 높이기 위해 사내 커뮤니케이션 채널을 만들어 관련 논의를 활발히 진행할 수 있도록 할 계획이다.

카카오는 지난 2월 전 직원을 대상으로 AI윤리 교육을 펼쳤다. 카카오 직원들이 각자 업무에서 AI윤리를 어떻게 준수해야 할 지, 디지털 책임을 어떻게 구현할 지 등의 내용으로 진행됐다.

앞서, 지난 2018년 1월, 국내 기업 최초로 AI 기술 개발 및 윤리에 관한 규범을 담은 '카카오 알고리즘 윤리 헌장'을 발표했다. 최근에는 '증오(혐오) 발언 근절 원칙'을 추가했다. 이를 통해 출신, 인종, 장애 및 질병 유무, 성별, 성 정체성, 성적 지향 등을 향한 차별·혐오를 자사 서비스에서 배제하겠다고 선언한 것이다.

네이버, 카카오의 AI 윤리 정책은 중소 IT 기업이나 스타트업에서도 참고하게 될 것으로 보인다.

업계 한 관계자는 "이루다 사태를 계기로 윤리 규범에 어긋난 서비스가 사회에서 받아들여 질 수 없다는 사실을 깨닫고 현업에서도 AI윤리 규정의 필요성이 높아졌다"면서, "AI산업은 발전 초기단계인 만큼 각 기업에서 윤리 가이드라인을 만들어 자율적으로 지키도록 하는 게 중요하다"고 밝혔다.

이어 "현재 다수의 기업들이 EU 등 AI규제 방안과 국내외 기업의 AI윤리 준칙을 참고해 자체 가이드라인을 만들고 있다"고 덧붙였다.

/박진영 기자(sunlight@inews24.com)



공유하기

주소가 복사되었습니다.
원하는 곳에 붙여넣기 해주세요.

alert

댓글 쓰기 제목 [IT돋보기] "AI도 차별한다"…'기업 AI 윤리' 실상은?

댓글-

첫 번째 댓글을 작성해 보세요.

로딩중
댓글 바로가기