[아이뉴스24 박진영 기자] "인공지능(AI)와 같은 신기술이 우리 사회에 정착하기 위해서는 정부 차원에서 노력이 필요하다. 주요국 정부는 AI 개발 및 사용 과정에서 신뢰성을 확보하기 위한 지침을 개발하고 공개해야 한다."
AI 관련 문제 해결을 위해 정부 차원에서 법적 규제에 나서야 한다는 주장이 제기됐다. 미국, 유럽 등 주요국에서는 AI 입법 정책을 추진하는 등 앞서 나가고 있다. 국내 역시 개별 분야 지원·규제를 위한 특례법이 국회를 통과했다.
주요국에선 처음으로 유럽연합(EU)이 지난달 21일(현지시간) 포괄적·구속력 있는 규제안을 공개했다. 인간 생명과 생활에 위협을 미칠 수 있는 모든 AI를 포괄적으로 금지한다는 것이 핵심이다. 또 인간 기본권에 영향을 미칠 수 잇는 AI 서비스 출시 전에 사전 평가 등 의무 사항을 지키도록 규정했다.
규제안은 AI 위험수준을 ▲용인할 수 없는 위험(unacceptable risk) ▲고위험(high-risk) ▲제한된 위험(limited risk) ▲최소한의 위험(minimal risk) 등 4단계로 분류하고, 각 단계에 맞는 세부적 규제를 마련했다.
인간의 자유의지를 방해하는 '용인할 수 없는 위험'은 AI시스템 사용을 전면 금지하고, '고위험' 단계 부터는 이용자들이 AI 시스템의 위험성을 충분히 할 수 있도록 알리는 것을 권고한다.
특히, 이번 규제안은 비교적 강화된 처벌 기준이 마련됐다는 의미가 있다. 기업은 고위험 AI에 대한 수칙 위반 정도에 따라 글로벌 연 매출 최대 6%를 벌금으로 부과받을 수 있고, 주의 의무 위반 시 4%, 유해 정보 제공 시 2%로 규정했다. 이는 연 매출 4% 벌금을 부과하는 EU 일반개인정보보호법(GDPR) 보다 2%p 강화된 규제다.
이 가운데 국내에서는 자율주행자동차, 드론, 로봇, 스마트도시 등 개별 분야 지원 근거·규제 특례 법률안이 통과됐다. 다만, AI 기술에 새로운 권리나 의무를 부여하는 법률안은 폐기됐다. 자율주행차에 의한 사고 발생 시 책임 명확화·보험 의무화, AI 창작물에 저작권 부여 등은 아직 사회적 합의가 필요한 부분이다.
또 지난해 말부터 정부 주도로 AI 윤리 기준안을 준비 중이다. 자율적 알고리즘 관리·감독, 고위험 분야 AI 기술기준 등을 마련할 방침이다. 특히, 학계·법조계·연구기관 등 각 분야 전문가들 의견을 토대로 만든 'AI 알고리즘 가이드라인'은 올해 6월 최종안이 발표될 예정이다.
법무법인 지평 신용우 변호사는 "주요국들은 입법 측면에서 인공지능 기술 사용에 대한 당사자 고지, 절차적 투명성, 거버넌스 등이 추진하고 있다"고 말했다.
이어 "다만, 알고리즘 편향성, 공정성 확보를 위한 내용적 규제는 강제성이 없는 지침, 윤리적 규범 위주로 진행되고 있다"면서, "고위험 분야에서는 사전 인증 제도 도입으로 기술적·제도적 장벽을 만드려는 시도를 하고 있다"고 덧붙였다.
--comment--
첫 번째 댓글을 작성해 보세요.
댓글 바로가기