IT·과학 산업 경제
정치 사회 문화·생활
전국 글로벌 연예·스포츠
오피니언 포토·영상 기획&시리즈
스페셜&이벤트 포럼 리포트 아이뉴스TV

빅테크‧감독기관 서울에 모은 개인정보위…'AI 규제' 물꼬 틀까

본문 글자 크기 설정
글자크기 설정 시 다른 기사의 본문도 동일하게 적용됩니다.

AI 신뢰성 확보는 정보주체 권리 강화와 맞물려
국내외 개인정보 보호 당국 "리스크 기반 차등 규제 도입 필요"

[아이뉴스24 김혜경 기자] 지난 23일 국내외 개인정보 감독기관과 빅테크 기업, 국제기구가 한자리에 모였다. 인공지능(AI) 규제 방향을 논의하기 위해서다. 이들은 신뢰할 수 있는 AI 알고리즘과 정보주체 권리를 강조했다.

설계 단계부터 프라이버시 원칙을 적용해 투명성을 강화해야 한다는 것. 챗GPT 열풍으로 AI 규제 필요성이 커지고 있는 가운데 초국가적 논의가 본격화될지 관심이 쏠린다.

지난 23일 서울 플라자호텔에서 열린 'AI‧데이터 프라이버시' 국제 컨퍼런스에서 패널들이 AI 규제에 대해 토론하고 있다. [사진=김혜경 기자]
지난 23일 서울 플라자호텔에서 열린 'AI‧데이터 프라이버시' 국제 컨퍼런스에서 패널들이 AI 규제에 대해 토론하고 있다. [사진=김혜경 기자]

◆챗GPT 차단한 이탈리아…오픈AI가 꺼낸 해결책은

지난 4월 이탈리아 정부는 챗GPT 접속을 일시적으로 차단했다. 챗GPT가 개인정보를 침해할 가능성이 높다는 이유에서다. 이탈리아 데이터 보호국은 개발사인 오픈AI가 개인정보 보호 규정을 충족할 수 있는 방안을 내놓을 때까지 금지하겠다는 입장을 내놨다. 최근 이탈리아 당국의 요구사항이 반영돼 서비스가 재개됐다.

아누팜 챈더 미국 조지타운 법대 교수는 'AI‧데이터 프라이버시' 국제 컨퍼런스에서 오픈AI 측이 반영한 변경 사항을 글로벌 차원과 해당 국가에만 해당하는 내용으로 각각 나눠 설명했다. 'AI 모델 학습을 위해 입력된 정보 사용을 거부할 권리'와 'AI 학습용 데이터가 수집‧사용되는 방법에 대한 추가 정보'는 전자에, '연령 제한'과 '시스템에서 개인정보를 삭제할 권리'는 후자에 포함된다. 챈더 교수는 "유럽연합(EU)의 규제 영향이 일정 부분 미쳤다는 반증"이라고 설명했다.

이탈리아 데이터 보호국 소속 알렉산드라 피에루치(Alessandra Pierucci) 변호사는 "이탈리아의 챗GPT 이슈로 인해 EU 차원의 논의를 진행할 수 있게 됐다"며 "유럽 지역뿐만 아니라 전 세계적인 차원의 논의가 필요한 상황"이라고 말했다.

이탈리아의 사례는 AI의 신뢰성 확보가 중요하다는 점을 보여준다. 신뢰성은 정보주체 권리 강화와 맞물린다. 이는 AI 시대 개인정보 자기결정권이 구체적으로 무엇을 뜻하는지 엿볼 수 있다는 점에서 의의가 있다. 헌법상 개인정보 자기결정권이란 타인이 어느 정도의 수준에서 본인의 개인정보를 볼 수 있도록 허락할 것인지 통제할 권리다.

앞서 고학수 개인정보보호위원회 위원장은 아이뉴스24와의 인터뷰에서 '21세기형 자기결정권'이 무엇인지 고민이 필요한 시점이라고 언급한 바 있다. 고 위원장은 "빅데이터·AI 시대의 자기결정권은 무엇인지 이론적 정립이 필요한 시점"이라며 "정보주체가 본인 데이터를 통제·관리할 수 있도록 실효성 있는 시스템 마련이 관건"이라고 말했다

울리히 켈버 독일 연방데이터보호‧정보자유위원회 위원장은 "AI 규율 방향을 정할 때 반드시 다뤄야 하는 문제는 투명성"이라며 "AI가 잘못된 결정을 내렸을 때 정보주체의 권리를 실질적으로 보호할 수 있는 조치를 마련해야 한다"고 말했다.

◆"개인정보 보호법과 연계…위험성 기반 차등 규제 도입"

지난 23일 서울 플라자호텔에서 열린 'AI‧데이터 프라이버시' 국제 컨퍼런스에서 고학수 위원장이 인사말을 하고 있다. [사진=김혜경 기자]
지난 23일 서울 플라자호텔에서 열린 'AI‧데이터 프라이버시' 국제 컨퍼런스에서 고학수 위원장이 인사말을 하고 있다. [사진=김혜경 기자]

이날 컨퍼런스에서 고 위원장은 ▲AI 서비스 제공자에 대한 안전장치 제공 ▲규정 중심에서 원칙 중심으로 규제 패러다임 전환 ▲리스크 기준 차등적인 규제 도입 등을 골자로 한 정책 방향을 제시했다.

그는 "개인정보 처리 목적과 내용 등을 투명하게 공개해 설명 가능한 AI를 구현해야 한다는 원칙은 반드시 준수돼야 한다"며 "규제 샌드박스를 도입해 통제된 환경에서 AI 리스크를 평가해보는 방식도 고려해볼 수 있을 것"이라고 말했다. 기존 개인정보 보호법을 어떻게 AI 영역에 적용할 것인지에 대한 고민과 리스크 기반 평가 기준이 필요하다는 설명이다.

켈버 위원장도 "AI 위험성에 따른 분류가 필요하다"며 "모든 AI 시스템이 정보주체의 자유와 권리를 훼손하는 것은 아니기 때문"이라고 말했다. 이어 "예를 들자면 냉장고와 금융시장에 AI 기술이 적용된 사례를 다르게 평가해야 한다는 것"이라며 "후자의 경우 반드시 감독과 규제가 필요하다"고 덧붙였다.

그웬달 르 그랑 EU 개인정보보호 이사회(EDPB) 부의장도 "리스크 기반 평가 방식은 물론 설명 가능성, 제어권도 확보해야 한다"며 "AI 프로세스는 많은 양의 개인정보를 처리할 수밖에 없는 구조이기 때문에 EU에서도 일반 개인정보보호법(GDPR)과 AI 규제의 상관관계를 고려하고 있다"고 말했다.

최경진 가천대 법대 교수는 "학습 목적으로 수집한 데이터 가운데 식별 가능한 개인정보가 발견된 경우 합법적 처리 근거를 요구할 것인지 등 구체적인 이슈도 빈번하게 발생할 것"이라며 "AI 발전을 위해서는 데이터 프라이버시 관점의 접근과 기존 규제와의 합치도 고려해야 한다"고 전했다.

/김혜경 기자(hkmind9000@inews24.com)




주요뉴스


공유하기

주소가 복사되었습니다.
원하는 곳에 붙여넣기 해주세요.
alert

댓글 쓰기 제목 빅테크‧감독기관 서울에 모은 개인정보위…'AI 규제' 물꼬 틀까

댓글-

첫 번째 댓글을 작성해 보세요.

로딩중
댓글 바로가기


뉴스톡톡 인기 댓글을 확인해보세요.



TIMELINE