[아이뉴스24 박진영 기자] 정부가 인공지능(AI)으로 인한 프라이버시 침해 위험은 최소화하면서 AI 생태계 발전을 위해 데이터를 안전하게 활용할 수 있도록 개인정보 규율 체계를 내놓았다.
개인정보보호위원회는 3일 정부서울청사에서 브리핑을 통해 '인공지능 시대 안전한 개인정보 활용 정책방향'을 발표했다.
개인정보위는 AI 환경에서 현행 '개인정보보호법'을 어떻게 해석·적용할 수 있을지에 대한 준칙을 제시하는 한편, 구체적인 세부 사항에 대해서는 향후 정부와 민간이 협력해 규율 체계를 공동으로 설계할 방침이다.
AI의 데이터 활용 범위와 방식이 고도로 복잡한 특성을 고려해 규정이 아닌 원칙 중심의 규율 체계를 정립한다. 이를 위해 AI 관련 사항을 전담하는 원스톱 창구인 'AI 프라이버시팀(가칭)'을 10월 중 신설한다.
AI 프라이버시팀은 AI 모델·서비스를 개발·제공하는 사업자와의 소통창구로, 사안별로 개인정보 처리 적법성, 안전성 등에 대한 법령해석을 지원하거나 규제 샌드박스 적용을 검토할 예정이다.
사전 적정성 검토제도 올해 중 도입한다. 이는 사업자 요청 시 비즈니스 환경을 분석해 '개인정보보호법'을 준수할 수 있도록 적용방안을 함께 마련하고, 이에 따른 사업자의 이행결과에 대해 개인정보위가 적정하다고 판단한 사안에 대해서는 행정처분을 하지 않는 제도다. 사업자가 신청서를 제출한 시점부터 적용방안 통보까지 60일 이내에 이루어진다.
AI 개발·서비스의 단계별 개인정보 처리기준과 보호조치, 고려사항 등을 제시한다. 그간 AI 개발·서비스를 위해 데이터를 수집·이용할 때 개인정보를
어떻게 처리해야 하는지에 대한 별도의 기준이 없었다. 개인정보위는 그간의 해석례·의결례·판례 등을 종합해 AI 개발·서비스 기획부터 데이터 수집, AI 학습, 서비스 제공에 이르기까지 단계별 원칙과 기준을 구체화한다.
개인정보위는 이번 정책 방향을 기반으로 민간과 함께 세부 분야별 가이드라인을 만들어나갈 계획이다. 이를 위해 AI 기업·개발자, 학계·법조계, 시민단체 등 민·관이 함께 논의할 수 있는 'AI 프라이버시 민·관 정책협의회'를 오는 10월 중 구성한다.
또 AI 위험성을 구체적으로 판단할 수 있는 'AI 리스크 평가모델'도 마련한다. 특히 규제 샌드박스를 통해 다양한 사례를 축적하고, 리스크를 식별·평가할 수 있는 체계를 2025년까지 구축할 계획이다. 나갈 계획이다.
국제적 공조체계도 강화한다. 개인정보위는 지난 6월 선언한 '파리 이니셔티브'를 바탕으로 AI 개인정보 분야 국제규범 마련을 위한 협력체계를 공고히한다. 또 2025년에는 글로벌 프라이버시 총회(GPA)를 유치해 AI를 중심으로한 프라이버시 이슈에 대해 논의할 예정이다. 오픈AI, 구글, 메타 등 글로벌 AI 사업자와 국내 AI 사업자와의 소통도 활성화할 방침이다.
고학수 개인정보위 위원장은 "인공지능에 있어 무조건적인 '제로 리스크'를 추구하기 보다는 프라이버시 침해 최소화를 위한 실천적 노력을 경주하는 것이 더욱 중요하다는 인식 하에, 글로벌 규범을 선도할 수 있는 AI 개인정보 규율체계를 확립해 나가겠다"고 밝혔다.
/박진영 기자(sunlight@inews24.com)
--comment--
첫 번째 댓글을 작성해 보세요.
댓글 바로가기