[아이뉴스24 김태환 기자] 앞으로 금융사가 인공지능(AI) 기반의 금융서비스를 개발·제공할 때는 내부적으로 윤리원칙과 기준을 수립하고 전담조직을 구성하는 등 철저한 내부통제장치를 만들어야 한다.
시스템 개발 단계에서도 AI시스템을 감독·통제할 수 있도록 설계하고, 민감한 정보는 비식별조치 등 안전조치 후 활용해야 한다.
금융위원회는 8일 도규상 부위원장 주재로 '제1차 디지털금융협의회 데이터 분과회의'를 열고 이런 내용이 포함된 ‘금융분야 AI 가이드라인’을 발표했다.
해당 가이드라인은 금융분야 AI 시스템의 개발-사업화-활용의 전 과정에서 신뢰성을 높이고, AI 기술을 활성화하기 위해 기획됐다.
가이드라인에 따르면 금융회사들은 AI 시스템을 구성할 때 조직 내 가치, AI 활용 상황 등을 고려해 AI 내부통제장치을 마련해야 한다.
이를 통해 AI 시스템의 위험 평가·관리를 위한 구성원의 역할·책임·권한을 구체적으로 정의하고, 시스템 위험에 대한 평가·관리 정책을 실시해야 한다. 특히 개인권리에 중대한 위험을 초래할 수 있는 AI 활용사례에는 내부통제 및 승인절차를 마련하고, 승인책임자 지정을 통해 안전성 확보를 권장한다.
시스템 설계 단계에서는 AI 활용목적이 윤리원칙에 부합하는지, AI시스템 활용의 사회적 영향, 잠재적 피해 가능성 평가가 필요하다. 또 AI가 인간의 의사결정을 대체하는 경우, AI시스템을 감독·통제하고 책임성을 유지할 수 있도록 구성해야 한다.
데이터 활용에 있어서는 AI가 학습하는 데이터의 품질을 검증하고 최신 정보를 유지하도록 노력해야 하며, 민감한 개인정보를 활용할 경우 비식별조치 등 충분한 안전조치 후 사용해야 한다.
금융위는 오는 3분기 내에 업권별 특성 등을 반영한 ‘금융업권·서비스별 세부실무지침’ 마련을 추진한다는 계획이다. AI 서비스 활용도가 높은 은행·금투·카드업권 등을 중심으로 금융업법상 규제와의 정합성을 고려한 지침 마련한다는 방침이다.
또 신용평가, 챗봇 등 고객응대, 설명의무 수행 등 세부 서비스별로 세부준칙도 마련할 예정이다.
도규상 금융위 부위원장은 "'금융분야 AI 가이드라인'은 신뢰를 근간으로 하는 금융 서비스가 AI 기술을 접목함에 있어 지켜야할 최소한의 방향성을 제시하고자 했다"면서 "AI 기술발전 및 활용과 관련해 규제 불확실성 등을 최소화하면서 AI 금융서비스에 대한 사회적 신뢰를 공고히하고 AI를 통한 지속가능한 금융혁신을 이룰 수 있도록 제도적 환경을 조성할 계획"이라고 말했다.
/김태환 기자(kimthin@inews24.com)
--comment--
첫 번째 댓글을 작성해 보세요.
댓글 바로가기