[아이뉴스24 박진영 기자] 미국에서 안전하고 신뢰할 수 있는 인공지능(AI) 개발을 위해 민관이 참여하는 '인공지능 안전 연구소 컨소시엄(AISIC)'이 발족됐다.
12일(현지시간) 미국 상무부에 따르면, AISIC는 AI 역량평가, 위험 관리, 합성 콘텐츠 워터마킹 지침 개발 등을 중점적으로 다룬다. 정부, 학계, AI 개발자와 함께, 오픈AI, 구글, 마이크로소프트, 아마존 등 미국 빅테크 기업과 퀄컴 등 하드웨어 기업, 금융기업 등 총 200개 이상 업체가 참여한다.
상무부는 "컨소시엄은 지금까지 설립된 테스트 및 평가팀 가운데 가장 큰 집합체이며, AI 안전에 대한 새로운 측정(measurement) 과학의 토대를 구축하는 데 초점을 맞출 것"이라고 말했다.
지나 러몬도 상무부 장관은 "조 바이든 대통령은 AI 안전 표준을 설정하고 혁신 생태계를 보호하는 목표를 달성하기 위해 모든 수단을 동원하라고 지시했으며 AISIC는 이 목표 달성을 돕기 위해 설립됐다"고 밝혔다.
미국의 AISIC 발족은 AI가 급속도로 발전함에 따라 안정성 검토가 필요하다는 의견에 공감했기 때문이다. 최근 딥페이크 부작용이 확산되자, 오픈AI, 구글, 메타 등 미국 빅테크 기업들이 자체적으로 자사의 AI 이미지에 라벨을 붙이도록 한 것도 이같은 맥락이다.
이와 함께 유럽연합(EU), 한국 등도 AI 안정성 검토를 위한 글로벌 공조에 적극적이다.
지난해 11월 영국은 AI 안정성 검토를 위한 국제적 공조 방안을 논의하기 위해 'AI 안정성 정상회의'를 개최한 바 있다. 한국은 영국과 공동으로 미니 AI 안정성 정상회의를 올해 5월 개최할 예정이다.
--comment--
첫 번째 댓글을 작성해 보세요.
댓글 바로가기