IT·과학 산업 경제
정치 사회 문화·생활
전국 글로벌 연예·스포츠
오피니언 포토·영상 기획&시리즈
스페셜&이벤트 포럼 리포트 아이뉴스TV

"AI도 얼굴영상합성 피해 차단 어렵다"

본문 글자 크기 설정
글자크기 설정 시 다른 기사의 본문도 동일하게 적용됩니다.

사회적·기술적 노력 모두 필요…딥페이크 사라지지 않아

[아이뉴스24 안희권 기자] 최근 유명 연예인의 얼굴을 음란물 동영상 인물과 합성한 가짜 영상물로 피해가 늘고 있으나 이를 차단하는 인공지능(AI) 기술도 실효성이 낮은 것으로 나타났다.

데이터와 소사이어티는 최근 작성한 보고서에서 머신러닝 기술을 활용해 딥페이크로 불리는 얼굴 영상합성을 자동으로 걸러주는 솔루션에 대해 의문이 커지고 있다고 지적했다.

보고서는 오히려 기술적인 부분과 사회적인 부분이 함께 병행되어야 한다고 조언하고 있다. 다만 인공지능은 데이터와 개인기업의 작업지시에 지나치게 의존하고 있어 더욱 나쁜 결과를 낳을 수 있다고 꼬집었다.

딥페이크가 AI 기술로 파악하기 힘들다 [출처=위키피디아]
딥페이크가 AI 기술로 파악하기 힘들다 [출처=위키피디아]

업계는 기술을 통해 이 문제를 해결할 수 없다는 점이 드러나면서 혼란스러워 하고 있다. 연구원들은 "이번 딥페이크는 기술만으로 해결할 수 없는 문제"라고 말했다.

사진이 법원에서 증거물로 인정받기 시작한 것은 1850년대부터이다. 하지만 방송사가 의도적으로 사진을 편집해 잘못된 정보를 제공하는 사례가 1990년대에 발생했다.

특히 걸프전중에 미국군부대와 이라크군부대간 적군의 사망자수의 왜곡으로 리포터들은 정확한 사망자수를 전할 수 없었다.

오늘날은 이런 사실조작이 AI 기술로 파악할 수 없어 사실상 딥페이크 공격에 무방비로 노출되어 있는 셈이다. 전문가들은 앞으로 딥페이크가 사라지지 않을 것이라고 경고했다.

안희권 기자 argon@inews24.com



공유하기

주소가 복사되었습니다.
원하는 곳에 붙여넣기 해주세요.

alert

댓글 쓰기 제목 "AI도 얼굴영상합성 피해 차단 어렵다"

댓글-

첫 번째 댓글을 작성해 보세요.

로딩중
댓글 바로가기