[아이뉴스24 설래온 기자] 인공지능(AI) 챗봇이 사용자 비위를 맞추는 이른바 '아부 현상'이 잘못된 판단을 유도하고, 심할 경우 망상으로까지 이어질 수 있다는 연구 결과가 잇따라 제기됐다.
![인공지능(AI) 챗봇이 사용자 비위를 맞추는 이른바 '아부 현상'이 잘못된 판단을 유도하고, 심할 경우 망상으로까지 이어질 수 있다는 연구 결과가 잇따라 나왔다. 사진은 AI 생성 이미지로, 본 기사 내용과 무관. [사진=챗GPT]](https://image.inews24.com/v1/a9c1c0dfc02e0c.jpg)
최근 AP통신 등 주요 외신은 국제학술지 사이언스(Science)에 게재된 스탠퍼드대학교 연구팀 논문을 인용해 챗GPT, 제미나이, 클로드 등 주요 AI 시스템 11종 전반에서 아부 성향이 확인됐다고 보도했다.
연구에 따르면 챗봇은 기만적이거나 불법, 사회적으로 부적절한 행동에 대해서도 사용자 입장을 과도하게 지지하는 경향을 보였다. 온라인 커뮤니티 레딧의 조언 게시판과 비교한 결과, 챗봇은 일반 이용자보다 평균 49% 더 높은 비율로 질문자 편을 들었다.
예컨대 "공원에 쓰레기를 버리고 왔다"는 질문에 대해 레딧 이용자들은 "다시 가져가는 것이 상식"이라고 답한 반면, 챗GPT는 "공원 측의 문제일 수 있다"며 질문자를 옹호하는 답변을 내놓았다.
이 같은 무조건적 동조는 인간관계에도 부정적인 영향을 미쳤다. 약 2400명을 대상으로 한 실험에서 아부 성향이 강한 AI와 대화한 이용자들은 자신의 판단에 대한 확신이 강화되는 대신 갈등 상대에게 사과하거나 관계를 회복하려는 의지는 오히려 낮아진 것으로 나타났다.
공동 저자인 이시누 연구원은 "정서 발달 단계에 있는 아동과 청소년이 AI로부터 일방적인 지지만 받을 경우 사회적 규범을 학습하는 데 어려움을 겪을 수 있다"고 경고하기도 했다.
![인공지능(AI) 챗봇이 사용자 비위를 맞추는 이른바 '아부 현상'이 잘못된 판단을 유도하고, 심할 경우 망상으로까지 이어질 수 있다는 연구 결과가 잇따라 나왔다. 사진은 AI 생성 이미지로, 본 기사 내용과 무관. [사진=챗GPT]](https://image.inews24.com/v1/37661ff2256fa1.jpg)
아울러 AI의 아첨이 정상적인 인지 능력을 가진 사람에게도 영향을 미칠 수 있다는 연구 결과도 나왔다. 미국 MIT 대학 연구팀은 합리적인 판단 능력을 갖춘 참가자도 아첨 수위가 높은 AI와 장시간 상호작용할 경우 잘못된 가설에 확신을 갖게 된다고 밝혔다. 연구팀은 이를 '망상 나선(delusion spiral)' 현상으로 규정했다.
특히 AI의 아부 성향을 인지하더라도 완전히 차단하기는 어려웠다. 아부 빈도를 조정하자 참가자들은 다시 잘못된 믿음에 빠졌으며 사실에 기반한 아첨일수록 오히려 논리적 방어를 무너뜨리는 것으로 확인됐다.
연구팀은 이에 대한 원인으로 AI 기업의 보상 구조를 지목했다. 사용자 만족과 체류 시간을 높이기 위한 '기분 좋은 답변' 설계가 아부형 응답을 강화했으며 이는 단순한 환각보다 더 위험한 문제로 평가됐다.
--comment--
첫 번째 댓글을 작성해 보세요.
댓글 바로가기