[아이뉴스24 윤소진 기자] 해커들이 인공지능(AI)을 단순히 코딩 도우미로 쓰는 수준을 넘어 실행되는 순간마다 스스로 모습을 바꾸는 AI 기반 악성코드를 실제 공격에 사용하기 시작했다는 분석이 나왔다.
![제미나이 제작 [사진=제미나이 제작]](https://image.inews24.com/v1/3ba4db97effa0d.jpg)
구글 위협인텔리전스그룹(GTIG)은 12일(현지시간) 발표한 'AI 위협 추적 보고서'에서 "2025년 들어 대규모언어모델(LLM)을 호출해 해킹 명령어를 즉석에서 생성하고 이를 통해 보안 탐지를 회피하는 멀웨어를 처음 관찰했다"고 밝혔다.
멀웨어는 컴퓨터를 감염시켜 정보를 빼가거나 원격 조종하는 악성 프로그램을 뜻한다. 기존 멀웨어는 해킹 기능을 코드에 미리 작성해 두는 방식이 일반적이었다. 그러나 이번에 확인된 사례는 프로그램이 작동하는 도중 외부 AI 모델에 요청을 보내 필요한 명령을 그때그때 생성하는 구조라는 점에서 차이가 있다.
보고서에 따르면 GTIG는 '프롬프트플럭스(PROMPTFLUX)'와 '프롬프트스틸(PROMPTSTEAL)' 등 작동 중 AI를 활용하는 악성코드들을 발견했다. 이들은 기존처럼 해킹 기능을 미리 만들어 넣지 않고, 필요할 때마다 AI에게 물어보며 그때그때 해킹 명령을 만들어낸다. 백신 프로그램을 속이기 위해 수시로 모습을 바꾸는 '실시간 변신' 방식인 셈이다.
특히 러시아 정부 지원 해킹그룹 APT28이 우크라이나 공격에 사용한 '프롬프트스틸'은 AI에게 허깅페이스(Hugging Face) API를 통해 LLM에 시스템 정보 수집이나 문서 복사 명령어 생성을 요청한 뒤 이를 실행한 것으로 분석됐다. 구글은 "AI를 실시간으로 호출하는 악성코드가 실제 해킹에 쓰인 첫 사례"라고 강조했다.
국가 지원 해킹조직들도 공격 전 과정에 AI를 활용하고 있는 것으로 나타났다. 북한·이란·중국과 연계된 위협 행위자들이 정찰, 피싱 메일 작성, 명령·제어(C2) 서버 개발, 데이터 탈취 등 다양한 단계에서 생성형 AI를 활용하고 있는 것으로 조사됐다.
일부 해커들은 AI의 안전장치를 우회하기 위해 신분을 속이는 방식도 사용했다. 중국 관련 해커는 자신을 해킹대회(CTF) 참가자라고 소개하며 취약점 정보를 요청했고, 이란 정부의 지원을 받는 해킹 조직은 대학 과제 수행이나 연구 활동을 가장해 구글 제미나이의 보안 장치를 우회하려 했다. 북한 정부의 지원을 받는 해커 그룹은 채용 담당자를 사칭해 방위 산업체에 대한 집중 공격을 수행했다.
사이버범죄 암시장(다크웹)에서는 피싱 제작, 멀웨어 개발, 취약점 연구를 지원하는 AI 도구 거래도 증가하고 있다. 일부 도구는 무료 버전을 제공하고, 고급 기능은 구독 방식으로 판매하는 등 합법 AI 서비스와 유사한 형태를 보였다. GTIG는 "기술 숙련도가 낮은 공격자도 AI 도구를 활용해 공격 효율을 높일 수 있는 환경이 형성되고 있다"고 분석했다.
GTIG는 "악의적 활동과 연관된 프로젝트와 계정을 비활성화하고, 모델을 지속적으로 개선해 악용 가능성을 줄이고 있다"며 "이번 관찰 결과를 바탕으로 분류기와 모델 자체를 강화해 이러한 유형의 공격 지원을 거부하도록 했다"고 밝혔다.
--comment--
첫 번째 댓글을 작성해 보세요.
댓글 바로가기