[아이뉴스24 박진영 기자] "챗GPT와 같은 생성AI 활용에 있어서 비용부담, 저작권, 윤리적 문제가 장애물이 될 수 있으나 결국엔 생성AI를 받아들이는 방향으로 나아갈 것이다."
전병곤 서울대 교수(프렌들리에이아이 대표)는 31일 그랜드 인터컨티넨탈 서울 파르나스에서 열린 '생성AI 아시아 2023(Generative AI Asia 2023)' 세미나에서 "생성AI은 최근 2년간 상당히 빠른 속도로 발전한 분야"라며 이같이 밝혔다.
전병곤 교수는 "오픈AI가 GPT3를 2020년 6월에 공개했고, 지난해 10월 다양한 생성AI 기업들이 생겨났다. 마이크로소프트(MS)는 오픈AI가 대규모 투자를 고려하고 있고 자사의 검색엔진 빙에 적용하겠다는 계획을 밝히기도 했다"면서 "GPT3는 처음 나왔을 때 사용자의 의도를 따르지 않고 오류가 있는 사실을 생성하거나 편향된 글을 내놓았는데, 인스트럭트 GPT 방식을 적용해 이러한 문제를 해결했다"고 설명했다.
기존 GPT3는 자기회귀 생성 모델을 적용해 현재 주어진 토큰에서 다음 토큰을 정확히 예측하는 방식이었다면, 인스트럭트 GPT는 사람의 피드백을 통한 강화학습으로 다양한 지침을 따르도록 기존 GPT3를 파인튜닝 과정을 거쳤으며, 이를 기반으로 사람의 의도와 목적을 이해하도록 설계됐다.
현재 이슈가 되고 있는 챗GPT는 인스트럭트 GPT 방법론이 사용됐으며, 지난해 초 나온 GPT3.5 모델을 기반으로 만들어졌다. 가장 큰 특징은 대화 데이터를 활용했다는 것이다.
다만 생성AI가 널리 활용되기 위해서는 여러 장애물이 남아 있다. 첫째로 큰 비용 문제다. 생성AI는 기존 모델보다 크고 무겁기에 비용이 매우 높고, API 서비스에도 높은 비용이 반영된다. 1000 챗GPT 인스턴스를 운영하려면 1년에 6천억 정도의 비용이 발생한다고 전 교수는 설명했다.
저작권 문제도 우려된다. 생성AI 창작물을 저작권 문제 없이 사용해도 될 지, 기존 작가들의 창작물과 유사하면 누구의 창작물로 인정해야 하는지 등 다양한 부분에서 저작권 이슈가 발생할 가능성이 높은 것이다. 이밖에 해로운 결과물, 프라이버시, 편향성 등 윤리적 문제가 존재한다.
전 교수는 "다양한 문제가 있지만 앞으로 사회는 생성AI를 받아들이는 방향으로 나아갈 것"이라면서 "생성AI 모델은 기존에 대학 수준의 결과물을 내놓았다면 현재는 프로페셔녈하게 활용할 수 있을 정도로 산출물이 좋아졌고, 생산성이 높은 생성AI를 쓰지 않는 것은 기업의 이점을 없애는 것"이라고 지적했다.
한편 이번 세미나는 5월 개최 예정인 본 행사에 앞서 진행되는 사전 행사로, 국내 생성 AI 전문가를 초빙해 생성 AI의 글로벌 시장 동향, 미래 전망, 기술·비즈니스 응용 전반을 다루는 아시아 최초 컨퍼런스다.
--comment--
첫 번째 댓글을 작성해 보세요.
댓글 바로가기