[아이뉴스24 민혜정 기자] 미국 반도체 기업 엔비디아가 출력속도를 전작보다 2배 높인 인공지능(AI) 칩을 선보였다.
엔비디아는 13일(현지시간) 그래픽처리장치(GPU) HGX H200을 공개했다. H200의 정식 출시 시기는 내년 2분기다.
H200은 챗GPT 개발사 오픈AI의 최신 대규모언어모델인(LLM)인 GPT-4 훈련에 적용된다. 엔비디아는 H200을 메타의 LLM인 라마2에 활용한 결과, 전작인 H100보다 2배 빠른 출력을 낸다고 강조했다.
H200에는 141기가바이트(GB)의 4세대 고대역메모리(HBM) 'HBM3'가 들어갔다. HBM은 생성형 인공지능(AI) 처리 속도를 높이는 데 유용하다. 이안 벅 엔비디아 하이퍼스케일 부사장은 "빠른 GPU를 통해 방대한 양의 데이터를 처리해야 한다"며 "H200으로 중요한 과제들을 해결할 수 있을 것"이라고 강조했다.
--comment--
첫 번째 댓글을 작성해 보세요.
댓글 바로가기