[아이뉴스24 권용삼 기자] 글로벌 AI 칩 시장을 이끌고 있는 젠슨 황 엔비디아 최고경영책임자(CEO)가 메모리 용량을 대폭 늘린 차세대 AI 수퍼 칩 신제품을 공개한 가운데 고대역폭 메모리(HBM) 등 메모리 분야 강자인 삼성전자와 SK하이닉스가 수혜를 입을 지 주목된다.
9일 업계에 따르면 젠슨 황 CEO는 지난 8일(현지시간) 미국 로스엔젤레스에서 열린 세계 최대 규모의 컴퓨터 그래픽 컨퍼런스 '시그래프 2023'에서 "엔비디아의 차세대 AI 칩 '그레이스 호퍼(GH) 200'을 내년 2분기부터 본격 생산할 것"이라고 밝혔다.
'GH 200'은 방대한 용량의 데이터를 실시간으로 저장·처리해야 하는 AI 훈련에 맞춤형으로 만든 제품으로, 엔비디아의 그래픽처리장치(GPU)와 ARM의 컴퓨터 프로세서(CPU)를 하나로 결합한 '수퍼 칩'이다.
GPU와 CPU를 하나로 통합할 경우, 정보를 주고 받는 과정을 크게 단축시켜 전력 소비를 줄일 수 있다는 장점이 있다.
아울러 이 칩에는 초당 5테라바이트(TB)의 엄청난 속도로 정보에 접근할 수 있는 고대역폭 메모리 'HBM3e'가 탑재됐다. HBM은 여러 개의 D램을 수직으로 연결해 쌓아 기존 D램보다 데이터 처리 속도를 크게 끌어올린 메모리로, HBM3e는 4세대 제품이다.
이전 세대인 'HBM3'을 탑재해도 사용할 수 있지만 'GH 200'의 성능을 극대화하기 위해서는 'HBM3E'가 적합하다는 게 엔비디아의 설명이다.
'GH 200'은 141기가바이트(GB) 메모리로 속도는 5 TB/s 대역폭을 지원한다. AI 엔터프라이즈 특화된 GPU 'H100' 대비 1.7배의 캐퍼시티와 1.5배의 밴드위스(대역폭)를 보장한다.
젠슨 황 CEO는 "이 프로세서는 이전 모델보다 훨씬 더 강력하다"며 "증가하는 AI 컴퓨팅 파워 수요를 충족시키기 위해 세계 데이터 센터의 규모를 확장하도록 설계됐다"고 말했다. 이어 "원하는 거의 모든 대규모 언어 모델을 여기에 넣으면 미친 듯이 추론할 수 있을 것"이라며 "(이렇게 되면) 대규모 언어 모델을 추론하는 데 드는 비용이 크게 떨어질 것"이라고 강조했다.
'GH 200'에 탑재될 HBM3E는 삼성전자와 SK하이닉스가 제공할 것으로 알려졌다. 삼성전자와 SK하이닉스는 엔비디아 등 늘어나는 글로벌 HBM 수요에 맞춰 HBM 생산능력(캐파)을 기존 대비 두 배 이상 늘리고 있다.
글로벌 AI 칩 경쟁은 최근 메모리 확대의 영역으로 넘어가고 있다. 미국 AMD도 최근 AI 반도체 신제품 'MI300X'을 선보이면서 최대 192GB의 메모리를 탑재할 수 있다는 점을 강점으로 내세웠다.
이에 반도체 업계에선 메모리 반도체 분야 선두 기업인 삼성전자와 SK하이닉스가 AI 칩 열풍에서 수혜를 받을 가능성이 크다라는 평가가 나오고 있다.
이와 함께 젠슨 황 CEO는 이날 손쉽게 생성형 AI를 개발할 수 있는 플랫폼 'AI 워크벤치'를 조만간 출시한다고 밝혔다. 생성형 AI 개발을 위한 프로젝트 예시들을 제공하고 이를 토대로 엔비디아의 AI 슈퍼컴퓨팅 서비스 'DGX 클라우드'를 이용해 AI 서비스를 만드는 방식이다.
황 CEO는 "AI 워크벤치를 통해 GPU를 이용할 수 있으면 누구나 생성형 AI 크리에이터가 될 수 있다"고 강조했다.
/권용삼 기자(dragonbuy@inews24.com)
--comment--
첫 번째 댓글을 작성해 보세요.
댓글 바로가기