[아이뉴스24 박지은 기자] 삼성전자가 16일(현지시간) 미국 새너제이에서 열린 엔비디아 그래픽처리장치 기술 컨퍼런스(GTC 2026)에서 차세대 고대역폭메모리(HBM) 확장 제품인 HBM4E 실물 칩을 처음으로 공개했다.
HBM은 여러 개의 D램을 수직으로 쌓아 데이터 처리 속도를 크게 높인 AI용 메모리다. AI 학습과 추론에 필요한 방대한 데이터를 빠르게 처리하는 핵심 반도체로 꼽힌다.
![삼성전자의 HBM4 제품 [사진=삼성전자]](https://image.inews24.com/v1/3d9cb448285fd0.jpg)
삼성전자가 공개한 HBM4E는 핀당 최대 16Gbps 속도를 지원하며 전체 데이터 전송 대역폭은 약 4TB/s 수준이다.
이는 초당 수 테라바이트 규모 데이터를 처리할 수 있는 수준으로, 차세대 AI 서버에서 요구되는 대규모 연산과 데이터 이동을 감당하기 위한 설계다.
AI 모델이 커질수록 GPU가 처리해야 하는 데이터 양도 급격히 늘어나는데, 이때 성능을 좌우하는 핵심 요소가 메모리 대역폭이다.
HBM4E는 이러한 병목을 줄이기 위한 차세대 AI 메모리로, 대형 AI 모델 학습과 추론 속도를 크게 높일 수 있는 기술로 평가된다.
삼성전자가 HBM4E를 엔비디아 GTC에서 처음 공개한 것은 의미가 크다. GTC는 엔비디아가 매년 개최하는 글로벌 AI 개발자 행사로, AI 반도체와 데이터센터 기술, 로봇, 자율주행 등 차세대 컴퓨팅 기술이 공개되는 대표적인 산업 행사다.
AI 반도체 기업과 클라우드 업체, 연구기관 등이 대거 참여해 차세대 기술과 협력 전략을 발표하는 자리로, 글로벌 AI 산업의 방향을 가늠하는 무대로 평가된다.

삼성전자가 HBM4E를 이 행사에서 공개한 것은 차세대 AI 서버 시장을 겨냥해 엔비디아와 협력을 강화하고 있다는 메시지로 해석된다.
![삼성전자의 HBM4 제품 [사진=삼성전자]](https://image.inews24.com/v1/c0816a527a6555.jpg)
이번 전시에서는 HBM4E 칩과 함께 차세대 HBM 구조를 구현하는 핵심 웨이퍼도 처음 공개됐다.
삼성전자는 또 칩을 연결하는 패키징 기술도 소개했다. 기존 방식보다 열을 더 효율적으로 낮추는 구조로, 16개 이상 메모리 칩을 쌓을 수 있는 고적층 설계를 지원한다.
삼성전자는 이번 행사에서 엔비디아 차세대 AI 플랫폼 ‘베라 루빈(Vera Rubin)’을 위한 메모리 전략도 함께 공개했다.
삼성전자는 루빈 플랫폼을 구성하는 핵심 메모리와 저장장치를 함께 전시했다. 엔비디아의 차세대 GPU에 들어가는 HBM4와 CPU용 서버 메모리 모듈(SOCAMM2), 그리고 AI 서버용 솔리드스테이트드라이브(SSD) PM1763 등을 하나의 시스템으로 보여주며 AI 서버에 필요한 메모리 인프라를 통합 공급할 수 있다는 점을 강조했다.
SOCAMM2는 스마트폰 등에 쓰이는 저전력 더블데이터레이트(LPDDR) 기반 서버용 메모리 모듈로 전력 효율을 높인 제품이다.

또 AI 서버용 저장장치인 차세대 SSD도 함께 전시됐다. 삼성전자는 해당 SSD가 탑재된 서버를 통해 AI 데이터 처리 성능을 현장에서 시연했다.
![삼성전자의 HBM4 제품 [사진=삼성전자]](https://image.inews24.com/v1/8e493dd2ba6f0f.jpg)
삼성전자는 전시 공간을 AI 데이터센터, 온디바이스 AI, 물리 AI 세 개 영역으로 구성해 차세대 그래픽 메모리와 모바일 메모리, 서버용 저장장치 등을 소개했다.
행사 둘째 날인 17일(현지시간)에는 엔비디아 초청으로 송용호 삼성전자 AI센터장이 발표에 나선다.
송 센터장은 AI 인프라 확대에 필요한 메모리 기술과 삼성전자의 메모리 전략을 설명할 예정이다.
한편 올해 GTC에는 최태원 SK그룹 회장도 참석한다. 최 회장은 지난달 미국 실리콘밸리에서 젠슨 황 엔비디아 최고경영자(CEO)와 만난 데 이어 이번 GTC에도 참석할 예정이다.
/박지은 기자(qqji0516@inews24.com)
--comment--
첫 번째 댓글을 작성해 보세요.
댓글 바로가기