내년 2분기 양산 예정…삼성·SK 강점 'HBM3e' 탑재
엔비디아가 가속 컴퓨팅과 생성형 AI를 위한 차세대 'GH200 그레이스 호퍼 플랫폼'(NVIDIA GH200 Grace Hopper™ platform)을 9일(현지시간) 공개하면서 고대역폭 메모리(HBM) 강자인 삼성전자와 SK하이닉스 수혜로 이어질지 주목된다.
10일 업계에 따르면 이 플랫폼은 세계 최초로 HBM3e 프로세서가 탑재된 새로운 그레이스 호퍼 슈퍼칩을 기반으로 한다.
GH200 그레이스 호퍼 플랫폼은 대규모 언어 모델, 추천 시스템, 벡터 데이터베이스를 비롯해 전 세계적으로 가장 복합한 생성형 AI 워크로드를 처리할 수 있도록 개발됐으며, 다양한 구성으로 제공된다.
현 세대 제품보다 최대 3.5배 많은 메모리 용량과 3배 높은 대역폭을 제공하는 듀얼 구성은 144개의 Arm 네오버스 코어, 8페타플롭의 AI 성능, 282GB의 최신 HBM3e 메모리 기술을 갖춘 단일 서버로 구성된다.
젠슨 황 엔비디아 CEO는 “급증하는 생성형 AI의 수요를 충족하기 위해 데이터센터에는 전문적인 요구 사항을 갖춘 가속화된 컴퓨팅 플랫폼이 필요하다"며 "새로운 GH200 그레이스 호퍼 슈퍼칩 플랫폼은 탁월한 메모리 기술과 대역폭을 통해 처리량을 개선하고, 성능의 저하 없이 GPU를 연결해 성능을 통합한다. 여기에 전체 데이터센터에 쉽게 배포할 수 있는 서버 설계를 통해 이를 실현할 수 있다"고 말했다.
그레이스 호퍼 슈퍼칩은 엔비디아 NV링크(NVLink™)로 추가 슈퍼칩과 연결할 수 있으며, 이들이 함께 작동해 생성형 AI에 사용되는 거대한 모델을 배포할 수 있다. 이 일관된 고속 기술은 GPU가 CPU 메모리에 완전히 액세스할 수 있도록 지원해 듀얼 구성 시 총 1.2TB의 빠른 메모리를 제공한다.
GH 200에 탑재될 HBM3E는 삼성전자와 SK하이닉스가 제공할 전망이다. 양사는 HBM 수요 확대에 힘입어 생산능력을 기존 보다 두 배 이상 늘리고 있다.
HBM3e 메모리는 기존 HBM3보다 데이터 전송 속도가 50% 빠르며, 초당 총 10TB의 대역폭을 제공한다. 이를 통해 새로운 플랫폼에서 이전 버전보다 3.5배 용량이 큰 모델을 실행할 수 있으며, 3배 빠른 메모리 대역폭으로 성능을 개선할 수 있다.
HBM3e가 탑재된 차세대 그레이스 호퍼 슈퍼칩 플랫폼은 기술의 도입을 확대하기 위해 올해 초 컴퓨텍스에서 공개된 엔비디아 MGX(MGX™) 서버 사양과 완벽하게 호환된다. 모든 시스템 제조업체는 MGX를 통해 100가지가 넘는 서버 변형에 그레이스 호퍼를 신속하고 비용 효율적으로 추가할 수 있다.