삼성 '최초 12단' HBM3E 제품 공개…마이크론은 5세대 HBM 양산 본격화

AI 확산에 HBM 수요 급증. [CG=연합뉴스] ⓜ
AI 확산에 HBM 수요 급증. [CG=연합뉴스] ⓜ

[미래경제 한우영 기자] 나날이 발전하는 생성형 AI 덕에 고성능 메모리인 HBM의 수요가 급증하고 있는 가운데 먼저 시장을 선점함 SK하이닉스가 경쟁사들의 거센 도전에 직면했다. 

삼성전자는 27일 24Gb(기가비트) D램 칩을 TSV(Through-Silicon Via, 실리콘 관통 전극) 기술로 12단까지 적층해 업계 최대 용량인 36GB HBM3E 12H를 구현했다고 밝혔다.

HBM3E 12H는 초당 최대 1280GB의 대역폭과 현존 최대 용량인 36GB을 제공해 성능과 용량 모두 전작인 HBM3(4세대 HBM) 8H(8단 적층) 대비 50% 이상 개선된 제품이다. 삼성전자의 12단 제품은 초당 최대 1280GB를 처리할 수 있다. 1초에 30GB 용량의 UHD 영화 40여편을 다운로드 할 수 있는 속도다. 

삼성전자는 이날 HBM3E 12단 샘플을 고객사에게 제공하기 시작했다고 밝혔다. 다만 실제 양산까지는 시간이 다소 소요될 전망이다. 삼성전자는 아직 이전 단계인 HBM3E 8단 제품의 양산 일정도 확정하지 않은 상태다.

메모리 만년 3위였던 미국 마이크론도 지난 26일 HBM3E을 대량 양산하기 시작했다고 밝혔다. SK하이닉스처럼 8단 적층 24GB 제품이며 엔비디아 H200에 실리게 된다.

마이크론은 HBM 시장에 발을 들이기 위해 SK하이닉스·삼성전자가 먼저 깃발을 꽂은 HBM3을 건너뛰고 최신 세대인 HBM3E로 직행했다. 그러나 아직 완성도와 공정 효율성 면에서는 뒤쳐진다는 평가가 나오고 있다.

SK하이닉스 HBM3E 제품. [사진=SK하이닉스] ⓜ
SK하이닉스 HBM3E 제품. [사진=SK하이닉스] ⓜ

가장 먼저 HBM 시장에서 두각을 드러낸 SK하이닉스는 조만간 8단 HBM3E 생산에 착수해 인공지능(AI) 반도체 1위 기업 엔비디아에 대량 납품할 예정이다. 

곽노정 SK하이닉스 대표는 전날 기자들에게 "HBM3E는 저희가 계획한 일정대로 (양산 준비를)하고 있다"고 밝혔다. 업계에서는 그 시점을 3월로 보고 있다. SK하이닉스는 엔비디아의 AI 연산용 그래픽처리장치(GPU) 'H100'에 4세대 HBM3를 공급하고 있다. HBM3E는 엔비디아가 2분기 출시할 'H200'에 탑재된다.

HBM은 생성AI 산업의 필수재로 꼽힌다. AI 학습에 필요한 수십~수백만건의 데이터 연산을 동시다발적으로 해낼 수 있는 칩은 현재로서는 엔비디아 GPU가 유일하다시피 하며, 빠른 작업속도를 위해서는 메모리 속도도 중요하다. D램을 여러 개 쌓아올린 HBM은 마치 차선을 수직으로 쌓은 고속도로처럼 일반 D램보다 더 빠른 속도를 확보할 수 있다.

엔비디아 GPU는 수요 대비 공급이 턱없이 부족한 상황이다. GPU와 함께 패키징되는 HBM 역시 몸값이 오르고 있다. HBM은 일반 D램보다 5~6배 가량 비싸다. 범용 D램 시장에서는 삼성전자가 1위이지만, HBM 시장에서만큼은 SK하이닉스가 50% 점유율로 1위를 달리고 있는 것으로 알려져 있다.

삼성전자와 SK하이닉스는 2025년 연말~2026년 양산을 목표로 6세대 HBM4 주도권을 잡기 위한 기술 경쟁에도 이미 돌입한 상태다. HBM4는 D램을 16단까지 쌓아 올린다. 단수가 높아질수록 D램 두께가 얇아지고 발열과 신호 간섭 등 문제가 커지기 때문에 고난도 기술이 필요하다.

저작권자 © 미래경제 무단전재 및 재배포 금지
한우영 기자의 다른기사 보기