• 페이스북
  • 트위터
  • 유튜브

어디에 쓰는 칩인가[반도체 게임체인저 HBM①]

등록 2024.05.05 10:00:00수정 2024.05.05 10:35:11

  • 이메일 보내기
  • 프린터
  • PDF

AI 특화 메모리…한 번에 다량의 데이터 처리 탁월

집적도 높고, 데이터 전송 효율성도 높은 것도 장점

제조 어렵고 비용 높아…수요처 제한적이라는 한계

[서울=뉴시스](사진=SK하이닉스 뉴스룸) *재판매 및 DB 금지

[서울=뉴시스](사진=SK하이닉스 뉴스룸) *재판매 및 DB 금지


[서울=뉴시스]이인준 기자 = 인공지능(AI) 시대의 '총아' 고대역폭메모리(HBM).

HBM은 주 기억장치인 D램의 일종으로, 이름 그대로 대역폭(bandwidth)이 일반 제품에 비해 높은 반도체다.

대역폭은 고속도로 차선에 비유할 수 있다. 한 번에 데이터가 드나들 수 있는 통로가 얼마나 넓은 지를 뜻한다. 만일 차선 수가 적다면 아무리 좋은 차를 가지고 있어도 제 성능을 발휘하기 어렵다. 차량이 가다 서다를 반복하거나, 출퇴근길에 차량이 몰리면 심한 정체가 생길 수 있다. 하지만 차선 수가 많으면 막힘 없이 달릴 수 있다.

AI, 자율주행, 스마트 서비스 등 신기술이 빠르게 발전하면서 데이터 크기는 갈수록 커지고 있는데 기존의 컴퓨터 시스템으로는 한계가 있다. 어떻게 하면 대량의 데이터를 지연 없이 처리할 수 있을지 고민한 끝에 나온 것이 HBM이다.

HBM은 D램 여러 개를 수직으로 쌓고, 서로 연결되는 고속도로를 무수히 많이 만든 것과 같다.

일단 D램 여러 개를 쌓아 하나로 합친 만큼 집적도가 높다.

현재 D램의 데이터 전송 통로(입출력 통로·I/O)는 64개에 불과하지만, 현존 최고 사양의 HBM인 'HBM3E'는 통로가 1024개나 된다. HBM 한 개가 D램 16개 이상과 맞먹는 셈이다.

HBM3E의 전송속도는 초당 최대 10Gb(기가비트)로, 30GB 용량의 UHD 영화 40여 편을 1초에 주고받을 수 있다. 오는 2026년 양산 예정인 차세대 HBM4는 통로가 2048개로 2배 더 넓어진다.

또 GPU(그래픽처리장치) 등 연산처리장치와 물리적인 거리가 가까워, 데이터 전송 효율성이 높은 장점도 있다.

그렇다고 HBM이 만능은 아니다.

제조 관리와 비용이 많이 들고, 공정이 어렵다. 같은 용량 기준 HBM은 일반 D램 대비 생산능력이 최소 2배 이상 필요하다. 생산능력 확장도 쉽지 않다.

젠슨 황 엔비디아 CEO(최고경영자)는 "HBM은 매우 복잡하고 어려운 제품이며 이를 개발한 건 기술적으로 기적과도 같다"고 삼성전자와 SK하이닉스의 HBM 제품을 극찬하기도 했다.

무엇보다 가격이 비싸다. 일반 제품 대비 최대 5배 이상이다. 그래서 수요도 제한적이다.

다만 그동안 HBM은 AI 특화 메모리라는 인식이 강했으나 자율주행 등으로 응용처를 다변화하려는 노력이 업계에서 나오고 있다.


◎공감언론 뉴시스 [email protected]

많이 본 기사