2023.02.27 반도체의 병목인 메모리 속도를 개선하는 HBM
[신한투자증권 기업분석부] 혁신성장 : AI NEXT

많은 I/O로 정보처리 비교 우위에 있는 HBM


메모리 병목 현상을 해결하기위한 방법으로 GDDR 대신 HBM이 떠올랐다. 주된 차이점은 I/O(Pin 개수)가 많아진다는 점이다. GDDR 제품은 I/O가 3개에서 100개로 HBM의 1024개와 차이가 크다. 주로 I/O는 차선에 비교하는 데 차선이 많아질 수록 한번에 많은 차들이 체증없이 다닐 수 있고 발열과 신뢰성 모두 개선된다. 다만 단가가 상당히 높게 형성되기에 서버 제품 위주로 채택이 되고 있다. 위에서 언급했듯이 서버업체들의 제품 채택 최우선 요소는 효율성이다. B2C 제품과 다르게 가격이 우선 순위가 아니다. 성능 개선만 확실하다면 채용할 요소가 확실하다.


HBM이 활용되는 대표 제품은 AMD의 GPU가 있다. 그리고 여기서 2.5D 패키징이라는 개념이 나온다. 기존의 패키징은 주로 2D 패키징이었다. 다양한 칩들이 수평선 위에 위치해 작동하는 형태다. 다음 형태의 패키징이 3D 방식이다. 칩들을 위아래로 수직적인 위치에 배열해 속도 개선 및 공간 절약을 동시에 가져가는 형태다. 2.5D 패키징은 실리콘 인터포저를 사용한다. 보통 2D나 3D 패키징은 패키징 기판과 범프를 이용해 연결한다. 하지만 위에 언급했듯이 HBM의 I/O는 1000개 가량이다. 이걸 기판을 통해 연결하는 방식은 효율적이지 않다.

때문에 웨이퍼 공정을 통해 만든 실리콘 인터포저를 통해 비메모리와 메모리를 연결하고 인터포저를 패키징 기판과 다시 연결하는 방식을 가진다.


가격과 수율 측면 한계가 여전한 HBM


2.5D 패키징을 활용해 GPU 성능을 개선했다. 이제 적용만 확대되면 될 것 같지만 여기도 문제점이 존재한다. 1) 2.5D 패키징을 하면 가격이 비싸진다. B2C 제품에서의 적용 확대를 기대하기는 어렵다. 단가가 기본적으로 훨씬 높기 때문이다. 실리콘 인터포저 자체만으로도 몇십불 정도인 것으로 알려져 있다. 또한 병목 해소를 위해서 무작정 HBM을 늘릴수 없다. 칩에도 연결 부위를 따로 만들어 줘야되기 때문에 비용 증가가 어마무시하다. 칩이나 기판은 크기가 커질수록 단가가 지수함수 형태로 증가한다. 불량률이 높아져 수율이 낮아지기 때문이다. 2)HBM 제품 자체도 수율이 좋지 않다. 메모리는 기존에 와이어본딩이나 플립칩 본딩의 방식을 사용했다. 다수의 칩을 패키징 기판에 와이어를 통해 연결하거나 플립칩 방식으로 디램을 1개씩 연결한 모듈을 사용한다. HBM은 다수의 디램은 TSV 공정을 통해 Peri 부분에 구멍을 뚫어 연결해 만든다. 많은 수의 홀을 정확하게 연결해야하는데 이 공정 자체가 수율이 높지 않은 것으로 알려져있다. 수율이 높지 않다는 뜻은 단가를 단시간에 낮추기는 어렵다는 뜻이다. 수율에 문제가 있으면 메모리 업체들도 선뜻 생산을 확대하기에 망설여질 수 밖에 없다.



AI 시대의 개막 및 GPU의 필요성 증가로 HBM 수요는 서버 위주로 증가할 전망이다. 아직까지는 적용 비율이 많지 않은 것으로 추정된다. GDDR 제품을 대체하며 시장을 대체할 것으로 예상되나 현재 GDDR 제품의 전체 DRAM 시장 비중은 5% 수준으로 작다. AI에 대한 수요는 꾸준히 증가할 것으로 전망되는 만큼 과거 서버 DRAM이 비중이 작았던것 처럼 결국은 중요성과 비중이 확대될 것으로 전망한다. 이 과정에서 제품 수율을 높이기 위해 후공정 장비의 필요성이 증가할 것이다. 그리고 이종 칩 간의 연결을 위해 마이크로 솔더볼 수요 증가, 패키징 기판 및 테스트 소켓의 대면적화 및 ASP 상승이 기대된다.




- SK하이닉스의 HBM3 반도체 경쟁력도 세계 최고 수준이란 평을 듣는다. 업계에선 SK가 세계 최고 GPU 회사인 미국 엔비디아에 HBM3 제품을 공급한다는 사실에 주목한다.

- 엔비디아 GPU 제품인 H100에 HBM3가 들어간다. 기존 HBM2E보다 데이터 처리 속도를 80% 높였다.

- 2023년 메모리 업계 최대 뉴스인 인텔 '사파이어 래피즈' 서버용 CPU 시장도 놓칠 수 없는 기회다. 인텔은 HBM 메모리와 결합한 사파이어 래피즈는 기존 세대 AI 보다 작업 처리량이 2배 이상 늘어날 것이라고 지난해 밝힌 바 있다. 삼성과 SK의 HBM반도체와 인텔의 슈퍼컴퓨터용 CPU 간 궁합이 좋다는 얘기다.

삼전과 하이닉스 모두 AI 제품에 사용되는 차세대 메모리 반도체 납품 중

- 삼전: 지능형 메모리(HBM-PIM)

- 하이닉스: 고대역폭 메모리(HBM3) 개발 중.

인텔의 사파이어 래피즈에 HBM 결합하면, 기존 AI 대비 작업 처리량 2배라고 함.


반도체 목록