요구에 맞게 설계 중
초당 2TB 속도 48GB 용량
내년 말 개발 양산 동시에
![[사진 출처 = 연합뉴스]](https://pimg.mk.co.kr/news/cms/202411/11/news-p.v1.20241111.071631b9e62b4b54840fb2e5da24f412_P1.png)
삼성전자가 마이크로소프트(MS)와 메타에 맞춤형으로 공급할 고대역폭 메모리 ‘커스텀 HBM4’ 개발에 착수했다. 차세대 제품인 HBM4부터는 메모리 기능 뿐만 아니라 고객사 요구에 맞는 다양한 연산을 수행해야 하므로 ‘컴퓨팅 인 메모리(CIM·Compute-in-Memory)’로 불린다.
11일 반도체업계에 따르면 삼성전자는 현재 MS와 메타에 제공할 HBM4를 개발 중이다. 반도체 업체 관계자는 “MS는 마이아 100, 메타는 아르테미스라는 자신들만의 인공지능(AI) 칩을 보유하고 있다”면서 “삼성전자는 메모리사업부와 연산 칩을 직접 설계할 수 있는 LSI사업부를 갖고 있어, 이들 빅테크 기업들에게 최적의 파트너”라고 설명했다.
대다수 빅테크 기업들은 자체 AI 데이터센터를 보유하고 있어, 칩 구매비용을 줄일 필요성이 크다. 이들이 AI반도체 설계 기업인 엔비디아나 AMD가 개발한 AI 칩을 구매하면서도, 별도로 AI 가속기 칩을 직접 설계해 사용하는 이유다.
삼성전자는 HBM4 개발을 내년 말까지 끝낸 후 곧바로 양산에 돌입할 방침이다.
삼성전자가 이들 기업에 공급할 커스텀 HBM4의 세부사양은 알려지지 않았지만, 지난 2월 반도체 학술대회 ‘ISSCC 2024’를 통해 HBM4 사양(스펙)을 공개한 바 있다. 데이터 전송 속도인 대역폭은 HBM3E 보다 66% 증가한 초당 2테라바이트(TB)이고, 디램(DRAM) 단수를 16단으로 쌓아 올려 용량이 현재 36GB 보다 33% 늘어난 48기가바이트(GB)에 달한다.
반도체업체 관계자는 “HBM3까지는 발열 해결과 속도가 관건이었다”면서 “하지만 HBM4부터는 고객 요구에 맞춰 AI연산(NPU)이나 특정 데이터 처리 기능(IP) 등을 반영할 수 있는 역량이 더 중요해진다”고 설명했다. HBM을 16단으로 안정적으로 쌓더라도 단과 단 사이에 고객이 요구하는 특별 단인 ‘버퍼 다이’를 설계하고 삽입할 수 있는 능력이 필요하다.
트렌드포스에 따르면 전 세계 HBM 시장 규모는 올해 약 182억달러(약 25조원)에 도달한 뒤 내년에는 2.5배 커진 467억달러(약 65조원)로 성장할 전망이다. AI칩 설계 1위인 엔비디아가 차세대 그래픽처리장치(GPU)인 ‘루빈(Rubin)’을 2026년 양산할 계획이어서, HBM 채택을 놓고 경쟁이 더욱 치열해 질 전망이다.