-
삼성전자, 업계 최초 36GB HBM3E 12단 D램 개발주식이야기 2024. 2. 28. 10:34728x90300x250SMALL
삼성전자가 업계 최초로 36GB(기가바이트) HBM3E(5세대 HBM·고대역폭메모리) 12H(12단 적층) D램 개발에 성공하고 고용량 HBM 시장 선점에 나선다.
HBM은 여러 개 D램을 수직으로 연결해 기존 D램보다 데이터 처리 속도를 대폭 끌어올린 고성능 제품이다.
먼저 HBM은 High Bandwidth Memory의 약자로 고대역폭 메모리를 의미합니다.
일반적으로 알려진 D램보다 데이터 전송속도가 훨씬 빠른 메모리이며, HBM은 AI열풍이 불기 시작하면서 주목받기 시작했습니다.
최근 생성형 AI, 빅데이터 발전에 따라 급증하는 데이터를 빠르게 처리하기 위해서는 HBM이 반드시 필요하다.
AI 열풍이 불면서 GPU의 중요성이 크게 부각되기도 했다
GPU는 화면에 수만개의 픽셀을 표현하는 역할을 하면서 기존의 CPU와는 달리 대량의 데이터들을 동시에 처리하는 특징을 가지고 있습니다. 이러한 특성떄문에 방대한 양의 정보를 빠르게 계산해줘야 하기 때문에 이 'HBM' 의 역할이 아주 중요해졌다본래 삼성전자는 HBM 강자였다. 삼성전자 반도체는 2016년 업계 최초로 HPC(고성능 컴퓨팅) 향 HBM 사업화를 시작하며, AI 메모리 시장을 개척했다. 2017년에는 업계 최초로 8단 적층 HBM2(2세대) 상용화에 성공했다. 이 제품은 당시 가장 빠른 메모리인 GDDR5 보다 8배 빠른 속도를 제공했다.
이후 초당 최대 460GB(기가바이트)의 데이터를 처리하는 3세대 HBM2E를 내놨고, 삼성전자는 HBM2와 HBM2E 시장을 주도했다.
시장의 변화는 예상을 뛰어넘었다. 경계현 삼성전자 디바이스솔루션(DS) 부문장(사장)은 지난 1월 자신의 SNS(소셜미디어)에 "챗GPT가 등장하고 퍼블릭 클라우드 업체들이 노멀 서버 투자를 줄이고 그래픽처리장치(GPU) 서버에 투자를 늘렸을 때 한정된 예산 탓이라고, 시간이 지나면 노멀 서버 투자가 다시 시작될 것이라고 믿었던 적이 있었다"며 "그런데 그런 일은 생기지 않았다"고 썼다. 경 사장은 "컴퓨팅에 근본적인 변화가 생긴 것"이라고 진단했다.삼성전자의 시장 점유율이 42.8%에서 38.2%로 4.6%포인트 하락할 동안 SK하이닉스는 24.7→31.9%로 7.2%포인트 상승했다. 이에 따라 두 회사의 점유율 격차는 18.1%포인트에서 6.3%포인트로 좁혀졌다. 옴디아에 따르면 이는 최근 10년 새 가장 작은 격차다. 급증한 HBM 수요가 D램 업체의 희비를 가른 것이다.
SK하이닉스는 지난 26일 2분기 컨콜에서 HBM 매출을 직접 언급하며 점유율 우위라는 점을 강조했다.
박명수 SK하이닉스 D램 마케팅담당은 "챗GPT를 중심으로 한 생성형 AI 시장이 확대되면서 AI 서버용 메모리 수요가 급증했다"며 "이에 따라 HBM을 포함한 그래픽 D램 매출이 지난해 4분기 대비 빠르게 올라오면서 전체 D램 매출의 20% 수준으로 높아진 상황"이라며 "2분기 AI향 수요로 HBM과 DDR5 출하량이 전분기 대비 2배 이상 증가했다"고 설명했다.
이어 그는 "HBM과 DDR5의 올해 매출은 전년대비 2배 이상 성장할 것"이라며 "특히 하반기가 상반기보다 수요가 늘어날 것으로 전망된다"고 밝혔다. 이어 "고객들 피드백을 종합해 보면 타임투마켓 관점에서 제품 완성도나 양산 품질, 나아가서 필드 품질까지 종합해서 SK하이닉스가 가장 앞서고 있다는 점이 확인되고 있다"며 강조했다.
SK하이닉스는 2013년 1세대 HBM을 세계 최초로 개발한 데 이어 2021년 4세대 HBM 제품인 HBM3를 세계 최초로 개발했다. 지난 4월에는 세계 최초로 D램 단품 칩 12개를 수직으로 적층한 24기가바이트(GB) HBM3 신제품을 개발하는 데 성공했다. SK하이닉스는 내년 상반기에는 5세대 제품인 HBM3E 양산에 돌입하고, 2026년 6세대 제품인 HBM4를 양산할 계획이다.
업계에 따르면 SK하이닉스는 AI 시장의 큰손인 엔비디아의 GPU(그래픽처리장치) A100·H100에 HBM 제품을 공급하고 있다. 최근 AMD도 GPU ‘MI300X’에 SK하이닉스 HBM을 적용한다고 발표한 바 있다.
삼성전자는 24Gb(기가비트) D램 칩을 TSV(실리콘 관통 전극) 기술로 12단까지 적층해 업계 최대 용량인 36GB HBM3E 12H를 구현했다고 27일 밝혔다.
HBM3E 12H는 초당 최대 1280GB의 대역폭과 현존 최대 용량인 36GB을 제공해 성능과 용량 모두 전작인 HBM3(4세대 HBM) 8H(8단 적층) 대비 50% 이상 개선된 제품이다.
삼성전자는 'Advanced TC NCF(열압착 비전도성 접착 필름)' 기술로 12H 제품을 8H 제품과 동일한 높이로 구현해 HBM 패키지 규격을 만족시켰다.
해당 기술을 적용하면 HBM 적층수가 증가하고, 칩 두께가 얇아지면서 발생할 수 있는 '휘어짐 현상'을 최소화 할 수 있는 장점이 있어 고단 적층 확장에 유리하다.
삼성전자는 NCF 소재 두께도 지속적으로 낮춤으로써, 업계 최소 칩간 간격인 '7um(마이크로미터)'를 구현했다. 이를 통해 HBM3 8H 대비 20% 이상 향상된 수직 집적도를 실현했다.
삼성전자는 HBM3E 12H를 통해 인공지능(AI) 서비스의 고도화로 데이터 처리량이 급증하는 상황 속에서 AI 플랫폼을 활용하는 다양한 기업들에게 최고의 솔루션이 될 것으로 기대하고 있다.
특히 성능과 용량이 증가한 이번 제품을 사용할 경우 GPU 사용량이 줄어 기업들이 총 소유 비용(TCO)을 절감할 수 있는 등 리소스 관리를 유연하게 할 수 있라는 설명이다.
삼성전자는 HBM 공급 역량을 업계 최고 수준으로 유지하기 위해 지난해 대비 올해 2.5배 이상 생산능력(캐파)을 확보해 운영할 계획이다.
또 HBM3E 샘플 공급과 상반기 양산에 이어 HBM3E의 안정적인 양산 체계를 갖춰 나가는 한편 HBM4(6세대 HBM)도 2025년 샘플링과 2026년 양산을 목표로 개발하고 있다.728x90반응형LIST'주식이야기' 카테고리의 다른 글
애플, 구글과 손잡나…아이폰에 제미나이 탑재 논의 (0) 2024.03.19 인공지능(AI) 업체 ‘xAI’가 내놓은 첫 생성형 인공지능(AI) 챗봇 그록 (0) 2024.03.12 챗GPT 개발 오픈AI, 텍스트로 동영상 생성 AI '소라' 공개 (4) 2024.02.16 공모주 청약 한눈에 알수있는 어플 피너츠 공모주 (0) 2024.01.24 美증권위, 11개 비트코인 현물 ETF 상장 승인…11일부터 거래 (0) 2024.01.11