목록으로
반도체앱플레이스테크1

HBM 공급 부족, 최소 5년은 간다 — 증설해도 AI 수요를 못 따라가는 이유

'꽃 어디' 앱 아이콘

Flower Where

꽃구경 명소를 찾는 가장 쉬운 방법
'꽃 어디' 지금 설치하세요

HBM 공급 부족, 최소 5년은 간다 — 증설해도 AI 수요를 못 따라가는 이유

#HBM #반도체 #메모리슈퍼사이클 #AI반도체 #삼성SK하이닉스

지난 4월 7일, 디지털타임스와 조선비즈가 동시에 보도한 뱅크오브아메리카(BofA) 보고서가 업계에 파문을 던졌습니다. 내용은 한 줄로 요약됩니다.

"HBM 공급 부족, 최소 5년 이상 지속된다."

삼성전자는 올해 HBM 생산량을 작년 대비 3배 이상 늘린다고 했습니다. SK하이닉스는 이미 2026년 분량이 완판된 상태고, 마이크론도 내년치가 매진됐습니다. 그런데도 부족하다는 겁니다. 왜 그럴까요? 단순히 수요가 많아서라고 치부하기엔 뭔가 더 깊은 구조적 문제가 있습니다. 오늘은 그 이유를 제대로 파헤쳐 보겠습니다.

HBM이 뭔지부터 — 왜 AI에 이게 필요한가요?

HBM(High Bandwidth Memory, 고대역폭메모리)은 이름 그대로 데이터를 전송하는 대역폭이 극도로 넓은 메모리입니다.

AI 연산, 특히 LLM(대규모 언어모델) 학습과 추론은 수천억 개의 파라미터를 순식간에 읽고 쓰는 작업입니다. GPU가 아무리 빠르게 계산해도 메모리가 데이터를 제때 공급하지 못하면 GPU가 그냥 기다려야 합니다. 이를 컴퓨터 과학에서는 "메모리 벽(Memory Wall)" 이라고 부르는데, 1995년에 처음 이 문제를 제기한 윌프 교수의 경고가 30년이 지나 AI 시대에 현실이 됐습니다.

HBM은 D램 칩을 수직으로 여러 층 쌓아 GPU 옆에 아주 가깝게 배치해 이 병목을 해결합니다. 엔비디아 H100 GPU 하나에는 HBM이 80GB 탑재됩니다. Rubin 플랫폼에선 더 늘어납니다.

HBM은 시작일 뿐' K-반도체의 지속 가능한 생존 조건은?

수요의 규모 — 얼마나 큰가요?

숫자로 먼저 감을 잡아봅시다.

BofA는 2026년 HBM 시장 규모를 전년 대비 58% 증가한 546억 달러로 추산했습니다. 한화로 약 75조 원입니다. 단일 메모리 제품 카테고리가 이 규모입니다.

BofA는 2026년을 "1990년대 호황기와 유사한 슈퍼사이클"로 정의하며, 글로벌 D램 매출이 전년 대비 51%, 낸드는 45% 급증하고 ASP는 D램 33%, 낸드 26% 상승할 것으로 전망했습니다.

일부 전망에서는 2028년 HBM 시장 규모가 2024년 전체 D램 시장을 넘어설 것이라는 관측도 나옵니다.

이 수요를 끌어당기는 힘은 두 가지입니다.

① AI 학습 수요 — 새로운 AI 모델을 훈련시키는 데 수천 개의 GPU가 수개월씩 돌아가고, 각 GPU에는 HBM이 탑재됩니다.

② AI 추론 수요 — 이제 이쪽이 더 빠르게 커지고 있습니다. ChatGPT, Claude 같은 서비스를 수억 명이 동시에 쓰면, 그 요청을 처리하는 수많은 추론 서버가 필요합니다. 추론 단계에서는 고용량 서버 D램과 기업용 SSD(eSSD)의 중요성까지 함께 올라갑니다.

구조적 병목 ① — HBM은 일반 D램과 만드는 방식이 완전히 다릅니다

여기서부터가 핵심입니다. 많이들 "그냥 공장 더 지으면 되는 거 아닌가?"라고 생각하시는데, HBM은 그게 안 되는 이유가 있습니다.

HBM은 기존 메모리 대비 3~4배 수준의 생산능력을 요구합니다. 같은 클린룸 면적으로 일반 D램을 만들 때보다 HBM을 만들 때 나오는 완제품이 훨씬 적다는 뜻입니다.

왜냐하면 HBM은 D램 칩을 여러 장 수직으로 쌓아 TSV(실리콘 관통 전극)라는 수직 배선으로 연결하는 극도로 복잡한 구조이기 때문입니다. 얇디얇은 D램 웨이퍼를 깎고(그라인딩), 수천 개의 미세 구멍을 뚫고, 그걸 층층이 쌓는 작업입니다. 공정 스텝 수 자체가 일반 D램과 비교가 안 됩니다.

구조적 병목 ② — MR-MUF와 TC-NCF, 이 두 공정이 발목을 잡습니다

이제 제목에 나온 용어를 설명할 차례입니다. 복잡해 보이지만 개념은 어렵지 않습니다.

HBM 칩을 여러 장 쌓은 뒤, 그 사이 공간을 채우고 결합하는 과정이 필요합니다. 이때 사용하는 두 가지 핵심 공정입니다.

MR-MUF (Molded Underfill 기반 대량 리플로우) SK하이닉스가 주로 쓰는 방식입니다. 칩을 한꺼번에 열압착으로 붙이고 나서, 언더필 소재를 한 번에 주입해 굳히는 방법입니다. 대량 처리에 유리하지만 공정 조건이 까다롭습니다.

TC-NCF (비전도성 필름 기반 열압착 본딩) 필름 형태의 비전도성 접착제를 칩 사이에 끼워 정밀하게 눌러 붙이는 방식입니다. 정밀도는 높지만 한 번에 처리할 수 있는 양이 적습니다.

이런 고급 패키징 공정이 적용되면서 제조 주기도 길어지는 추세입니다. 일반 D램은 웨이퍼에서 칩이 나오면 비교적 빨리 제품화되지만, HBM은 패키징 공정만으로 몇 주가 추가됩니다.

쉽게 비유하면 — 일반 D램이 아파트 한 층씩 짓는 거라면, HBM은 층간 배선을 직접 연결한 고층 빌딩을 짓는 것과 같습니다. 같은 시간, 같은 인력으로 만들 수 있는 양이 다를 수밖에 없습니다.

MUF

구조적 병목 ③ — 수율이 낮습니다

수율(Yield)은 생산된 칩 중 실제로 팔 수 있는 양품 비율입니다.

HBM에 들어가는 초당 13기가비트 이상의 고성능 메모리 칩은 아직 수율이 낮습니다. 수율이 낮다는 건 같은 웨이퍼에서 나오는 칩 중에 불량품이 많다는 뜻입니다. 열 장을 만들면 다섯 장만 쓸 수 있다면 실질 생산량은 반토막이 나는 거죠.

수율 문제는 두 단계에서 발생합니다.

1단계 — 개별 D램 다이(Die) 수율: HBM용 D램은 초고속 동작을 위한 특수 설계로 일반 D램보다 수율이 낮습니다.

2단계 — 적층 패키징 수율: 10장 이상의 D램을 쌓다 보면, 중간에 하나라도 불량이 있으면 전체를 폐기해야 합니다. 개별 칩 수율이 각각 95%라도 10장을 쌓으면 전체 양품률은 0.95¹⁰ = 약 60%가 됩니다.

수율은 공정 경험이 쌓이면서 점점 올라가지만, HBM이 매 세대(HBM3→HBM3E→HBM4)마다 적층 수가 늘고 구조가 복잡해지기 때문에 수율 개선의 시간을 충분히 확보하기가 어렵습니다.

구조적 병목 ④ — 증설 효과가 수요 증가 속도를 따라가지 못합니다

그렇다면 공장을 더 짓는 건 어떨까요?

이번 D램 호황의 특징은 투자 방향이 '증설'이 아니라 '공정 전환'에 집중돼 있다는 점입니다. 메이저 메모리 업체들은 웨이퍼 투입량 자체를 크게 늘리기보다는 차세대 미세공정 개발과 양산에 자금을 집중하고 있습니다.

반도체 팹(공장)은 짓는 데만 2~3년, 가동 안정화까지 합치면 4~5년이 걸립니다. 지금 삽을 꽂아도 2030년은 돼야 공급이 현실화됩니다.

최태원 SK그룹 회장은 지난달 엔비디아 GTC 2026 현장에서 웨이퍼 공급 부족으로 2030년까지 HBM 수급에 차질이 발생할 것이라고 직접 언급했습니다.

더 근본적인 문제는 증설로 생산량을 늘려도 그 물량을 GPU·ASIC 수요가 그대로 흡수해버린다는 것입니다. 공급이 늘어나는 속도보다 수요가 늘어나는 속도가 빠른 구조입니다.

보고서는 증산이 이루어진다고 해도 첨단 GPU와 ASIC 칩 수요가 새로 늘어난 생산능력을 대부분 흡수할 수 있어, 메모리 부족 상황이 더욱 심화할 가능성이 있다고 설명했습니다.

'메모리 슈퍼사이클'이 과거와 다른 이유

메모리 반도체는 원래 3~4년 주기로 호황과 불황을 반복하는 사이클 산업이었습니다. 2023년에 역대급 불황을 겪은 게 불과 2~3년 전입니다.

그런데 이번엔 다릅니다. AI가 수요 구조를 바꾸면서 증설을 통해 생산량을 조절하고 가격 하락으로 반도체 사이클이 꺾이던 시대는 저물고, AI 인프라 투자로 인한 구조적 수요가 장기 호황을 이끄는 새로운 국면이 열렸다는 평가가 나옵니다.

과거 사이클의 구동 엔진은 PC, 스마트폰 판매량이었습니다. 판매가 꺾이면 메모리 수요도 꺾였습니다. 하지만 AI 데이터센터 투자는 빅테크들의 자본지출(Capex) 계획으로 움직입니다. 구글, 마이크로소프트, 아마존, 메타가 향후 수년간 수천억 달러를 쏟겠다고 이미 선언한 상황입니다.

또 하나 중요한 포인트가 있습니다. 메모리 업체들이 HBM에 클린룸과 장비를 우선 배정하면서, 상대적으로 범용 메모리를 생산할 여력이 줄어들었습니다. 결과적으로 HBM 부족이 일반 D램 부족까지 연쇄적으로 일으키는 구조가 형성됐습니다.

대만 에이데이타 회장은 "D램, 낸드플래시, HDD까지 4대 주요 메모리 제품이 동시에 부족한 건 30년 업력 사상 처음 겪는 일"이라고 말했습니다.

삼성·SK하이닉스·마이크론 — 각사의 현재 상황

기업

현황

SK하이닉스

2026년 분량 완판. UBS 기준 엔비디아 Rubin 플랫폼 HBM4 시장 점유율 약 70% 예상. CES 2026에서 세계 최초 16단 적층 HBM4 공개

삼성전자

올해 HBM 생산량 전년 대비 3배 이상 확대, 절반 이상을 HBM4에 할당. 1분기 영업이익 57조 원(전년 대비 755% 증가)

마이크론

2026년 HBM 판매 매진 발표. 미국 보이시 팹이 이르면 2027년 말 가동 예정 — 단기 공급 확대에 한계

삼성전자는 1분기 D램 가격을 100% 인상했으며, 2분기 공급 제품도 평균 30% 인상한 것으로 알려졌습니다. 이 정도 인상을 고객사들이 그냥 수용한다는 것 자체가 얼마나 심각한 공급 부족인지를 말해줍니다.

리스크 — 모든 게 장밋빛은 아닙니다

이 흐름이 영원히 지속된다는 보장은 없습니다. 점검해야 할 변수들도 있습니다.

HBM 가격 피크아웃 가능성 — 하나증권은 "AI 서버 수요가 견조하더라도 HBM 가격은 2026년 이후 두 자릿수 조정이 나타날 수 있다"고 분석했습니다. 물량은 부족해도 가격은 먼저 꺾일 수 있다는 시각입니다.

기술 전환 리스크 — HBM3E에서 HBM4, 다시 HBM4E로 넘어가는 세대 전환 시기마다 재고 조정이 일어날 수 있습니다.

CXL·PIM 등 대안 기술 — CXL(Compute Express Link) 메모리나 Processing-in-Memory처럼 HBM을 보완하거나 대체하는 기술이 장기적으로는 수급 구조를 바꿀 수 있습니다.

지정학적 리스크 — 미-중 기술 갈등, 대만 TSMC 리스크, 한국 반도체 수출 규제 등은 여전히 불확실성 요인입니다.

결론 — 2030년까지 판이 바뀌지 않는다

정리하겠습니다. HBM 공급 부족이 5년 이상 이어지는 이유는 단순히 수요가 많아서가 아닙니다. 구조가 다릅니다.

수요 측면 — AI 인프라 투자라는 수조 달러 규모의 자본 흐름이 HBM 수요를 장기적으로 뒷받침합니다. 빅테크들의 Capex 계획은 이미 수년치가 예고되어 있습니다.

공급 측면 — MR-MUF·TC-NCF 패키징 공정의 난이도, 낮은 수율, 팹 건설에 필요한 수년의 리드타임이 공급 확대를 물리적으로 제약합니다.

구조적 특성 — 생산량을 늘려도 GPU·ASIC 수요가 그대로 흡수하는 블랙홀 같은 수요 구조가 형성되어 있습니다.

이 세 가지가 맞물려 있는 한, 공급 부족과 가격 상승 기조는 쉽게 꺾이기 어렵습니다. 최태원 회장의 말처럼 2030년까지를 내다봐야 하는 싸움입니다.

메모리 업계로서는 더없이 좋은 시절이지만, 소비자와 완제품 제조사에게는 계속되는 비용 압박입니다. 그리고 이 압박은 GPU 가격, PC 가격, 스마트폰 가격, 클라우드 서비스 이용료까지 도미노처럼 전달되고 있습니다. AI가 만들어낸 수요의 파도가 우리 일상 깊은 곳까지 닿아 있는 셈입니다.

참고 출처: 디지털타임스 "HBM 공급 부족 최소 5년 이상" (2026.04.07) / SK하이닉스 뉴스룸 2026 시장 전망 / BofA 메모리 반도체 보고서 / 테크월드뉴스 D램 슈퍼사이클 분석 / 한국경제 매거진 메모리 슈퍼사이클 전망 / EBN 2026 메모리 산업 전망 / 최태원 SK그룹 회장 GTC 2026 발언

0

댓글 (0)

댓글을 불러오는 중...