솔직히 이건 예상 밖이었습니다. 젠슨 황이 GTC 무대에서 HBM이 아닌 LPDDR의 중요성을 강조하는 장면을 보면서, AI 메모리 판도가 생각보다 훨씬 빠르게 바뀌고 있다는 걸 실감했습니다. 학습에서 추론으로, 데이터 센터에서 손바닥 위 기기로. 패러다임이 이동하고 있고, 그 중심에 메모리 기술 전쟁이 있습니다.

LPDDR 수요 폭증, 숫자가 말해주는 것
제가 직접 관련 자료를 추적해보니, 이 변화의 속도가 단순히 "빠르다"는 말로는 부족합니다. LPDDR(Low Power Double Data Rate)은 저전력 고효율을 구현하는 모바일용 D램입니다. 여기서 LPDDR이란, 스마트폰이나 태블릿처럼 배터리로 구동되는 기기에 탑재하기 위해 전력 소모를 최소화하면서도 빠른 데이터 처리를 가능하게 설계된 메모리 규격을 말합니다. 그간 스마트폰 내부에 조용히 들어앉아 있던 이 메모리가 이제 AI 추론의 핵심 부품으로 위상이 달라졌습니다.
구체적인 수치를 보면 흐름이 더 명확해집니다. 2024년 기준 LPDDR 시장 규모는 약 250억 달러(약 37조 원)였는데, 2030년에는 500억 달러(약 74조 원)로 두 배 성장할 것으로 전망됩니다. 이 전망의 배경에는 온디바이스 AI(On-Device AI)의 확산이 있습니다. 온디바이스 AI란 데이터 센터 서버를 거치지 않고 스마트폰, 스마트워치 같은 기기 자체에서 직접 AI 연산을 처리하는 방식입니다. 서버를 경유하면 필연적으로 지연 시간(레이턴시)이 발생하기 때문에, 실시간 반응이 중요한 에이전트 AI에서는 온디바이스 방식이 훨씬 유리합니다.
구글의 Gemma 4와 메타의 Llama 4를 기반으로 한 Muse Spark가 거의 동시에 공개된 것도 이 맥락에서 읽힙니다. 메타 측은 Muse Spark가 이전 모델 대비 10분의 1 수준의 연산으로 비슷한 성능을 낸다고 자체 평가했습니다. 경량화 경쟁이 소프트웨어 영역에서 이미 시작됐다는 의미입니다. 제 경험상 하드웨어 사이클은 소프트웨어보다 항상 한 박자 느립니다. 그 점이 지금 이 흐름에서 가장 눈여겨봐야 할 지점이기도 합니다.
현재 AI 메모리 생태계에서 역할 분담은 꽤 명확하게 정리되고 있습니다.
- HBM(High Bandwidth Memory): GPU와 함께 대규모 모델 학습에 활용되는 고성능·고비용 메모리
- LPDDR5X: 추론 서버와 온디바이스 기기에 탑재되는 저전력 고효율 메모리. HBM 대비 비용을 최대 10분의 1까지 줄일 수 있는 것으로 알려져 있습니다
- LPW(Low Power Wide): 차세대 온디바이스 AI용으로 주목받는 신규 규격
삼성전자와 SK하이닉스는 현재 LPDDR5X 시장에서도 치열하게 경쟁 중입니다. 삼성이 2024년 말 LPDDR6 세계 최초 개발을 발표하자, SK하이닉스는 4나노 공정 기반 LPDDR 인증 완료로 맞불을 놨습니다. 숫자 싸움이 아니라 기술 로드맵 주도권을 두고 벌이는 자존심 대결입니다(출처: 삼성전자 뉴스룸).
LPW가 게임 체인저가 될 수 있는가
제가 이번에 가장 집중해서 살펴본 부분이 바로 LPW입니다. LPW(Low Power Wide)란 입출력 채널의 폭을 대폭 넓혀서 데이터 처리 대역폭을 높이면서도 전력 소모를 낮춘 차세대 메모리 기술입니다. 쉽게 말해, 빠른 속도보다 넓은 통로를 선택한 설계 철학입니다.
기존 LPDDR의 입출력 채널 수가 16개에서 32개 수준이라면, LPW는 이를 8배에서 16배까지 넓힙니다. 리포트에서 나온 비유가 꽤 인상적이었는데, 저도 독자분들께 같은 방식으로 설명드리겠습니다. LPDDR이 2차선 도로를 시속 200km로 달리는 스포츠카라면, LPW는 16차선 고속도로를 시속 60km로 달리는 대형 트럭들의 행렬입니다. 처리 속도 자체는 느리지만, 한 번에 옮기는 데이터 총량이 압도적으로 많습니다. AI 추론 작업처럼 대규모 데이터를 낮은 지연으로 처리해야 하는 환경에서는 이 구조가 훨씬 효율적일 수 있습니다.
이 기술이 '모바일계의 HBM'으로 불리는 이유도 여기에 있습니다. HBM은 D램 칩을 수직으로 쌓아 올려 넓은 대역폭을 확보한 구조입니다. 여기서 HBM이란 메모리 다이를 적층 연결하고 실리콘 관통전극(TSV) 기술로 GPU와 초근거리 배치하여 초고속 데이터 전송을 구현하는 메모리 방식을 뜻합니다. LPW는 적층 방식은 아니지만 채널 수를 극적으로 늘려 비슷한 대역폭 효과를 저전력으로 달성하겠다는 접근입니다.
다만 제가 느끼는 비판적 시각도 솔직히 짚고 넘어가야 합니다. 먼저 표준화 문제입니다. 삼성전자는 이 기술을 LLW(Low Latency Wide)라는 이름으로, SK하이닉스는 VLPDDR 또는 커스텀 LPDDR이라는 명칭으로 각각 부르고 있습니다. 규격 자체가 아직 확정되지 않은 상태에서 기업별 네이밍이 파편화되면, 애플·퀄컴 같은 칩 설계사 입장에서는 채택 결정이 복잡해집니다. 생태계 구축이 늦어지면 기술의 완성도와 무관하게 시장 진입이 지연될 수 있습니다.
두 번째는 상용화 타이밍의 문제입니다. 삼성은 LPW D램을 2028년 상용화하겠다고 밝혔습니다. 그런데 소프트웨어 경량화 기술은 지금 이 순간에도 가속 중입니다. 2028년이면 현재의 Gemma나 Llama 기반 모델이 알고리즘 수준에서 메모리 한계를 이미 우회하고 있을 가능성도 배제할 수 없습니다. 하드웨어가 도착했을 때 소프트웨어가 이미 다음 단계로 이동해 있는 시나리오, 이건 제가 지난 포스팅에서도 반복해서 경계해온 지점입니다.
세 번째로, 수익성 역설도 생각해볼 필요가 있습니다. 추론용 LPDDR 계열 메모리가 HBM의 10분의 1 비용으로 유사한 효율을 낸다는 건 사용자에게는 분명 이점이지만, 삼성전자와 SK하이닉스 입장에서는 고마진 HBM 시장이 저단가 추론 메모리로 일부 잠식되는 캐니벌라이제이션(Cannibalization) 리스크를 안고 가는 것입니다. 두 회사가 동시에 HBM과 LPDDR 양쪽을 강화하는 방향으로 움직이는 건 그 때문이기도 합니다. 반도체 산업 전반의 메모리 포트폴리오 전략을 분석한 자료에서도 이 이중 구조의 리스크는 지속적으로 언급되고 있습니다(출처: 한국반도체산업협회).
경량형 AI 시대가 열릴수록 메모리 산업의 구조도 함께 재편됩니다. 고성능 일변도에서 고효율·저전력 병행 구조로 전환되는 이 흐름은, 단순히 칩 스펙의 변화가 아니라 반도체 생태계 전체 수익 모델의 재설계를 의미합니다. 2028년 LPW 상용화 시점까지 소프트웨어 경량화와 하드웨어 진화가 어떻게 교차할지, 그리고 삼성과 하이닉스 중 누가 먼저 업계 표준 지위를 선점할지가 앞으로 제가 계속 추적할 핵심 변수입니다. 관심 있는 분들은 LPDDR6와 LLW 관련 삼성전자 공식 발표 일정을 주기적으로 확인해보시길 권합니다.
'경제 News' 카테고리의 다른 글
| 한국 금리 역설 (유동성 함정, 코리아 리스크, 생존 전략) (0) | 2026.04.21 |
|---|---|
| 2030 청약 당첨 (추첨제, 신생아특공, 반값여행) (0) | 2026.04.20 |
| 4월 투자 생존법 (마진콜, 헬륨 공급망, 외국인 엑소더스) (1) | 2026.04.19 |
| 삼성전자 주가 (실적, 베어플래트닝, 반도체피크아웃) (0) | 2026.04.18 |
| 주담대 금리 7% 돌파 (금리 절벽, 가산 금리, 매물 절벽) (1) | 2026.04.17 |