AI 인프라에서 가장 조용하지만 가장 빠르게 바뀌는 분야가 있습니다.
바로 엔터프라이즈 SSD와 니어라인 SSD예요. GPU, HBM처럼 눈에 띄진 않지만, 실제로 대규모 AI 모델을 ‘굴리는 힘’의 절반 이상은 스토리지 속도와 용량이 결정합니다.
📌 왜 AI 시대엔 ‘SSD 구조’까지 바뀌고 있을까?
ChatGPT, Claude, Gemini 같은 초거대 모델은 훈련 1회에 수백 PB(Petabyte) 데이터를 필요로 합니다. 문제를 더 복잡하게 만드는 건:
- 훈련 데이터 증가 속도가 저장장치 투자 속도보다 빠르다는 점
- GPU가 아무리 빨라도, SSD가 느리면 서버 전체가 병목되는 구조
- AI inference(추론)에서도 대규모 데이터 캐싱이 필수
그래서 저장장치 시장에서는 최근 몇 년간 매우 빠른 변화가 일어나고 있습니다.
📌 엔터프라이즈 SSD 시장 성장률은 ‘상상 이상’
전문가들은 2024~2030년 동안 엔터프라이즈 SSD 시장이 연평균 35% 성장한다고 봅니다. 수요량은 아래처럼 증가합니다.
- 2024년: 181EB
- 2030년: 1,078EB(약 6배 ↑)
여기서 중요한 포인트는 AI 서버 1대당 필요한 SSD 용량이 급증하고 있다는 사실이에요.
● 훈련(Training) 서버 → 초고용량 SSD 필요
- 기존: 30TB
- AI 시대: 80~100TB 이상
● 추론(Inference) 서버 → 초고속 읽기 성능 요구
- 기존: 5TB
- AI 시대: 20~35TB
이 때문에 SSD는 단순 저장장치가 아니라, AI 처리 속도와 전력 효율을 결정하는 핵심 부품으로 바뀌고 있습니다.
📌 니어라인 SSD(Nearline SSD)의 시대가 열린다
과거엔 데이터센터의 ‘콜드데이터 보관’용으로 HDD가 널리 쓰였죠. 하지만 AI 시대부터는 이야기가 완전히 달라졌습니다.
- AI는 학습·추론 모두에서 대용량 데이터 접근 속도가 중요함
- HDD는 속도 한계로 병목을 유발
- 전력 대비 성능(Power-to-Performance)이 너무 낮음
그래서 등장한 개념이 니어라인 SSD입니다. HDD의 대용량 + SSD의 속도를 결합한 개념으로, 2026년 이후부터는 HDD→SSD 전환이 본격화될 전망입니다.
📌 AI 시대 SSD의 2강: 삼성전자 · SK하이닉스
AI 저장장치 분야에서 한국 기업들은 글로벌 최상위권을 차지하고 있습니다. 특히 엔터프라이즈 SSD와 컨트롤러 기술에 강점이 있어요.
● 삼성전자
- NAND 글로벌 점유율 1위
- 30TB 이상 엔터프라이즈 SSD 상용화
- ZNS, V-NAND 기술 리더십 보유
● SK하이닉스·Solidigm
- 데이터센터용 QLC·PLC SSD 개발 가속
- AI 서버용 고성능 컨트롤러·펌웨어 기술 확보
- 니어라인 SSD 설계에 강점
📌 투자 관점: 무엇을 체크해야 할까?
| 항목 | 체크 포인트 |
|---|---|
| 기업 기술력 | 컨트롤러·펌웨어 자체 설계 여부 |
| 고객 라인업 | AI 기업·데이터센터향 CAPA 증가 여부 |
| 제품 스펙 | ZNS, PCIe 5.0/6.0, 대용량 SSD 출시 속도 |
| 전환 속도 | HDD→SSD 전환률, 니어라인 채택 속도 |
📌 더 깊게 알고 싶다면?
독자들이 가장 많이 궁금해하는 “AI 데이터센터가 왜 이렇게 많은 저장장치를 필요로 하는가?”에 대한 전문가 분석이 아래 링크에 잘 정리되어 있어요.
※ 본 글은 AI 인프라 산업 동향을 쉽게 이해하기 위한 요약이며, 투자 판단은 독자 본인의 책임입니다.
