퀄컴의 미친 역습…엔비디아의 HBM 대신 LPDDR 메모리로 GPU 시장 공략한다 | 사우디 3조 잭팟 터뜨린 진짜 이유 | LPDDR | HBM
- 퀄컴은 스마트폰/XR용이 아닌 클라우드 기반 AI 추론용 칩 'AI2 AI 250'을 출시하며 엔비디아, AMD 및 빅테크의 자체 칩에 대항하는 서버 시장에 진출했습니다. ☁️
- 이 칩은 HBM 대신 LPDDR 메모리를 사용하여 카드당 768GB의 대용량을 제공, 단일 카드에서 메타 라마 3와 같은 대규모 언어 모델 처리가 가능합니다. 🧠
- 퀄컴은 전력 효율성과 낮은 지연 시간이 핵심인 AI 추론 시장에 집중하며, 엔비디아가 강세인 학습용 GPU 시장과 차별화된 전략을 펼칩니다. ⚡
- '니어 메모리 컴퓨팅' 기술을 통해 효과적인 메모리 대역폭을 10배 높이고 전력 소모를 크게 줄여 폰 노이만 아키텍처의 한계를 극복하려 합니다. 🚀
- LPDDR의 저전력 특성과 대용량 배치를 통해 TCO(총 소유 비용)를 절감하고, 데이터 센터 운영의 전력 효율성을 극대화하는 데 중점을 둡니다. 💰
- AMD의 헬리오스 및 메타의 OCP와 유사하게 랙 스케일 데이터 센터 솔루션으로 접근하며, 이미 사우디아라비아와 대규모 계약을 체결하며 초기 시장 진입에 성공했습니다. 🇸🇦
- 엣지 디바이스에서의 강점을 클라우드로 확장하는 '하이브리드 AI' 전략을 통해 퀄컴의 기존 SOC 설계 및 LPDDR 최적화 역량을 활용합니다. 🌐
- 엔비디아 쿠다 플랫폼의 락인 효과를 극복하기 위해 개방형 SDK 및 소프트웨어 생태계 구축이 중요하며, CXL과 같은 기술과의 연동 가능성도 시사됩니다. 🤝
- AI 인프라 구축 초기 단계에서 다양한 AI 모델 크기와 시공간적 요구에 맞는 특화된 솔루션의 필요성을 강조하며, 퀄컴의 시장 확장 가능성을 긍정적으로 평가합니다. 📈