Il settore delle GPU per l’intelligenza artificiale (IA) sta per vivere una rivoluzione con l’arrivo delle nuove generazioni di memoria HBM3 e HBM3e. Secondo TrendForce, questa tecnologia ha suscitato un interesse significativo da parte delle aziende, spingendo verso l’adozione della DRAM.
Le future GPU per l’IA di NVIDIA e AMD sfrutteranno le potenti capacità delle memorie HBM3, alzando notevolmente il livello delle prestazioni. Attualmente, le GPU per l’IA di NVIDIA A100 e H100 sono alimentate rispettivamente da memoria HBM2e e HBM3, introdotte nel 2018 e nel 2020. Tuttavia, con aziende leader come Micron, SK Hynix e Samsung che stanno investendo nella produzione di massa della nuova e migliorata memoria HBM3, la sua introduzione sul mercato è sempre più vicina.
Una caratteristica poco conosciuta della memoria HBM3 è la sua varietà. Le versioni di fascia bassa operano a velocità comprese tra 5,6 e 6,4 Gbps, mentre le varianti di fascia alta superano i 8 Gbps. Queste ultime, chiamate HBM3P, HBM3A, HBM3+ e HBM3 Gen2, promettono prestazioni sorprendenti.
Le future GPU per l’IA, come l’attesa AMD MI300 Instinct e l’H100 di NVIDIA, si baseranno sulle memorie HBM3 di prossima generazione prodotte da SK Hynix, che ha già raggiunto fasi avanzate di produzione per soddisfare la richiesta di campioni ricevuti direttamente da NVIDIA. Micron, d’altra parte, sta già progettando il futuro, annunciando di recente i piani per la realizzazione della memoria HBM4, prevista per il 2026.
Le prossime GPU di NVIDIA Blackwell, con il nome in codice “GB100”, dovrebbero utilizzare varianti più veloci di HBM3. Nel frattempo, la produzione di massa della memoria HBM3E, basata sulla tecnologia di processo di quinta generazione (10nm), dovrebbe iniziare nel primo semestre del 2024, con Samsung e SK Hynix pronte ad aumentare la produzione.
L’industria dell’IA si prevede che crescerà in modo significativo, con un aumento stimato delle spedizioni dei server del 15,4% e un tasso di crescita annuale composto (CAGR) del 12,2% dal 2023 al 2027. Questo aumento delle spedizioni porterà a una maggiore competizione tra le aziende e l’avvento delle memorie HBM3 e HBM3e rappresenta solo uno degli sviluppi per il futuro dell’IA.
NVIDIA e AMD puntano su HBM3 sulle GPU IA del futuro
Le nuove generazioni di memoria HBM3 e HBM3e stanno rivoluzionando l’industria delle GPU per l’intelligenza artificiale (IA). Ciò ha generato un notevole interesse da parte delle aziende e ha spinto verso l’adozione della DRAM. NVIDIA e AMD utilizzeranno le potenti capacità delle memorie HBM3 per le loro future GPU per l’IA, alzando notevolmente le prestazioni. Attualmente, le GPU per l’IA di NVIDIA A100 e H100 utilizzano rispettivamente memoria HBM2e e HBM3, ma l’entrata sul mercato della nuova e migliorata memoria HBM3 è sempre più imminente grazie agli investimenti di aziende come Micron, SK Hynix e Samsung. La memoria HBM3 ha diverse varianti, con velocità che vanno da 5,6 a 6,4 Gbps per la fascia bassa e superiori a 8 Gbps per le varianti di fascia alta. Le future GPU per l’IA come AMD MI300 Instinct e NVIDIA H100 si baseranno sulle memorie HBM3 di prossima generazione prodotte da SK Hynix. Micron ha annunciato i piani per la memoria HBM4, prevista per il 2026. Le prossime GPU NVIDIA Blackwell utilizzeranno varianti più veloci di HBM3, mentre la produzione in massa della memoria HBM3E basata sulla tecnologia di processo di quinta generazione inizierà nel primo semestre del 2024. L’industria dell’IA prevede una crescita significativa, con un aumento delle spedizioni dei server e un tasso di crescita annuale composto del 12,2% fino al 2027. L’avvento delle memorie HBM3 e HBM3e rappresenta solo uno degli sviluppi futuri per l’IA.