AMD lancia il nuovo acceleratore AI Instinct MI350

kyojuro mercoledì 11 giugno 2025

Secondo i rapporti dei media esteri, AMD svelerà giovedì prossimo la innovativa serie di acceleratori AI Instinct MI350, segnando un significativo progresso nel settore hardware AI dell'azienda. Utilizzando il processo a 3nm di TSMC e l'architettura CDNA 4 di ultima generazione di AMD, questa nuova serie promette prestazioni di calcolo AI senza precedenti, ponendosi in diretta competizione con la serie Blackwell di NVIDIA. Oltre alle innovazioni nelle specifiche hardware, la serie MI350 migliora anche la compatibilità e l'efficienza delle applicazioni AI grazie all'ecosistema software ROCm ottimizzato, offrendo un supporto robusto per i data center e le operazioni di calcolo AI su larga scala.

Il punto di forza della serie MI350 è la sua configurazione hardware ad alte prestazioni. Un singolo modulo dispone di 288 GB di memoria video HBM3E e di una larghezza di banda di 8 TB/s, aumentando rispettivamente del 12,5% e del 33,3% rispetto al modello MI325X, che presentava 256 GB di memoria video e una larghezza di banda di 6 TB/s. Per quanto riguarda le prestazioni di calcolo, la serie MI350 supporta diversi formati di precisione floating point come FP16, FP8, FP6 e FP4, con prestazioni FP16 che raggiungono i 18,5 PFlops, quelli FP8 i 37 PFlops, e le prestazioni FP6/FP4 giungono fino a 74 PFlops. Rispetto alla versione MI300X, le prestazioni FP16 della serie MI350 sono aumentate di circa 7,4 volte. La capacità di gestione dei parametri del modello è cresciuta da 714 miliardi a 4,2 trilioni, un aumento quasi sei volte superiore. Questa capacità rende la serie MI350 particolarmente efficiente nel soddisfare le esigenze di allenamento e inferenza di grandi modelli linguistici e ibridi con trilioni di parametri.

L'architettura CDNA 4 è il cuore del salto prestazionale della serie MI350. Comparata al MI325X basato su CDNA 3, la CDNA 4 introduce il supporto per i dati a bassa precisione FP4 e FP6, riducendo significativamente la complessità di calcolo e risultando particolarmente adatta per attività di quantizzazione e inferenza di modelli su larga scala. Inoltre, l'utilizzo del processo a 3nm aumenta ulteriormente la densità dei transistor e l'efficienza energetica, con un consumo energetico stimato di oltre 1000W per scheda, rimanendo in linea con il livello di 1000W di NVIDIA B200 e 1700W di GB200. La serie MI350 si avvale anche di una tecnologia avanzata di packaging per supportare fino a otto schede su una singola piattaforma con una capacità di memoria complessiva di 2,3 TB e una larghezza di banda totale fino a 64 TB/s, fornendo risorse sufficienti per gestire carichi di lavoro AI ultra-grandi.

A livello software, AMD continua a raffinare il suo stack software open-source ROCm per supportare al meglio la serie MI350. La versione più recente, ROCm 6.2, offre un miglioramento delle prestazioni inferenziali di 2,4 volte superiore rispetto alla versione 6.0, un miglioramento delle prestazioni di addestramento di 1,8 volte, e supporta tecnologie avanzate come i dati FP8, Flash Attention 3, e Kernel Fusion. AMD ha collaborato strettamente con la comunità open-source per integrare i framework AI più diffusi, come PyTorch, Triton, e ONNX. La serie MI350 è in grado di eseguire modelli AI generativi popolari come Stable Diffusion 3, Llama 3.1, e milioni di modelli sulla piattaforma Hugging Face, colmando il divario tra l'ecosistema software di AMD e quello CUDA di NVIDIA, offrendo allo stesso tempo un ambiente di sviluppo più versatile.

Il debutto della serie MI350 non si limita a riflettere soltanto avanzamenti a livello hardware; esso rappresenta anche la strategia di AMD nel mercato dell'AI. Con Nvidia che presenta il Blackwell B200 (192 GB HBM3E, larghezza di banda di 8 TB/s), la serie MI350 supera del 50% la capacità di memoria, mostrando una larghezza di banda comparabile e prestazioni inferenziali circa 35 volte superiori, collocandosi tra le serie Blackwell e Blackwell Ultra. AMD punta su un miglioramento di 30 volte dell'efficienza energetica entro il 2025 tramite innovazioni architetturali e di packaging. Questo è reso possibile dalla ridotta richiesta energetica del processo 3nm e dall'ottimizzazione architetturale CDNA 4 per il calcolo a bassa precisione, permettendo alla serie MI350 di raggiungere un rapporto prestazioni-su-potenza più elevato nell'ambito del calcolo ad alte prestazioni (HPC) e nell'addestramento AI.

La serie MI350 sarà lanciata ufficialmente nella seconda metà del 2025, con il primo lotto comprendente l'acceleratore MI355X, che sarà integrato nelle piattaforme server di partner come Dell, Lenovo, HP. AMD prevede inoltre di introdurre la serie MI400, basata sull'architettura CDNA 5, nel 2026, per continuare a migliorare prestazioni ed efficienza. Attualmente, gli acceleratori AI AMD trovano impiego in una vasta gamma di applicazioni, e il lancio della serie MI350 rafforzerà ulteriormente la competitività di AMD nel mercato AI per data center.

Tuttavia, AMD deve affrontare sfide continue nel settore hardware AI. Le restrizioni di approvvigionamento della memoria HBM3E potrebbero influire sulla capacità produttiva iniziale della MI350. Rispetto a NVIDIA, AMD ha un lead time di 26 settimane, contro le oltre 52 settimane di NVIDIA, riflettendo la forte domanda di chip AI ad alte prestazioni. Inoltre, sebbene l'ecosistema ROCm stia crescendo rapidamente, necessita di ulteriori miglioramenti nelle funzionalità end-to-end rispetto a CUDA. AMD sta accelerando lo sviluppo dell'ecosistema collaborando con oltre 100 sviluppatori di app AI, ma rimangono da valutare l'efficacia pratica di tali sforzi.

Il lancio della serie MI350 rappresenta un passo cruciale per AMD nella competizione hardware AI. La combinazione del processo a 3nm, dell'architettura CDNA 4 e dei 288 GB di memoria video HBM3E offre un potente supporto per la gestione di modelli AI su vasta scala, mentre il continuo perfezionamento dell'ecosistema ROCm fornisce agli sviluppatori un ambiente software più flessibile. Rispetto ai predecessori, la serie MI350 apporta significativi miglioramenti in termini di prestazioni, efficienza e capacità di gestione del modello. La concorrenza con la serie NVIDIA Blackwell stimolerà ulteriormente i progressi tecnologici nel mercato hardware AI. In prospettiva, la roadmap annuale dei prodotti di AMD e la costante innovazione architettonica rafforzeranno ulteriormente la sua posizione nel settore AI, offrendo soluzioni ad alte prestazioni e a costi contenuti all'industria.

Notizie correlate

© 2025 - TopCPU.net