Secondo quanto riportato dai media, AMD ha in programma di lanciare la prossima generazione di acceleratori Instinct serie MI400 nella seconda metà del 2026. La serie includerà due modelli distinti: MI450X, progettato specificamente per l'intelligenza artificiale (AI), e MI430X, dedicato al calcolo ad alte prestazioni (HPC).
La serie MI400 si basa sulla nuova architettura CDNA Next di AMD. Contrariamente alla serie MI300, che è stata concepita per supportare sia AI che HPC, ma che presenta limiti nelle prestazioni di punta a causa della sua natura multifunzionale, la serie MI400 offre soluzioni più specializzate. Il modello MI450X è ottimizzato per compiti di AI, concentrandosi su formati di calcolo a bassa precisione come FP4, FP8 e BF16, mentre omette la logica FP32 e FP64. D'altra parte, il MI430X è studiato per migliorare le capacità HPC, supportando calcoli FP32 e FP64 ad alta precisione, escludendo le funzionalità AI a precisione inferiore. Questa architettura focalizzata permette ai modelli MI450X e MI430X di eccellere nei rispettivi ambiti, tra cui l'addestramento AI, l'inferenza e i calcoli scientifici.
Per quanto riguarda le specifiche tecniche, la serie MI400 mantiene i punti di forza di AMD in termini di capacità di memoria e larghezza di banda. Guardando alla serie MI300, il MI300X includeva 192 GB di memoria HBM3 con una larghezza di banda di 5,3 TB/s, aggiornata nel MI325X a 256 GB di HBM3E e 6 TB/s di larghezza di banda. La serie MI400 potrebbe adottare HBM3E o HBM4, raggiungendo fino a 288 GB di memoria e aumentando ulteriormente la larghezza di banda, adatta per modelli IA su larga scala e applicazioni HPC. Il MI300X raggiungeva un picco teorico di 2.614,9 TFLOPS a precisione FP8, e la serie MI400 è prevista per migliorare significativamente queste prestazioni grazie a miglioramenti architetturali e di processo come il passaggio a tecnologie a 3nm.
Una caratteristica distintiva della serie MI400 è l'inclusione della tecnologia di interconnessione UALink. Questo strumento di connessione GPU scalabile e ad alte prestazioni, sviluppato da AMD in collaborazione con Intel, Microsoft e altri, mira a competere direttamente con NVLink di Nvidia. UALink supporta trasferimenti dati ad alta larghezza di banda e bassa latenza, ideale per la costruzione di grandi cluster di AI e HPC. Tuttavia, la sua commercializzazione incontra ostacoli, poiché l'arrivo sul mercato di silicio per switch maturi da parte di fornitori esterni come Astera Labs ed Enfabrica è previsto non prima del 2026. Di conseguenza, l'utilizzo di UALink nella serie MI400 potrebbe inizialmente essere limitato a piccole topologie di mesh o ad anello, date le dipendenze di AMD dai partner per gli switch UALink, introducendo incertezze nell'implementazione. Allo stesso tempo, le soluzioni di rete più sviluppate del consorzio Ultra Ethernet potrebbero offrire alternative scalabili.
Oltre a UALink, la serie MI400 continuerà a supportare la tecnologia Infinity Fabric di AMD, che garantisce comunicazioni inter-chip ad alta throughput e bassissima latenza. AMD ha in programma di introdurre soluzioni a livello di sistema basate su Infinity Fabric, come MI450X IF64 e MI450X IF128, capaci di supportare rispettivamente 64 e 128 GPU in configurazioni cluster. Queste configurazioni si connetteranno tramite Ethernet, sfidando soluzioni di livello rack come il VR200 NVL144 di Nvidia. Infinity Fabric ha già dimostrato la sua utilità nella serie MI300, con le APU MI300A che raggiungono una larghezza di banda fino a 5,3 TB/s attraverso una struttura di memoria unificata CPU-GPU, capacità che si prevede saranno ulteriormente raffinate nella serie MI400.
Il design della serie MI400 riflette anche l'innovazione continua di AMD nell'architettura modulare. Recenti approfondimenti rivelano che il MI400 avrà un design chiplet dotato di due Active Interposer Die (AID), ognuno dei quali ospiterà quattro Accelerated Compute Die (XCD), per un totale di otto XCD, rispetto ai due XCD per AID della serie MI300. Inoltre, con l'introduzione del Multimedia IO Die (MID) si mira ad aumentare il throughput dei dati e l'efficienza di elaborazione, non solo migliorando le prestazioni ma anche riducendo i costi di produzione e aumentando l'adattabilità del prodotto.
Posizionata sul mercato per competere direttamente con le architetture Hopper e Blackwell di Nvidia, la serie MI400 mira a migliorare le prestazioni attraverso l'ottimizzazione AI a bassa precisione e il supporto HPC ad alta precisione. Con la GPU H100 di NVIDIA che ha raggiunto un picco di 1978,9 TFLOPS nel FP8, la MI325X di AMD ha già superato questo livello di performance. Inoltre, la piattaforma software ROCm di AMD è compatibile con la serie MI400. L'ultima versione 6.2 di ROCm migliora l'efficienza dell'inferenza e dell'addestramento rispettivamente di 2,4 e 1,8 volte, e integra funzionalità chiave di AI come FP8 e Flash Attention 3, mantenendo la competitività dell'ecosistema software della serie MI400.
Tuttavia, le sfide per la serie MI400 permangono. Oltre ai limiti di UALink, il marchio AMD nel settore AI è ancora in ritardo rispetto a Nvidia, che beneficia di un ecosistema CUDA consolidato e di una presenza anticipata nel mercato. AMD cerca di attirare gli utenti attraverso la sua piattaforma ROCm aperta e vantaggi in termini di rapporto prezzo/prestazioni. Inoltre, il mercato in rapida evoluzione dell'AI e dell'HPC richiede un costante sviluppo e iterazione da parte di AMD. Rapporti indicano che la serie MI350 (basata su architettura CDNA 4) è in programma per la metà del 2025, con supporto a formati come FP4 e FP6, e prestazioni FP16 potenzialmente fino a 2,3 PFLOPS.
Con la crescente domanda nei mercati AI e HPC, modelli come l'AI generativa richiedono maggiore memoria e potenza di calcolo, mentre le applicazioni HPC necessitano di calcolo preciso e supporto su larga scala. La serie MI400 di AMD affronta queste sfide tramite una strategia di differenziazione e specializzazione. Allo stesso tempo, gli sviluppi negli standard di interconnessione aperti come UALink e Ultra Ethernet preparano il terreno per architetture più flessibili e scalabili, che potrebbero beneficiare notevolmente aziende come AMD.
La serie AMD Instinct MI400 dimostra le sue capacità in AI e HPC attraverso design personalizzati, interconnessioni avanzate e architetture modulari. Con l'arrivo imminente dei modelli MI450X e MI430X, gli utenti possono aspettarsi soluzioni specializzate, ulteriormente potenziate dall'integrazione di Infinity Fabric e UALink, aumentando il potenziale di implementazione in ambienti cluster. Nonostante le sfide legate alla tecnologia di interconnessione e alla concorrenza di mercato, l'approccio innovativo della serie MI400 e la strategia proattiva di AMD la posizionano per diventare una presenza di spicco nel panorama delle GPU per data center entro il 2026.