(Teleborsa) -
Microsoft ha presentato
Maia 200, un innovativo acceleratore di
intelligenza artificiale progettato specificamente per ottimizzare l'efficienza economica nella generazione di token e nei processi di inferenza. Realizzato con il processo a
3 nanometri di
TSMC, il chip integra oltre 140 miliardi di transistor e una memoria ridisegnata che vanta 216GB di HBM3e con una larghezza di banda di 7 TB/s.
Secondo quanto dichiarato dall'azienda, Maia 200 rappresenta il silicio proprietario più performante mai realizzato da un hyperscaler, offrendo
prestazioni tre volte superiori rispetto alla terza generazione di
Amazon Trainium in ambito FP4 e superando i risultati della settima generazione di
TPU di Google in FP8.
L'efficienza del sistema si traduce in un
miglioramento del 30% del rapporto prestazioni per dollaro rispetto all'hardware di precedente generazione presente nella flotta Azure. Maia 200 è destinato a supportare
molteplici modelli linguistici, tra cui i futuri
GPT-5.2 di
OpenAI, portando vantaggi diretti a servizi come
Microsoft 365 Copilot.
Il team
Microsoft Superintelligence utilizzerà inoltre l'acceleratore per la generazione di dati sintetici e per il reinforcement learning, accelerando la creazione di dati di alta qualità necessari per l'addestramento dei modelli di prossima generazione.
Sotto il
profilo infrastrutturale, il chip è già operativo nella regione
datacenter US Central, in Iowa, con un'espansione imminente verso l'
Arizona.
Microsoft ha spiegato di aver adottato un approccio di sviluppo
cloud-native che ha permesso di dimezzare i tempi necessari per passare dal primo prototipo di silicio alla distribuzione nei rack operativi. Il sistema integra tecnologie avanzate di raffreddamento a liquido a circuito chiuso e si avvale del Maia SDK, che offre agli sviluppatori strumenti ottimizzati, tra cui l'integrazione con
PyTorch e un compilatore
Triton, per garantire massima flessibilità e controllo nella gestione dei carichi di lavoro IA su larga scala.