Il vulcanico imprenditore tech Elon Musk ha fatto un annuncio clamoroso su X (ex Twitter): la sua azienda xAI ha acceso “il più potente cluster di training AI al mondo”, con l’obiettivo estremamente ambizioso di creare “l’intelligenza artificiale più potente del mondo per ogni metrica entro dicembre di quest’anno”.

L’intelligenza artificiale più potente al mondo è sempre più vicina

Il supercomputer, battezzato con il nome Memphis Supercluster, ha iniziato l’addestramento alle 4:20 del mattino (ora locale) della giornata di oggi con una potenza di fuoco impressionante: ben 100.000 GPU Nvidia H100 raffreddate a liquido e interconnesse tramite un singolo fabric RDMA (Remote Direct Memory Access).

Musk non ha lesinato complimenti al team di xAI, di X, di Nvidia e delle altre aziende coinvolte nel progetto per l’eccezionale lavoro svolto. E in effetti, con 100.000 GPU H100 su un unico fabric RDMA, il Memphis Supercluster può vantare a ragione il titolo di cluster di training AI più potente al mondo.

L’annuncio non arriva del tutto a sorpresa: già nei mesi scorsi Musk aveva espresso l’intenzione di aprire una “Gigafactory of Compute” entro l’autunno del 2025. La scelta di puntare sulle GPU H100 “Hopper” di Nvidia, invece di aspettare le prossime generazioni come le H200 o le ancora più avanzate B100 e B200 basate su architettura Blackwell (previste per fine 2024), si spiega con l’urgenza del progetto e con il fatto che il supercluster di Memphis è già realtà.

A fornire gran parte dell’hardware ci ha pensato Supermicro, il cui CEO Charles Liang si è unito al coro di elogi per l’impresa, sottolineando la complessità del lavoro svolto dal team per centrare l’obiettivo “nel modo più perfetto, veloce, efficiente ed ecologico possibile”.

Ma a cosa servirà tutta questa potenza di calcolo? Musk non ha dubbi: ad “addestrare l’IA più potente del mondo per ogni metrica”. Sulla base delle sue precedenti dichiarazioni, si presume che le 100.000 GPU H100 di xAI saranno ora indirizzate all’addestramento di Grok 3, un Large Language Model (LLM) di nuova generazione che dovrebbe completare la fase di training entro dicembre di quest’anno.

Per dare un’idea di quanto sia potente il Memphis Supercluster, basti pensare che surclassa ampiamente, almeno in termini di scala, qualsiasi altro sistema nella classifica dei migliori cinquecento supercomputer più potenti al mondo. Almeno per il momento, colossi come Frontier (37.888 GPU AMD), Aurora (60.000 GPU Intel) e Microsoft Eagle (14.400 GPU Nvidia H100) impallidiscono al confronto.

L’annuncio di Musk segna un altro importante passo avanti nella corsa globale alle IA sempre più potenti e sofisticate. È del tutto lecito chiedersi se il magnate visionario riuscirà a mantenere la promessa di creare l’IA più potente del mondo entro fine anno. I prossimi mesi ci diranno se il suo obiettivo, tanto ambizioso quanto affascinante, potrà diventare realtà.