Fondata nel luglio dello scorso anno, la sua ultima startup di intelligenza artificiale, xAI, ha appena lanciato un nuovo supercomputer chiamato Colossus. Questo sistema è progettato per addestrare il tuo modello linguistico di grandi dimensioni (LLM) noto come Grok, un rivale del più popolare GPT-4 di OpenAI.Anche se Grok è limitato agli abbonati a pagamento dalla piattaforma social di Musk
Musk stima che questo ambizioso progetto strategico potrebbe generare fino a un miliardo di dollari di entrate annuali per Tesla nel lungo termine. Tutto grazie al nuovo data center xAI a Memphis, nel Tennessee, che ora ospita 100.000 processori Nvidia Hopper H100più di qualsiasi altro cluster di calcolo AI nel mondo.“Dall'inizio alla fine, è stato completato in 122 giorni”, ha scritto Musk, definendo Colossus “il sistema di addestramento AI più potente al mondo”.Allo stesso modo, il magnate ha dichiarato che, entro pochi mesi, Colossus “raddoppierà” le sue dimensioni con 200.000 chip AI, che includeranno 50.000 GPU H200, una versione più recente che, secondo Nvidia, avrà il doppio della capacità di memoria del suo predecessore. e fino al 40% in più di larghezza di banda.
Il lancio del mostruoso supercomputer è stato preceduto da polemiche. La settimana scorsa lo volevano i residenti di Memphis, che vivono vicino al data center «livelli di contaminazione insopportabili» causati dalle installazioni, che potrebbero anticipare futuri contenziosi con la società di Musk.Questo sarà l'inizio dei problemi di Colossus. Il suo titolo di sistema di addestramento AI più potente sarà sicuramente migliorato prima piuttosto che dopo. Non è probabile che altri leader dell’intelligenza artificiale, come OpenAI, Microsoft, Google e Meta, rimarranno a guardare, poiché alcuni di loro sono a conoscenza di migliaia di GPU...
Una GPU (Graphic Processing Unit, dal suo acronimo in inglese) è un tipo di processore specializzato nell'esecuzione di calcoli massicci contemporaneamente. Sebbene inizialmente siano stati progettati per elaborare grafica e renderizzare immagini in tempo reale (come nei videogiochi), la loro architettura è ideale per l'elaborazione parallela, il che li rende molto efficienti per eseguire le complesse operazioni matematiche richieste durante l'addestramento di modelli di deep learning o intelligenza artificiale.
Microsoft, ad esempio, mira a riunire 1,8 milioni di chip IA per la fine dell'anno. Da parte sua, la nemesi di Musk, Mark Zuckerberg, ha indicato che Meta intende acquisire 350.000 Nvidia H100 commissioni aggiuntive per la stessa chiusura.Per ora, però, Colossus continua a fare una singolare dichiarazione di pura potenza computazionale, i cui primi frutti vedremo più avanti, quando Grok-3 sarà addestrato e disponibile.Link
Nessun commento:
Posta un commento