banner

Notizia

Jan 27, 2024

Google afferma che il suo supercomputer AI è più veloce e più ecologico del chip Nvidia A100

4 aprile (Reuters) - Google di Alphabet Inc (GOOGL.O) ha rilasciato martedì nuovi dettagli sui supercomputer che utilizza per addestrare i suoi modelli di intelligenza artificiale, affermando che i sistemi sono sia più veloci che più efficienti dal punto di vista energetico rispetto ai sistemi comparabili di Nvidia Corp (NVDA .O).

Google ha progettato il proprio chip personalizzato chiamato Tensor Processing Unit o TPU. Utilizza questi chip per oltre il 90% del lavoro dell'azienda sulla formazione dell'intelligenza artificiale, il processo di alimentazione dei dati attraverso modelli per renderli utili in compiti come rispondere a domande con testo simile a quello umano o generare immagini.

Il Google TPU è giunto alla quarta generazione. Martedì Google ha pubblicato un articolo scientifico che descrive in dettaglio come ha messo insieme più di 4.000 chip in un supercomputer utilizzando i propri interruttori ottici sviluppati su misura per aiutare a connettere le singole macchine.

Migliorare queste connessioni è diventato un punto chiave della competizione tra le aziende che costruiscono supercomputer IA perché i cosiddetti modelli linguistici di grandi dimensioni che alimentano tecnologie come Bard di Google o ChatGPT di OpenAI sono esplosi in dimensioni, il che significa che sono troppo grandi per essere archiviati su un singolo chip.

I modelli devono invece essere suddivisi su migliaia di chip, che devono poi lavorare insieme per settimane o più per addestrare il modello. Il modello PaLM di Google, il più grande modello linguistico divulgato pubblicamente fino ad oggi, è stato addestrato suddividendolo su due dei supercomputer da 4.000 chip in 50 giorni.

Google ha affermato che i suoi supercomputer semplificano la riconfigurazione al volo delle connessioni tra i chip, aiutando a evitare problemi e ottimizzando le prestazioni.

"La commutazione del circuito semplifica l'instradamento dei componenti guasti", hanno scritto il Google Fellow Norm Jouppi e il Google Distinguished Engineer David Patterson in un post sul blog sul sistema. "Questa flessibilità ci consente persino di modificare la topologia dell'interconnessione del supercomputer per accelerare le prestazioni di un modello ML (machine learning)."

Sebbene Google rilasci solo ora i dettagli sul suo supercomputer, questo è online all'interno dell'azienda dal 2020 in un data center nella contea di Mayes, in Oklahoma. Google ha affermato che la startup Midjourney ha utilizzato il sistema per addestrare il suo modello, che genera nuove immagini dopo aver inserito alcune parole di testo.

Nel documento, Google afferma che per sistemi di dimensioni comparabili, i suoi chip sono fino a 1,7 volte più veloci e 1,9 volte più efficienti dal punto di vista energetico rispetto a un sistema basato sul chip A100 di Nvidia che era sul mercato contemporaneamente al TPU di quarta generazione. .

Un portavoce di Nvidia ha rifiutato di commentare.

Google ha affermato di non aver confrontato la sua quarta generazione con l'attuale chip H100 di punta di Nvidia perché l'H100 è arrivato sul mercato dopo il chip di Google ed è realizzato con la tecnologia più recente.

Google ha lasciato intendere che potrebbe lavorare su un nuovo TPU in grado di competere con Nvidia H100 ma non ha fornito dettagli, con Jouppi che ha detto a Reuters che Google ha "una sana pipeline di futuri chip".

I nostri standard: i principi fiduciari di Thomson Reuters.

CONDIVIDERE