
L’immenso fabbisogno di elettricità dell’informatica basata sull’intelligenza artificiale è stato segnalato fin dall’inizio come un collo di bottiglia, spingendo Alphabet Google Il cloud per pianificare come procurarsi energia e come utilizzarla, secondo il CEO di Google Cloud Thomas Kurian.
Parlando al Evento Fortune Brainstorm AI a San Francisco lunedì, ha sottolineato che l’azienda, un fattore chiave nel panorama delle infrastrutture di intelligenza artificiale, ha lavorato sull’intelligenza artificiale ben prima che arrivassero i grandi modelli linguistici e ha avuto una visione a lungo termine.
“Sapevamo anche che la cosa più problematica che sarebbe accaduta sarebbe stata l’energia, perché l’energia e i data center sarebbero diventati un collo di bottiglia insieme ai chip”, ha detto Kurian Della fortunaAndrea Nusca. “Quindi abbiamo progettato le nostre macchine affinché fossero super efficienti.”
L’Agenzia internazionale per l’energia ha stimato che alcuni data center incentrati sull’intelligenza artificiale consumano tanta elettricità quanto 100.000 case e che alcune delle strutture più grandi in costruzione potrebbero addirittura utilizzare 20 volte tale quantità.
Allo stesso tempo, la capacità mondiale dei data center aumenterà del 46% nei prossimi due anni, equivalente a un salto di quasi 21.000 megawatt, secondo alla società di consulenza immobiliare Knight Frank.
All’evento Brainstorm, Kurian ha illustrato il triplice approccio di Google Cloud per garantire che ci sia abbastanza energia per soddisfare tutta quella domanda.
Innanzitutto, l’azienda cerca di essere il più diversificata possibile nei tipi di energia che alimentano il calcolo dell’intelligenza artificiale. Sebbene molte persone affermino che è possibile utilizzare qualsiasi forma di energia, in realtà non è vero, ha affermato.
“Se stai eseguendo un cluster per la formazione e ne parli e inizi a eseguire un lavoro di formazione, il picco che hai con quel calcolo attira così tanta energia che non puoi gestirla da alcune forme di produzione di energia”, ha spiegato Kurian.
La seconda parte della strategia di Google Cloud è essere quanto più efficiente possibile, compreso il riutilizzo dell’energia all’interno dei data center, ha aggiunto.
L’azienda, infatti, utilizza l’intelligenza artificiale nei suoi sistemi di controllo per monitorare gli scambi termodinamici necessari a sfruttare l’energia già immessa nei data center.
E in terzo luogo, Google Cloud sta lavorando su “alcune nuove tecnologie fondamentali per creare effettivamente energia in nuove forme”, ha affermato Kurian senza approfondire ulteriormente.
Lunedì scorso, società di servizi pubblici NextEra Energia e Google Cloud hanno affermato che stanno espandendo la loro partnership e svilupperanno nuovi campus di data center negli Stati Uniti che includeranno anche nuove centrali elettriche.
I leader tecnologici hanno avvertito che l’approvvigionamento energetico è fondamentale per lo sviluppo dell’intelligenza artificiale, insieme alle innovazioni nei chip e ai modelli linguistici migliorati.
IL capacità di costruire data center è anche un altro potenziale punto di strozzatura. Nvidia Il CEO Jensen Huang ha recentemente sottolineato il vantaggio della Cina su questo fronte rispetto agli Stati Uniti
“Se vuoi costruire un data center qui negli Stati Uniti, ci vorranno circa tre anni per passare dalla costruzione del terreno alla realizzazione di un supercomputer AI.” ha detto al Centro per gli studi strategici e internazionali a fine novembre. “Possono costruire un ospedale in un fine settimana.”
