
Quanto consuma l’Intelligenza Artificiale?
Andiamo dritti al punto. In quest’articolo pubblicato su The Verge, dati dell’Agenzia Internazionale per l’Energia alla mano, entro il 2026 i data center coinvolti nell’ampia sfera dell’AI e del mining di criptovalute consumeranno la bellezza di 1.050 TWh di energia. Per intenderci, stiamo parlando di un valore pari al fabbisogno energetico dell’intera Germania.
I consumi energetici dell'AI
Ma cos’è, nell’AI, che consuma così tanto? Innanzitutto gli LLM, ovvero i grandi modelli di linguaggio, come ChatGPT. Poi la generazione di immagini, da DALL-E a Midjourney.
Nella loro fase di apprendimento, ma anche ogni volta che chiediamo qualcosa al modello, questo deve attivarsi per costruire la risposta. Sia essa un testo o un’immagine.
Addestrare GPT 3 ha richiesto 1.300MWh, cioè il fabbisogno di un anno di 130 case americane.
Se pensi che, nell’ultimo anno, l’incremento dell’uso dell’AI nelle sue varie forme, in Italia, è aumentato del 30% circa, ecco che la crescita esponenziale di questa tecnologia, che è inarrestabile, pone due ordini di problemi. Il primo sicuramente di approvvigionamento energetico, perché non ci sono solo l’AI, il mining e il consumo domestico/industriale, ma c’è anche una decisa virata verso la mobilità elettrica, che ha bisogno anch’essa di energia per ricaricare i veicoli (auto, ma anche futuri camion).
C’è poi un potenziale problema di inquinamento, perché il tasso di crescita (e di assorbimento energetico) di queste tecnologie è incommensurabilmente superiore all’implementazione di sistemi di produzione energetica, come il nucleare, che richiedono almeno un decennio per vedere una centrale realizzata. Figuriamoci di tutte le centrali necessarie a generare l’energia che un sempre più pervasivo ricorso all’AI richiederà.
É possibile ridurre i consumi dell'Intelligenza Artificiale?
Di soluzioni sul campo ce ne sono diverse. Sicuramente una maggiore produzione di energia green, ma c’è un’altra strada interessante: l’ottimizzazione degli LLM.
Come? Ce lo spiega l’Allen Institute for Artifical Intelligence, o Ai2.
Per andare oltre, dobbiamo spiegarti come puoi addestrare un modello di linguaggio naturale. Hai due strade: o gli dai in pasto grandissime quantità di dati non categorizzati, che è quello che fa OpenAI con GPT, oppure gli dai in pasto dati categorizzati e controllati, che è la strada scelta da Ai2 per il suo Molmo.
Tecnicamente, si dice che il primo è un apprendimento non supervisionato, il secondo un apprendimento supervisionato. E i vantaggi di quest’ultimo sono appunto che le informazioni in ingresso hanno una qualità maggiore, si riduce quindi il rischio di allucinazioni da parte del modello (cioè che generi dati apparentemente corretti, in realtà del tutto inventati), ma soprattutto che richiede molta meno complessità e quindi molta più rapidità nel generare la risposta. E minori tempi si traducono anche in minor dispendio di energia.
Molmo: un nuovo modello AI open-source
I dati sono stupefacenti, perché Molmo è fino a dieci volte più veloce di GPT, ma anche di altri modelli, pur avendo una struttura molto meno complessa. Trovi tutti i dati di dettaglio qui.
Come se non bastasse, la maggior parte del codice di Molmo è open source. Lo puoi testare gratuitamente e, nella sua incarnazione attuale, ti permette di lavorare partendo da un’immagine dove, dandogli ad esempio una foto di una pila di libri, ti sa estrarre i titoli e dirti di cosa parlino.
Pensa al suo utilizzo in ambito medico, dove dalla foto di una TAC è in grado di riconoscere lesioni anche molto piccole, permettendo di prevenire situazioni gravi.
Insomma, la qualità dell’addestramento di un LLM è una delle strade che ci permetterà di avere un AI scalabile e meno impattante sui consumi di energia, unita ad una maggiore attendibilità del risultato ottenuto!
Scrivici per saperne di più