Quanto mangia un’intelligenza artificiale
La newsletter numero 143 del 29 agosto 2025
Ciao,
sono Ivo Silvestro e questa è la 143ª edizione della mia newsletter settimanale di segnalazioni – che trovate anche nel numero extra del lunedì – e riflessioni che ritorna dopo la pausa estiva che mi ero dimenticato di annunciare.
Oggi parlo di LLM ed ecologia, di parodie che non lo erano e di un cubo nero.
Ma prima una foto:
Agosto è il mese del Locarno film festival e di giornate lavorative di 16 ore – per carità, guardare film e incontrare registi1 non è come lavorare in miniera, ma non ho avuto l’energia mentale per mandare avanti questa newsletter, nonostante avessi già pronto un po’ di materiale che leggerete nelle prossime settimane.
Una bottiglia, un bicchiere, un cucchiaino
Vi siete mai chiesti quanto consuma una chiacchierata con ChatGPT?
Ora, non c’è nulla di male nell’iniziare un articolo con una domanda retorica – ma questa non lo è e quindi la trasformo in un sondaggio:
Perché, da buon, filosofo, prima di cercare risposte cerco le domande per capire da dove vengono e cosa nascondono. E qui certo, c’è una comprensibile e giusta preoccupazione per i consumi energetici di una tecnologia che si sta diffondendo molto velocemente e che ci ritroviamo sia in posti dove potrebbe anche essere sensato usarla – come i motori di ricerca con una sintesi dei risultati – sia dove non capisci proprio chi abbia avuto l’idea di metterla lì (vedi la chat in WhatsApp).
La crisi climatica non è più uno scenario ipotetico, ma una realtà con cui ci confrontiamo sempre più spesso con eventi estremi sempre più intensi e frequenti: un minimo di attenzione per l’impatto ecologico delle nostre attività quotidiane – e, ripeto, le IA generative sono ormai un’attività quotidiana per chiunque usi uno strumento tecnologico – è direi un dovere. Ma perché proprio le IA generative, quando il grosso delle emissioni arriva da trasporti, produzione di alimenti e riscaldamento?
Certo, le IA sono una novità, riscaldare casa o andare a fare la spesa in auto no e si sa, noi esseri umani prestiamo maggiore attenzione alle novità. Ma non sono sicuro che il discorso si fermi qui.
Il fatto è che le intelligenze artificiali generative solo un ambito perfetto per parlare di responsabilità individuale: tutto sembra essere in mano nostra, visto che potremmo fare tranquillamente a meno di questo strumento che spesso usiamo per semplice curiosità. Se davvero abbiamo a cuore l’ambiente, di fronte alla notizia che una conversazione con ChatGPT consuma una bottiglia d’acqua non possiamo fare altro che disinstallare l’app dal nostro smartphone. Se non lo facciamo, non ci resta che concludere che abbiamo l’ambiente a cuore a parole e non a fatti.
Il che potrebbe anche essere vero: cambiare il proprio comportamento, rinunciare alle comodità o anche solo abitudini e difficili. Ma è solo una parte della storia: ne manca un pezzo, e pure bello grosso. Perché non è vero che tutto è in mano nostra: solo in rari casi le nostre scelte avvengono nel vuoto della piena autonomia individuale. La normalità è prendere decisioni in un contesto sociale, culturale, economico che è pieno di limitazioni, vincoli, paletti, negoziazioni, obblighi eccetera.
Esempio banale: con la parziale eccezione di alcuni centri urbani, la mobilità è concepita intorno all’automobile. Chi decide i ritmi della giornata raramente prende in considerazione gli orari dei mezzi pubblici di trasporto, i centri di interesse sono perlopiù costruiti in luoghi raggiungibili in auto, chi progetta le strade pensa solo in un secondo tempo a biciclette e altri mezzi di trasporto eccetera. Fino a che punto la scelta di non muoversi in auto – o di passare a un’auto elettrica che ha bisogno di una rete di ricarica, di un certo tipo di allacciamenti eccetera – dipende dal singolo?
Se è vero – e non lo è, ma ci arriveremo – che una conversazione con ChatGPT consuma una bottiglia d’acqua, la responsabilità è nostra che usiamo lo strumento o di un sistema economico e politico che dà la priorità a chi per primo presenta il prodotto più potente e non il più sicuro o il più sostenibile?
Certo, all’interno di questo sistema le persone possono muoversi in maniera più o meno virtuosa – ma direi ridurre l’uso delle IA generative dovrebbe arrivare, come scelta, dopo altre ben più importanti che riguardano cosa mangiamo, come ci muoviamo, come ci vestiamo e come riscaldiamo casa –, ma impostare tutto il discorso sulla responsabilità individuale è solo un modo per nascondere le responsabilità delle grandi aziende.
Ora, non voglio dire che l’attenzione verso i consumi di ChatGPT e compagni sia parte di una campagna di disinformazione delle aziende petrolifere – che penso siano impegnate a festeggiare il ‘drill, baby, drill’ del governo Trump –, ma certamente rientra nella narrazione che quelle compagnie petrolifere hanno contribuito a costruire. E che ogni azienda porta avanti per proprio tornaconto: dopo un periodo iniziale in cui era difficile informazioni sui consumi da parte delle compagnie che sviluppano le IA generative, ecco un dettagliato rapporto da parte di Google. E questo rapporto rassicura che l’intelligenza artificiale è sostenibile, anche grazie all’ottimizzazione dei sistemi che hanno permesso di ridurre di decine di volte i consumi.
D’accordo, ma alla fine quanto consumano le IA?
Secondo Google, una conversazione con la sua IA consuma 0,24 Wh di elettricità e 0,26 millilitri d’acqua producendo 0,03 grammi di anidride carbonica. A scaldare l’acqua del tè consumo grosso modo 100 Wh, pari a 400 conversazioni con una IA.
La stima della bottiglia d’acqua allora da dove viene? Da una ricerca del 2023 che, in mancanza di dati affidabili, ha fatto delle stime con quello che c’era a disposizione; se ci aggiungiamo l’ottimizzazione avvenuta nel corso degli ultimi due anni, spieghiamo una parte della differenza.
Un’altra parte viene da cosa vogliamo misurare di preciso. Perché Google ha calcolato i consumi dei centri di calcolo che elaborano le conversazioni con il suo modello di intelligenza artificiale, come se quel centro di calcolo fosse comparso dal nulla con già installata l’ultima versione del software. Mistral ha cercato di stimare i consumi calcolando anche la fase di addestramento iniziale, calcolando un impatto decisamente superiore (1,14 grammi di anidride carbonica e 45 millilitri d’acqua) ma comunque basso rispetto ad altre attività online come lo streaming.
Certo, per stimare l’impatto delle IA generative dovremmo anche considerare gli eventuali risparmi: se per assurdo una conversazione con ChatGPT mi evitasse un viaggio in auto di mezz’ora – o più realisticamente mezz’ora di ricerca di risorse online – l’impatto complessivo potrebbe essere addirittura negativo.
Per altre stime aggiornate e confronti sui consumi tipici, rimando all’ultima analisi di Hannah Ritchie in Sustainability by numbers.
In poche parole
Non è esattamente una sorpresa, almeno per chi ha una passione anche solo moderata verso il genere, scoprire che un romanzo o un racconto di fantascienza parlano del nostro presente. Ma quando a farlo è un libretto senza particolari pretese se non quello di imparare un po’ di inglese, beh la sorpresa c’è. Mi riferisco a Under the Moon di Rowena Akinyemi, un romanzetto della serie Oxford Bookworm per chi ha un livello A2 di inglese, quindi poco più che principiante. Con un vocabolario limitato, non è che si possano costruire chissà che personaggi o trame complicate e così nel 1992 l’autrice ha inventato una vicenda decisamente stereotipata. Una catastrofe ecologica imminente, un “Earth Commander” che è in pratica un piccolo dittatore che si rifiuta di ascoltare le persone che gli segnalano il pericolo e manda in galera senza processo quelli che insistono e, per ripicca verso un governatore che si è ribellato, decide di distruggere l’Australia. Ah, dimenticavo: del destino della Terra non gli interessa nulla perché ha il sogno di colonizzare Marte…
In pochissime parole
Non c’è nessun cubo nero che rovina lo skyline di Firenze: su Art Tribune un contributo interessante su una polemica fiorentina che, a ben guardare, non è solo fiorentina.
No, non è un maschile sovraesteso: ho praticamente intervistato solo uomini e dovrò cercare di capire come mai.


