L’impatto energetico dell’IA è già enorme… e questo è solo l’inizio
12 Giugno 2023
Non è un segreto che Internet inquini. In effetti, i data center di tutto il mondo sono responsabili del 2-3% delle nostre emissioni di CO2. Sebbene significativa, questa percentuale dimostra anche la nostra dipendenza dal digitale.
Se le IA generative promettono di rivoluzionare la nostra vita quotidiana, possono anche avere un notevole impatto ambientale. A causa della loro complessità, richiedono molta potenza di calcolo e quindi molta energia. Se i loro sviluppatori come Google o OpenAI non comunicano sul loro consumo, alcuni ricercatori hanno esaminato la questione.
È il caso di Sasha Luccioni e del suo team, che hanno calcolato la quantità di energia necessaria per addestrare e utilizzare un’IA creata da zero. In quattro mesi, il loro esperimento avrebbe prodotto fino a 50 tonnellate di CO2, di cui 25 per il solo programma di addestramento, l’equivalente di 30 voli tra Londra e New York.
Tuttavia, il ricercatore sottolinea che la rete elettrica su cui operano le loro apparecchiature è in parte alimentata dall’energia nucleare. GPT-3, molto più energivoro, è connesso a una rete più ricca di carbonio. Avrebbe generato 500 tonnellate di CO2 solo per il suo addestramento. L’equivalente di oltre 1 milione di chilometri percorsi da auto a benzina.
Bard ha sete, molto, molto sete
I data center non consumano solo elettricità. In effetti, producono molto calore e quando l’aria condizionata tradizionale non è considerata per raffreddarli a causa del suo consumo energetico, l’acqua prende il sopravvento.
Un altro studio ha stimato che la sola formazione di GPT-3 avrebbe consumato… 700.000 litri di acqua dolce. Tuttavia, i dati ufficiali sono poco o per niente divulgati ei ricercatori sottolineano che il consumo di acqua dipende fortemente dalla posizione dell’infrastruttura. In effetti, un server situato in un luogo caldo richiederà un raffreddamento maggiore rispetto a uno situato in una regione più temperata.
Tuttavia, i colossi della tecnologia cercano di ridurre la loro impronta di carbonio, a rischio di insediarsi in zone soleggiate per sfruttare l’energia solare. Questo viene spesso fatto a scapito delle risorse idriche.
Risorse utilizzate in modo improprio?
Per Sasha Luccioni il problema non è tanto la progettazione delle infrastrutture che fanno funzionare l’IA generativa, quanto piuttosto l’uso che se ne fa. Secondo lei, questi programmi sono usati per tutto e per qualsiasi cosa, a causa dell’effetto moda e del fatto che le aziende si costringono a usarli, per paura di essere lasciate indietro dalla concorrenza.
Per il ricercatore, questa è un’aberrazione: “Ci sono così tanti approcci e metodi di IA efficaci ea basso impatto che le persone hanno sviluppato nel corso degli anni, ma vogliamo utilizzare l’IA generativa per tutto. Aggiunge: “Se le aziende sono più trasparenti riguardo alle risorse naturali utilizzate e alle emissioni di carbonio emesse durante la creazione e l’utilizzo di modelli di intelligenza artificiale, potrebbero aiutare ad aprire discussioni su quando e come utilizzare strategicamente l’IA generativa.”
In definitiva, il pericolo più immediato di questi programmi non sarebbe tanto il rischio che rappresentano per le nostre società, ma piuttosto il loro impatto sull’ambiente. E non è ChatGPT che ci aiuterà a risolvere questo problema, perché secondo lui: “Come modello di linguaggio AI, non ho una presenza fisica e non consumo direttamente energia”. Forse dovremmo insegnare alle intelligenze artificiali a non assomigliarci troppo, a rischio di generare più negazione che obiettività?