Lezione 01 · ~10 min · da leggere prima di tutto

Prima di iniziare: difetti e rischi degli LLM

I Large Language Model non sono strumenti neutri. Prima di chiederci cosa possiamo farci, conviene guardare ai problemi sistemici che hanno aperto a livello globale: ambientali, epistemici, geopolitici, legali. Le ricadute sul mondo creativo arrivano dopo — e si capiscono meglio così.

Gli LLM sono entrati nella vita quotidiana di centinaia di milioni di persone in meno di tre anni. È un'adozione tecnologica senza precedenti recenti, e come ogni infrastruttura che cresce in fretta ha già prodotto effetti collaterali a scala planetaria. Questa lezione non è tecnica: è una mappa dei problemi aperti, dai più sistemici ai più vicini a noi. Solo dopo averli messi a fuoco ha senso parlare di cosa significhi usarli per fare arte.

1. Impatto ambientale: i data center sono la nuova industria pesante

L'IA generativa non vive "nel cloud": vive in capannoni di cemento pieni di GPU, raffreddati ad acqua e alimentati dalla rete elettrica nazionale. Ogni prompt è un piccolo conto energetico addebitato a un data center reale, da qualche parte nel mondo. I numeri stanno crescendo a una velocità che la rete elettrica fatica a seguire.

I data center, oggi

Secondo l'International Energy Agency (IEA, 2024) i data center mondiali hanno consumato circa 460 TWh nel 2022 — più o meno il consumo elettrico annuo dell'intera Francia — e si prevede che raddoppino superando i 1.000 TWh entro il 2026, trainati esplicitamente da IA e criptovalute. Goldman Sachs Research (2024) stima un +160% di domanda elettrica dei data center entro il 2030.

Casi concreti già visibili:

  • Irlanda: nel 2023 i data center hanno assorbito il 21% di tutta l'elettricità nazionale (CSO Ireland), superando il consumo combinato di tutte le abitazioni urbane.
  • Virginia (USA): la "Data Center Alley" intorno ad Ashburn ospita oltre il 70% del traffico internet mondiale e consuma più elettricità dell'intera città di Boston.
  • Progetto Stargate (OpenAI/Oracle/SoftBank, 2025): investimento annunciato da 500 miliardi di dollari per nuovi data center IA negli USA, con richieste di potenza stimate in diversi gigawatt — l'equivalente di alcune centrali nucleari dedicate.
  • Ritorno al carbone e al nucleare: Microsoft ha firmato nel 2024 un accordo ventennale per riattivare il reattore di Three Mile Island; Google e Amazon hanno annunciato contratti per Small Modular Reactors. Negli USA diverse centrali a carbone già programmate per la chiusura sono state mantenute in funzione per servire i data center.
Caso · Regno Unito · maggio 2026

Quando i numeri vengono "addomesticati"

Un'inchiesta del Guardian ha mostrato che gli sviluppatori dei nuovi data center IA di Google a Thurrock e North Weald (Essex), e del progetto Greystoke a Elsham (Lincolnshire), avevano dichiarato nelle istanze urbanistiche emissioni cinque volte inferiori a quelle reali — confrontando un anno di emissioni con il budget di carbonio quinquennale del Regno Unito. I tre impianti, presi insieme, valgono oltre l'1% del budget di carbonio britannico al 2033: come le emissioni di una città come Bristol. Il Thurrock data center da solo emetterà più di un aeroporto internazionale.

Fonte: The Guardian, 9 maggio 2026 ↗

Caso · America Latina · 2024–2026

Il costo umano dei data center nel Sud globale

Mentre Microsoft, Google, Amazon e Oracle spostano data center in Cile, Uruguay, Brasile e Argentina, le comunità locali si ritrovano siccità, bollette più care e licenze ambientali accelerate. In Uruguay, durante la peggiore siccità in 74 anni, Google ha comprato terreni per un data center che avrebbe consumato 7,6 milioni di litri d'acqua al giorno — quanto il consumo domestico di 55.000 persone. A Cerrillos (Cile) un tribunale ambientale ha bloccato un impianto Google nel 2024. In Brasile (Eldorado do Sul, Rio Grande do Sul) un mega-progetto Scala da 50 miliardi USD è stato approvato con licenza ambientale "semplificata", senza VIA né udienze pubbliche, in una città già devastata dalle alluvioni del 2024.

Fonte: Global Voices, 29 aprile 2026 ↗

Quanto consuma davvero un modello? — Training

I fornitori non pubblicano cifre ufficiali complete, soprattutto per i modelli più recenti (GPT-4/4o, Claude 3.5/4, Gemini Ultra, Grok). Le stime sotto provengono dall'incrocio di più fonti indipendenti: paper accademici (Patterson, Luccioni, de Vries), analisi industriali (SemiAnalysis, Epoch AI), report di sostenibilità delle aziende, e per i modelli aperti i numeri dichiarati nei model card. Quando esistono più stime diverse, le riportiamo come intervallo.

Asse X — Energia consumata per il training (MWh) — scala logaritmica base 10
BERT-base (2018, 110M parametri)1,5 MWh
≈ 1 famiglia italiana / 6 mesi
Fonte: Strubell et al. 2019
GPT-3 (2020, 175B parametri, dense)1287 MWh
≈ 470 famiglie italiane / anno · 552 t CO₂eq
Fonte: Patterson et al. 2021 (Google)
PaLM (2022, 540B, dense)3436 MWh
≈ 1.270 famiglie / anno
Fonte: Chowdhery et al. 2022 (Google)
Llama 2 70B (2023)350–450 MWh
Meta dichiara 1.720 t CO₂eq compensate
Fonte: Meta Llama 2 paper, 2023
Llama 3.1 405B (2024, dense)9000–13.000 MWh
39,3 M GPU-ore H100 · ~4.000 famiglie / anno
Fonte: Meta Llama 3 paper, 2024
GPT-4 (2023, MoE ~1.8T)30.000–62.000 MWh
Stime non ufficiali · ~12.000–22.000 t CO₂eq
Fonte: SemiAnalysis 2023; de Vries 2023
Gemini Ultra (2023, multimodale)30.000–80.000 MWh
Stima ricavata da FLOPs dichiarati Epoch AI
Fonte: Epoch AI 2024
Claude 3 Opus (2024, stima)25.000–60.000 MWh
Anthropic non pubblica numeri
Fonte: Epoch AI / SemiAnalysis 2024
DeepSeek-V3 (2024, 671B MoE)2664 MWh
2,79 M GPU-ore H800 — ~1/20 di GPT-4
Fonte: DeepSeek tech report, dic. 2024
Llama 3.1 — solo inference, 1 anno15.000–30.000 MWh
L'uso continuativo supera il training in pochi mesi
Fonte: Luccioni et al. 2024; SemiAnalysis 2024
GPT-5 / Gemini 2 / Grok 3 (2025, attese)100.000–500.000 MWh
Cluster da 100k+ GPU H100/B200
Fonte: Epoch AI 2025; SemiAnalysis 2025
110100100010.000100.0001.000.000

Asse X in scala logaritmica (ogni tacca = ×10) per rendere confrontabili modelli che differiscono di oltre 5 ordini di grandezza. Le bande chiare rappresentano il range fra le stime minime e massime delle fonti citate; il segmento pieno è il valore centrale. Riferimento: 1 famiglia italiana ≈ 2.700 kWh/anno (ARERA, 2023). 1 MWh = 1.000 kWh.

Tre cose interessanti emergono da questo confronto:

  • Crescita esponenziale ma non monotona: tra BERT (2018) e GPT-5 (atteso 2025) ci sono ~5 ordini di grandezza in soli 7 anni — più di quanto sia cresciuta qualunque altra tecnologia di consumo nello stesso intervallo.
  • Mixture-of-Experts (MoE) cambia le regole: DeepSeek-V3 ha ottenuto qualità paragonabile a GPT-4 con un training ~20× meno costoso, attivando solo una frazione dei parametri per token. È la dimostrazione che efficienza architetturale conta quanto la forza bruta.
  • L'inference batte il training: per un modello ampiamente diffuso, l'energia consumata in un anno di uso reale supera quella del training in pochi mesi (de Vries 2023, Luccioni 2024). I "miliardi di prompt al giorno" di ChatGPT pesano più del suo addestramento iniziale.

In termini di CO₂ equivalente: il training di GPT-3 è stato stimato in ~552 t CO₂eq (Patterson et al.), pari alle emissioni annue di ~120 automobili medie europee (4,6 t CO₂/anno ciascuna, EEA 2023). Per GPT-4 le stime SemiAnalysis salgono a ~12.000–22.000 t CO₂eq(≈ 2.500–4.800 auto), e per i cluster da 100.000 GPU annunciati per GPT-5 / Grok 3 si parla di 10⁵ t CO₂eq per singolo training run — ordini di grandezza paragonabili a una piccola raffineria.

Quanto consuma una singola richiesta? — Inference

Una query individuale sembra trascurabile, ma viene moltiplicata per miliardi di richieste al giorno. Anche qui le stime variano: dipende dal modello, dalla lunghezza della risposta, dall'hardware, dal data center. Riportiamo l'intervallo fra le fonti.

Asse X — Energia per singola operazione (Wh) — scala logaritmica base 10
Ricerca Google classica0,3 Wh
≈ LED 10 W per 1 min 48 s
Fonte: Google sostenibilità 2009 / IEA 2024
Domanda a ChatGPT (GPT-3.5 / 4o-mini)1,7–6 Wh
~10× ricerca Google
Fonte: de Vries 2023; EPRI 2024
Domanda a un LLM frontier (GPT-4, Claude 3 Opus)10–60 Wh
Risposta lunga, modello denso/MoE grande
Fonte: Luccioni et al. 2024; EPRI 2024
Generazione immagine (SDXL, FLUX)1,5–11 Wh
Una ricarica completa di smartphone ≈ 15 Wh
Fonte: Luccioni, Jernite, Strubell — FAccT 2024
Generazione video breve (Sora-class, ~5 s)50–500 Wh
Stime molto incerte, OpenAI non pubblica dati
Fonte: Stime indipendenti SemiAnalysis 2024
Inference "reasoning" (o1, o3, Claude 3.7 thinking)50–800 Wh
Catene di pensiero lunghe = decine di volte più calcolo
Fonte: Epoch AI 2025; OpenAI o1 system card
0.11101001000

Asse X in scala logaritmica (ogni tacca = ×10). Una lampadina LED da 10 W accesa per un'ora consuma 10 Wh. Le bande chiare mostrano l'intervallo fra le stime minime e massime delle fonti.

Moltiplicando per il volume reale: ChatGPT dichiara oltre 1 miliardo di messaggi al giorno (OpenAI, 2024). Anche prendendo solo 2,9 Wh a messaggio si arriva a circa 2,9 GWh al giorno1 TWh all'anno — il consumo elettrico annuo di una città italiana di circa 370.000 abitanti (tipo Bari). Se anche solo il 10% di quei messaggi attivasse un modello "reasoning" da 200 Wh, la stima triplica.

Moltiplicando per il volume reale: ChatGPT dichiara oltre 1 miliardo di messaggi al giorno (OpenAI, 2024). Anche prendendo solo 2,9 Wh a messaggio, si arriva a circa 2,9 GWh al giorno1 TWh all'anno — il consumo elettrico annuo di una città italiana di circa 370.000 abitanti (tipo Bari).

Acqua: il costo nascosto del raffreddamento

I data center usano enormi volumi d'acqua dolce per raffreddare le GPU, di solito tramite torri evaporative. Fonti: Li et al. 2023 (Making AI Less "Thirsty"), report ESG di Microsoft e Google.

  • Addestrare GPT-3 nei data center Microsoft USA ha richiesto una stima di ~700.000 litri d'acqua dolce (Li et al., 2023): equivalenti a circa 4.700 docce da 10 minuti, o al fabbisogno annuo di acqua potabile di ~13 italiani (ISTAT: 215 L/giorno pro capite).
  • Una conversazione di 10–50 risposte con GPT-4 corrisponde, secondo le stesse stime, a ~500 mL d'acqua.
  • Microsoft ha dichiarato nel report ESG 2023 un +34% di consumi idrici globali nel 2022 (da 4,2 a 6,4 milioni di m³), e Google un +20% — entrambi attribuiti in larga parte ai carichi IA.

Confronto con ordini di grandezza familiari

A cosa equivale 1 training di GPT-3 (~1.287 MWh)?
  • Consumo elettrico annuo di una famiglia italiana media (2.700 kWh)× 477 famiglie
  • Lampadina LED da 10 W accesa per un anno (87,6 kWh)× 14.700 lampadine
  • Auto media a benzina (15.000 km/anno, ~2.500 kWh equivalenti)× 515 auto
  • Volo Roma–New York andata e ritorno per 1 passeggero in economy (~1,8 t CO₂)× 310 voli (in CO₂eq)
  • Ricarica completa di uno smartphone (~0,015 kWh)× 86 milioni di ricariche

Stime ricavate da Patterson et al. 2021, ARERA 2023, EEA 2023, ICAO Carbon Calculator. Sono ordini di grandezza, non misure esatte.

Hardware e materie prime

Il boom dell'IA è anche un boom di hardware. Una GPU Nvidia H100 costa ~30.000 $ e consuma fino a 700 W sotto carico; le rack di prossima generazione (B200, GB200) salgono a 1.200 W per chip. La produzione concentrata su TSMC (Taiwan) e la domanda di terre rare per memorie HBM stanno generando tensioni geopolitiche e ambientali nuove (estrazione di gallio, germanio, cobalto). L'IEA stima che il solo segmento "AI server" assorbirà circa il 20% della domanda globale di rame per data center entro il 2030.

Tradotto per l'aula: generare un'immagine non è gratis, e non lo è generare una canzone, un riassunto, una mail. Ogni prompt sposta acqua, elettricità e CO₂ da qualche parte nel mondo. Non è un motivo per non usarli — è un motivo per usarli con intenzione.

2. Concentrazione di potere e lavoro invisibile

Solo una manciata di aziende al mondo ha le risorse per addestrare un modello di frontiera: OpenAI, Google, Anthropic, Meta, xAI, più una piccola pattuglia cinese (DeepSeek, Qwen, Kimi). Questo sposta enormi quote di mercato — e di influenza culturale — su attori privati con sede prevalentemente negli Stati Uniti.

Dietro l'apparente magia degli LLM c'è anche una filiera di lavoro umano spesso invisibile: annotatori, moderatori, etichettatori pagati pochi dollari l'ora — molti in Kenya, Filippine, Venezuela — che hanno filtrato contenuti tossici per rendere "sicuri" i modelli. L'inchiesta di Time su OpenAI/Sama (gennaio 2023) è il riferimento più noto. Ogni risposta gentile di un chatbot ha alle spalle qualcuno che ha letto, classificato e — spesso — subìto contenuti violenti.

3. Disinformazione, deepfake e sicurezza

Gli LLM e i modelli generativi rendono banale produrre testo, immagini, video e audio falsi a costo quasi zero. Le conseguenze sono già documentate su scala globale:

  • chiamate robocall con la voce clonata di Joe Biden alle primarie USA del New Hampshire (gennaio 2024);
  • immagini sintetiche di leader politici diffuse in campagne elettorali in India, Slovacchia, Argentina;
  • deepfake intimi non consensuali — un fenomeno cresciuto di oltre il 400% dal 2022, con vittime quasi sempre donne e minori;
  • campagne di phishing iper-personalizzate scritte da LLM in decine di lingue.

Il problema non è solo "chi ci crede": è l'erosione di fondo della fiducia in qualunque immagine o registrazione. È quello che Hany Farid chiama il liar's dividend: in un mondo di possibili falsi, anche il vero diventa contestabile.

4. Copyright e dati di addestramento

I grandi modelli sono stati addestrati su enormi quantità di testi, immagini, codice e musica raccolti dal web — spesso senza il consenso esplicito degli autori. Il fronte legale è apertissimo:

  • Getty Images vs Stability AI (2023, UK/USA): contestato l'uso di milioni di foto protette per addestrare Stable Diffusion.
  • The New York Times vs OpenAI & Microsoft (2023): citati estratti quasi letterali di articoli del NYT rigenerati da GPT-4.
  • Artisti vs Midjourney/Stability/DeviantArt (Andersen et al., 2023): class action di illustratori per uso non autorizzato delle loro opere.
  • RIAA vs Suno e Udio (2024): le major discografiche contestano l'addestramento su brani protetti.

L'AI Act europeo (Regolamento UE 2024/1689) impone ai fornitori di modelli di uso generale di pubblicare un riassunto sufficientemente dettagliato dei contenuti usati per il training e di rispettare le riserve di diritto opt-out previste dalla direttiva sul copyright digitale.

5. Bias: i modelli ereditano i pregiudizi dei dati

Gli LLM sono addestrati su corpora presi prevalentemente dal web. Quel web rispecchia la lingua, la cultura e gli stereotipi di chi lo ha scritto: prevalentemente anglofono, occidentale, maschile. Il risultato è documentato in decine di studi: associazioni di genere distorte (infermiera→donna, ingegnere→uomo), rappresentazioni stereotipate di minoranze etniche, sotto-rappresentazione delle lingue minori — italiano compreso, rispetto all'inglese.

Nei modelli generativi visivi il problema è ancora più visibile: chiedere "un CEO" o "una persona attraente" produceva, fino a poco tempo fa, quasi solo uomini bianchi. Le patch successive hanno introdotto altri problemi (vedi le polemiche su Gemini nel 2024). Non esiste un modello "neutro": esiste un modello di cui conosciamo i bias.

6. Allucinazioni: i modelli inventano, con sicurezza

Un LLM non "sa" nulla nel senso umano del termine. Predice il token successivo più probabile dato un contesto. Quando il contesto è ambiguo, oscuro, o riguarda fatti rari, il modello produce comunque una risposta — fluente, plausibile, e talvolta completamente falsa. Si chiamano allucinazioni. Citazioni inesistenti, autori inventati, date sbagliate, sentenze giudiziarie mai pronunciate sono già documentate in casi reali (ad esempio l'avvocato statunitense sanzionato nel 2023 per aver depositato un atto pieno di precedenti generati da ChatGPT).

Regola operativa: ogni fatto generato da un LLM va verificato con una fonte indipendente. Sempre.

7. Privacy

Tutto ciò che inviate a un servizio LLM ospitato (ChatGPT, Claude, Gemini, Suno…) può essere registrato e — a seconda dei termini d'uso — usato per migliorare il modello. Non incollate mai dati personali, password, codici fiscali, lavori scolastici

8. E adesso il nostro mestiere: il lavoro creativo

Solo dopo aver guardato i problemi sistemici si capisce davvero cosa significhi, per chi sceglie un percorso artistico — musica, illustrazione, scrittura, design — usare strumenti generativi. Da un lato abbassano la barriera d'ingresso e abilitano nuove forme espressive. Dall'altro:

  • competono direttamente con il lavoro umano sui mercati di ingresso (stock images, jingle pubblicitari, illustrazioni editoriali, voci sintetiche al posto di doppiatori);
  • comprimono i compensi e cambiano la natura del mestiere ("prompt engineer" non sostituisce "illustratore");
  • pongono una domanda nuova sul concetto di autorialità: chi è l'autore di un'immagine generata? L'utente che ha scritto il prompt? Chi ha addestrato il modello? Gli artisti i cui lavori erano nel training set?

Lo sciopero SAG-AFTRA e WGA del 2023 a Hollywood ha avuto come uno dei nodi centrali proprio l'uso dell'IA generativa nei contratti di sceneggiatori e attori. È il segnale che la discussione non è più "se" questi strumenti entreranno nei flussi creativi, ma a quali condizioni.

Patto di classe

In questo modulo useremo strumenti generativi per imparare e per creare. Lo faremo sapendo che hanno costi ambientali, debiti culturali e implicazioni legali. Citeremo sempre i modelli usati, non spacceremo mai un output AI per opera originale, e tratteremo ogni risultato come una bozza da verificare — non come una verità.

Fonti e link utili

Tutti i numeri e i casi citati in questa lezione vengono dalle fonti elencate qui sotto, raggruppate per tema. Le date servono per ricordare che è un campo che cambia molto in fretta: verificate sempre se nel frattempo sono usciti aggiornamenti.

Impatto ambientale e data center

Bias, allucinazioni e limiti tecnici

Copyright, regolamentazione e cause in corso

Lavoro invisibile, geopolitica e impatti sociali

Strumenti e risorse divulgative