A complicare il quadro c’è l’intelligenza artificiale, capace di generare contenuti falsi credibili e di amplificare le distorsioni del sistema. Non stupisce quindi che l’ONU abbia scelto di intervenire con due mosse decisive: i Global Principles for Information Integrity e un progetto di governance globale dell’AI.
Internet nasceva con una promessa di libertà e conoscenza condivisa. Ma la stessa infrastruttura che ci connette ha aperto la porta a fenomeni ben più pericolosi. Dalle fake news sui vaccini ai negazionismi climatici, fino alle campagne coordinate di propaganda politica, la disinformazione si diffonde oggi con una velocità e una pervasività senza precedenti.
Un fattore chiave è il modello economico delle piattaforme digitali: algoritmi che premiano i contenuti capaci di generare emozioni forti, spesso rabbia e divisione. In questo modo, la logica del profitto si intreccia con la proliferazione di odio e menzogne.
L’intelligenza artificiale agisce da moltiplicatore. Con i modelli generativi, bastano pochi secondi per creare un deepfake realistico o un articolo fasullo. Se un tempo servivano risorse e competenze, oggi chiunque può fabbricare contenuti manipolatori a costo quasi zero.
Per rispondere a questa deriva, l’ONU ha varato cinque direttrici di intervento.
- Fiducia e resilienza sociale: senza fiducia nelle fonti e nelle istituzioni non esiste una democrazia sana. Rafforzare i meccanismi di verifica e protezione delle comunità diventa cruciale.
- Incentivi sani: il modello dell’“economia dell’attenzione” va ripensato. Servono alternative ai business basati esclusivamente sulla pubblicità algoritmica, che oggi premiano proprio i contenuti tossici.
- Empowerment del pubblico: alfabetizzazione digitale, fact-checking e strumenti di tutela degli utenti devono diventare parte integrante delle politiche pubbliche.
- Media indipendenti e pluralistici: un’informazione libera resta il pilastro della democrazia. L’ONU sollecita più sostegno a giornalisti e redazioni locali, spesso schiacciate dalla crisi economica e dalla concentrazione dei ricavi pubblicitari nelle mani delle big tech.
- Trasparenza e ricerca: i dati sugli algoritmi e sulle dinamiche di diffusione delle informazioni devono essere accessibili a studiosi e società civile. Senza questa apertura non esiste vera accountability.
Il documento ONU non si limita a principi astratti: assegna compiti precisi.
- Alle piattaforme digitali: sicurezza e privacy by design, moderazione coerente dei contenuti in tutte le lingue, etichettatura chiara dei contenuti generati da AI.
- Agli sviluppatori di AI: obbligo di trasparenza, audit indipendenti e rispetto dei diritti umani.
- Agli inserzionisti: pretendere filiere pubblicitarie trasparenti, evitando che i budget finiscano a finanziare odio e disinformazione.
- Agli Stati: garantire libertà di stampa, accesso alle informazioni e protezione effettiva per giornalisti e ricercatori.
Parallelamente, le Nazioni Unite hanno acceso i riflettori sull’AI, proponendo un organismo simile all’IPCC per il clima (Gruppo intergovernativo sul cambiamento climatico): una struttura permanente di monitoraggio e indirizzo. L’obiettivo è ridurre la frammentazione normativa e costruire standard comuni.
Ma la realtà è complessa. In Ucraina, a Gaza e in altri scenari di conflitto già circolano armi autonome capaci di decidere chi colpire senza alcun controllo umano diretto. Un salto che apre dilemmi etici enormi: una macchina non distingue un obiettivo militare da un ospedale e, se sbaglia non ne risponde a nessuno.
A marzo 2024, l’ONU ha approvato la prima risoluzione universale sull’AI, con oltre 120 Paesi firmatari. Il testo promuove sviluppo sicuro ed etico della tecnologia, sottolinea la centralità dei diritti umani e richiama l’urgenza di colmare il divario digitale tra Nord e Sud del mondo.
Il nodo resta la competizione tra le grandi potenze. Gli Stati Uniti spingono per un approccio che tuteli la leadership tecnologica e favorisca le imprese. La Cina insiste invece su cooperazione e accesso diffuso. L’Unione Europea, con l’AI Act, si è posizionata come avanguardia normativa, imponendo limiti stringenti ai sistemi ad alto rischio.
Il risultato è un mosaico di approcci che rischia di trasformarsi in un terreno di scontro geopolitico più che di convergenza regolatoria.
L’ONU ha messo sul tavolo due questioni decisive: la difesa dell’integrità dell’informazione e la governance dell’intelligenza artificiale. Non si tratta di un esercizio accademico: è il cuore della nostra quotidianità, dal modo in cui leggiamo le notizie alla sicurezza delle elezioni, fino ai rischi di guerre combattute da algoritmi.
Non esiste una bacchetta magica. Ma esiste un percorso fatto di trasparenza, educazione, regole condivise e responsabilità distribuite. L’alternativa è un far west digitale che minaccia diritti e democrazie.
Il futuro digitale può essere più etico e più umano, a patto che governi, imprese e cittadini scelgano di affrontare insieme questa sfida. Non è solo un problema di tecnologia: è una questione di civiltà.

















