Idee Intellilgenza artificiale

Christopher Wylie: se non vogliamo che l’ia controlli le nostre vite, dobbiamo mettere delle regole

Christopher Wylie, conosciuto per essere uno dei whistleblower di Cambridge Analytica, spiega cosa lo preoccupa nell'architettura attuale dell’intelligenza artificiale. La regolamentazione è essenziale, in una prospettiva globale e sistemica, a un problema che ritiene collettivo: quello delle decisioni prese da un gruppo ristretto e che hanno un impatto mondiale.

Pubblicato il 18 Ottobre 2023 alle 11:20
Questo articolo è riservato alle persone abbonate

Nei prossimi cinque-dieci anni, quando l'ia sarà integrata letteralmente ad ogni cosa, possiamo immaginare un mondo in cui “discutiamo” con la Tv — che ci osserva — con il frigorifero, con il tostapane, con i mobili della camera da letto, con il bagno, con l'auto, con la cassetta della posta…

Seduti nel nostro spazio più privato, saremo costantemente osservati, mentre intorno a noi si svolge una conversazione perfettamente silenziosa. Lo scopo di questa conversazione — in un contesto nel quale il consumatore deve essere ottimizzato — è capire cosa questi dispositivi devono mostrarci per renderci un cliente migliore, più efficiente. Verremo, in qualche modo, privati della propria autonomia: le decisioni, in questo scenario,  vengono prese per noi, senza coinvolgerci nel processo. 

Questo scenario fa nascere una domanda fondamentale riguardo al ruolo dell’essere umano nello spazio digitale. In natura veniamo “influenzati”, ma il tempo o gli animali non sono là per nuocerci. Quando ci spostiamo in una città che cerca di ottimizzarci, stiamo integrando uno spazio fisico che tenta di dettare le nostre scelte. Come esercitare il proprio libero arbitrio quando la città intorno a te, gli edifici, i dispositivi che ci circondano – tutto,  letteralmente tutto – lavora per preselezionare quello che ti mostrerà per influenzare le tue scelte? Una volta entrati in questo spazio che ci osserva, come uscirne? Come esercitare la propria autonomia in quanto persona? Non si può. 

Christopher Wylie at the ZEG festival in Tbilisi, June 2023. | Photo: Gian-Paolo Accardo
Christopher Wylie a Tbilisi, giugno 2023 | Foto: Gian-Paolo Accardo

Dobbiamo iniziare a pensare a ciò che stiamo costruendo con l'ia, a pensare a cosa stiamo costruendo, perché una volta entrati, non c’è modo di uscirne. Ecco perché dobbiamo regolamentare l'ia. E dobbiamo farlo in fretta.

Come ragioniamo rispetto ad altri settori? La prima cosa è riflettere ai danni che vogliamo evitare: un aereo, non vogliamo che si schianti; un farmaco, non vogliamo che ci avveleni.  

Esistono già oggi una serie di “danni” che l’intelligenza artificiale sta provocando e che dovremmo riflettere a come evitare: la disinformazione, l'inganno, il razzismo e la discriminazione. Non vogliamo, ad esempio, un'intelligenza artificiale che prenda decisioni basate su pregiudizi razziali.  Non vogliamo un’ia che menta. 

Il primo passo è decidere cosa non vogliamo che l'ia faccia. Il secondo, è creare un protocollo di test per evitare che le cose che non vogliamo accadano.


Se si parla da una posizione privilegiata —per esempio un uomo ricco bianco nella  baia di San Francisco — probabilmente non si pensa a quanto possa nuocere a una persona in Myanmar


Se non vogliamo che un algoritmo contribuisca a diffondere informazioni false, dobbiamo trovare un modo per testarlo e verificarlo. Come è stato progettato? Come prende decisioni? Come si comporta in fase di test? La fase di test è un aspetto fondamentale della regolamentazione. 

Immaginiamo che, prima del rilascio, sia possibile individuare che un algoritmo utilizzato da una banca ha un pregiudizio razziale che, nel campione di prova, concede più mutui ai bianchi che ai neri. Abbiamo valutato il rischio e possiamo tornare indietro e correggere l'algoritmo prima che venga rilasciato.

È — sarebbe — relativamente semplice regolamentare l'ia utilizzando lo stesso tipo di processo che usiamo in altri settori. Si tratta di mitigare i rischi, ridurre i danni e garantire la sicurezza prima che l'ia venga rilasciata al pubblico. Invece sta succedendo il contrario. Assistiamo a un processo in cui le Big Tech fanno grandi esperimenti sulla società e lo veniamo a sapere di volta in volta. Facebook si rende conto dei problemi, fa errori. E si scusa. Si agisce e poi si decide se vale la pena di risolvere il problema o meno. 


Il meglio del giornalismo europeo, ogni giovedì, nella tua casella di posta

Se c'è un genocidio in Myanmar — paese che non rappresenta un grande mercato — non farà nulla al riguardo, anche se è un crimine contro l'umanità. Facebook ha ammesso di non aver riflettuto a come il suo sistema di raccomandazione avrebbe funzionato in una popolazione con una storia di violenza religiosa ed etnica. Bisogna, al contrario,che un’azienda valuti un aspetto di questo tipo prima di rilasciare una nuova applicazione.

Il problema dell'idea "move fast and break things" [un motto reso popolare dal Ceo di Facebook Mark Zuckerberg, “agisci rapido e rompi”] è che implicitamente dice: "Ho il diritto di far del male se la mia applicazione è abbastanza bella; ho il diritto di sacrificarti per creare un'applicazione". Non lo accettiamo in nessun altro settore. 

Immaginate se le aziende farmaceutiche dicessero: "Se non ci regolamentate, otterremo risultati più rapidi nella cura del cancro e faremo tutti gli esperimenti che vogliamo". Potrebbe essere vero e funzionare, ma non vogliamo questo tipo di sperimentazione. 

L'ia è il futuro di tutto: ricerca scientifica, aerospaziale, trasporti, intrattenimento, forse anche istruzione. Quando integriamo tecnologie non sicure nascono problemi enormi. Ecco perché dobbiamo regolamentare l'ia.


È come se regolassimo la sicurezza degli edifici mettendo un cartello sulla porta per dire che accettando le condizioni d’uso si acconsente alla progettazione e alla costruzione scadente del palazzo


È qui che entra in gioco la cattura della regolamentazione (Regulatory capture): questa avviene quando un'industria cerca di fare la prima mossa per definire cosa dovrebbe essere regolamentato e cosa no. Il problema? Spesso si tratta di proposte che tendono a non affrontare i danni imminenti, ma quelli di un futuro teorico. Quando un gruppo dice: "Stiamo condannando l'umanità all'estinzione perché abbiamo creato Terminator, regolamentateci", sta in realtà dicendo: "Regolamentate questo problema che al momento non è reale e non quest’altro, molto reale invece, che mi impedirebbe di rilasciare prodotti che contengono informazioni razziste, che potrebbero danneggiare persone vulnerabili, che potrebbero incoraggiare le persone a uccidersi. Non regolamentate i problemi reali che mi costringono a cambiare il mio prodotto".

Quando assisto ai tour globali di questi magnati della tecnologia che parlano della loro magnifica visione del futuro, raccontando che l'ia dominerà l'umanità e che dobbiamo, in conseguenza, prendere sul serio la regolamentazione, ho l’impressione che siano sinceri. In realtà, temo che stiano dicendo che contribuiranno a creare molte regole per cose che non dovranno cambiare. 

Se si guarda alle proposte che hanno reso pubbliche (Sam Altman, Greg Brockman, Ilya Sutskever) nel maggio 2023, vogliono creare un quadro normativo intorno a OpenAI nel quale i  governi darebbero a OpenAI e ad alcune altre grandi aziende tecnologiche un monopolio di fatto per sviluppare prodotti, in nome della sicurezza. Una cosa del genere potrebbe portare verso un quadro normativo che impedisca ad altri ricercatori di utilizzare l'ia.

Terminator e la disinformazione

Il problema? Non c’è una discussione equilibrata su ciò che dovrebbe essere regolamentato. Il problema è Terminator o la frammentazione della società? È la disinformazione? È l'incitamento alla violenza? È il razzismo? Se si parla da una posizione privilegiata —per esempio un uomo ricco bianco nella  baia di San Francisco — probabilmente non si pensa a quanto possa nuocere a una persona in Myanmar. Di fatto, stanno solo pensando a quanto può arrecare danno a loro stessi. 

Il razzismo non li tocca, la violenza politica nemmeno. Stiamo chiedendo alle persone sbagliate di pensare ai problemi possibili. Dobbiamo coinvolgere più persone e in tutto il mondo, in particolare le comunità vulnerabili ed emarginate che sperimenteranno per prime i danni dell'ia. Non dobbiamo parlare dei danni futuri, ma di quelli che li colpiscono oggi nei loro Paesi e di cosa potrebbe impedire che ciò accada.

Credo che molti dei problemi che la società tocca e toccherà con l'ia sono analoghi a quelli del cambiamento climatico. Si può comprare un'auto elettrica, si può fare un po' di riciclo… ma si tratta di un problema sistemico e i problemi sistemici richiedono approcci sistemici. Quindi suggerirei di essere attivi nel chiedere ai leader di fare qualcosa al riguardo. Spendere capitale politico su questo tema è la cosa più importante che si possa fare oggi, ben più importante che iscriversi a Mastodon o cancellare i propri cookie. 

Ciò che rende l'architettura dell'ia così ingiusta dipende dal fatto che è progettata da grandi aziende americane che non pensano necessariamente al resto del mondo. Le voci dei piccoli paesi contano meno di quelle dei principali stati degli Usa, per esempio. 

Guardiamo a ciò che è stato fatto in Europa con il Gdpr (il Regolamento generale sulla protezione dei dati, ndr): è evidente che non stiamo affrontando la questione di fondo. Stiamo creando una serie di standard per il consenso o il non consenso delle persone, e alla fine tutti optano per il consenso.

Ma non è il quadro giusto per un approccio normativo. Stiamo approcciando la questione come se si trattasse di un servizio, ma si tratta di un’architettura. Stiamo regolamentando la sicurezza attraverso il consenso. È come se regolassimo la sicurezza degli edifici mettendo un cartello sulla porta per dire che accettando le condizioni d'uso si acconsente alla progettazione e alla costruzione scadente dell'edificio; se cade non importa, si è acconsentito.

Questo testo è la trascrizione dell'intervento di Christopher Wylie al ZEG storytelling festival di Tbilisi, nel giugno 2023. È stato registrato e reso più scorrevole da Gian-Paolo Accardo

Sei un media, un'azienda o un'organizzazione? Dai un'occhiata ai nostri servizi di traduzione ed editoriale multilingue.

Sostieni il giornalismo europeo indipendente

La democrazia europea ha bisogno di una stampa indipendente. Voxeurop ha bisogno di te. Abbònati!

Sullo stesso argomento