AperturaInterviste

“L’IA generativa è una truffa. Le big tech plasmano la nostra visione del mondo” – Intervista a Milagros Miceli

In vista della prossima conferenza del Disruption Network Lab, dal titolo “Hacking Alienation – Sconfiggere l’alienazione e l’oppressione sistemica attraverso l’arte e la tecnologia”, che si terrà il 22 e 22 settembre presso il Kunstquartier Bethanien, continuiamo a parlare di intelligenza artificiale. Questa volta lo facciamo con Milagros Miceli, sociologa e informatica che, come Marwa Fatafta, che abbiamo intervistato la scorsa settimana, parteciperà al panel sulla “decolonizzazione” dell’intelligenza artificiale. Con Miceli abbiamo scelto di parlare degli aspetti che il pubblico solitamente non conosce di queste tecnologie e dei modelli di IA.

Che cosa c’è dietro una piattaforma come Chat GPT? Chi ci lavora e a quali condizioni? Chi decide quale visione del mondo debba venire filtrata dagli algoritmi e quali punti di vista debbano essere censurati? Che cosa succede ai nostri dati e al nostro pianeta, quando ci serviamo dell’IA? Da dove vengono e come sono utilizzati i dati che gli algoritmi usano per creare testi, immagini, filtrare risposte o cancellare contenuti? Il panorama che ne emerge ci dipinge un presente che non ha bisogno di temere le distopie del futuro, perché si è già costruito le proprie.

Sappiamo che i dataset hanno un impatto sul funzionamento dell’intelligenza artificiale. Puoi spiegarci in che modo e puoi farci degli esempi di come dataset diversi abbiano prodotto risultati diversi, nella pratica? 

Questa è un’ottima domanda. Quando parliamo di IA, una cosa molto importante da sapere è che l’IA non funziona “per magia”, nonostante ciò che siamo portati a credere. Non è una tecnologia che funziona da sola e nel vuoto. L’IA è sempre e solo l’imitazione di ciò che il mondo è già, impara imitando. E, per insegnare agli algoritmi di IA a imitare il mondo, dobbiamo fornire loro dei dati. Quando parliamo di dati, è importante notare che i dati non sono un’entità fissa. Non parliamo di un qualcosa di immutabile che sta lì e che noi “raccogliamo” e che rimane stabile nel tempo.

I dati cambiano, perché il mondo cambia. Pensiamo, ad esempio, a un algoritmo programmato per riconoscere i discorsi d’odio dai social media. I discorsi d’odio cambiano, prima di tutto, a seconda di chi li guarda. Quindi quello che per una persona potrebbe essere un discorso terroristico, per altri potrebbe essere solo un discorso politico, per altri ancora potrebbe essere una forma di resistenza. Queste cose cambiano nel tempo.

Un giorno, in una certa epoca e in un certo contesto politico e geografico, una parola può essere solo una parola, mentre in un altro contesto può essere un insulto o un tipo di discorso politico e di odio molto grave. Anche questo cambia nel tempo. L’importante è che i dati riflettano questi cambiamenti.

E abbiamo bisogno di dati per adattarci a questi cambiamenti. E questo è il motivo per cui è importante riconoscere che i dati non sono una costante fissa che si dà in pasto a un algoritmo e, dopo di che, l’algoritmo è “addestrato” e non c’è più bisogno di intervenire. Questo è anche il motivo per cui c’è costantemente bisogno di lavoratori, esseri umani, che curino i dati e alimentino l’algoritmo con nuovi dati, con dati migliorati, aggiornati, in modo che funzioni, che rifletta la realtà in modo più o meno accurato. E anche in questo caso vale la pena di chiedersi: che cos’è la realtà? Di quale realtà stiamo discutendo? Ma questo è un altro discorso.

È possibile insegnare a un algoritmo di apprendimento automatico il contesto con le conoscenze che abbiamo ora? 

Possiamo insegnare il contesto nel senso in cui noi lo comprendiamo. Restando sull’esempio del discorso di odio, possiamo insegnare all’algoritmo che, in un contesto specifico, la parola “maiale” si riferisce a un animale, mentre in un altro contesto è un insulto.

Ma questi contesti devono essere predefiniti in modo molto, molto ristretto. Devono essere molto specifici in termini che definiscono quali siano i limiti del contesto e tutto ciò che è al di fuori del contesto non verrà rilevato dall’algoritmo, perché l’algoritmo non può fare inferenze su nuove istanze. Quindi, se qualcosa esce dal contesto, da ciò che è stato insegnato, l’algoritmo non può fare nulla e il modello non può lavorare su quel contesto.

Ecco perché dico che è necessario aggiornarsi costantemente perché, ancora una volta, il mondo cambia e, ad esempio, una parola che prima era innocua a un certo punto può essere usata come un insulto, proprio perché anche il linguaggio cambia.

E questo è il motivo per cui su alcune piattaforme, come TikTok, per esempio, se un giornale come il nostro condivide una notizia del tutto neutrale che contiene la parola “Palestina”, anche senza alcun commento politico, si guadagna un immediato shadowban e una forte riduzione della visibilità. Ma, se un utente dovesse scrivere “Vorrei che la P4l3st1n4 fosse d1strutt4” il suo contenuto verrebbe percepito come innocuo. Questo potrebbe essere esempio di data set, una sorta di idea moralistica secondo cui abbiamo “preservato l’innocenza degli utenti” vietando a chiunque di usare la parola “uccidere”, ma permettendo a chiunque di esprimere il desiderio che altre persone vengano uccise? 

Sì, è un ottimo esempio, ma è anche un ottimo esempio di qualcosa che sarà oggetto del mio intervento alla conferenza, ovvero l’idea che queste tecnologie non sono “innocenti”. Questi punti di vista, che sono incorporati nei dati, vengono considerati da alcuni come pregiudizi dell’algoritmo. Io odio questa parola, perché implica che queste cose accadano accidentalmente, che siano al di fuori del nostro controllo, che si verifichino perché l’intelligenza artificiale è una tecnologia che non possiamo comprendere appieno e che è completamente autonoma nel suo funzionamento.

Invece, la realtà è che queste tecnologie riflettono una visione del mondo molto specifica, una visione del mondo in cui la parola “Palestina” può essere criminalizzata, ma il concetto di voler uccidere qualcuno no. Mi viene in mente un episodio capitato poche settimane fa. Mia figlia, che ha 19 anni, è molto attiva su TikTok e i suoi post hanno centinaia di migliaia di visualizzazioni e like. Un giorno ha postato un TikTok indossando una spilla che diceva “Palestina libera”. E non era l’argomento del video: stava parlando di tutt’altro. Quel TikTok ha ottenuto quattro visualizzazioni e lei mi ha chiesto cosa fosse successo: le ho spiegato che era il suo primo shadowban.

Quello che voglio dire è che, per quanto cerchino di darci a intendere che queste tecnologie siano neutrali, non è così. Rispondono a visioni del mondo molto specifiche, visioni del mondo politiche, ovviamente, perché ogni visione del mondo è politica, visioni su come il mondo dovrebbe essere. L’errore è che molti di noi – e la società in generale – tendono a pensare che ciò che si riflette sui social media si possa considerare neutrale. Ci sono molte persone che si informano attraverso i social media e quello che ricevono è ciò che intendono come realtà. Ma non è così. E lo stesso vale per altri tipi di IA. Ad esempio, quando parliamo di IA generativa o di persone che pongono domande a Chat GPT e ne considerano le risposte come un riflesso accurato della realtà. 

Il che è, in un certo senso un modo di fidarsi troppo dell’umanità, perché Chat GPT prende i suoi dati da ciò che l’umanità dice online, il che, in generale, potrebbe non essere garanzia di qualità. Penso a quel bot che, qualche hanno fa, è stato “addestrato” su Twitter, iniziando la sua presenza online carico d’amore per l’umanità e che, nel giro di pochi giorni, nutrendosi dei contenuti condivisi dagli altri utenti, è diventato nazista.

Esatto. Ma, ancora una volta, voglio sottolineare che queste tecnologie non sono semplicemente addestrate su tutto ciò che le persone scrivono e dicono online, ma solo su una sezione molto specifica di ciò che viene detto e scritto.

Ci sono tante voci online, ma alcune vengono rimosse, mascherate, spesso sotto il mantello della lotta ai discorsi di odio all’interno delle policy di Meta o di ByteDance, la società che gestisce TikTok. Le loro politiche riflettono specifiche visioni del mondo su ciò che può essere considerato un discorso d’odio e su ciò che non lo è. Quindi non si tratta solo di ciò che le persone dicono online, ma anche di quale parte di questi discorsi le aziende considerano degno di essere utilizzato per addestrare i loro modelli. C’è una selezione, una selezione molto, molto specifica. 

In pratica, la nostra visione del mondo rischia di essere plasmata da Alphabet?

 Beh, sì, è già così.

Nella tua esperienza, quanta consapevolezza c’è riguardo all’etica dello sviluppo e dell’uso dell’intelligenza artificiale e quanto è probabile che tale consapevolezza migliori in futuro? Le generazioni future saranno più o meno consapevoli di questi pregiudizi? 

Spero che siano più consapevoli, e credo che questo sia fondamentale. Come in molti altri ambiti, sono fondamentali l’educazione e la consapevolezza generale.

Tuttavia, credo che il semplice fatto che le persone siano a conoscenza di questi fenomeni non sia sufficiente, che ci sia bisogno di una chiara consapevolezza della posta in gioco, di come i nostri dati, tutti i nostri dati, vengano utilizzati per arricchire aziende che sono già multimiliardarie. Ma occorre anche essere consapevoli del potere di queste aziende di plasmare il mondo e di plasmare le visioni del mondo che tutti noi condividiamo e riteniamo vere.

Credo che questo debba essere molto più esplicito. Non credo che ci sia molta consapevolezza di questo. Credo che, quando si parla di etica dell’IA o di pregiudizi, si tenda a concentrare l’attenzione sullo spazio tecnico, a convincersi che basti creare “algoritmi migliori”, “pulire” i dati o aggiungere più dati, perché tutto vada a posto.

Si tende a credere che ci sia solo bisogno di dataset più diversificati, ma questa non è nemmeno la metà del problema. Perché, anche se si pensa di aggiungere più dati diversificati, ci si deve chiedere: da dove vengono questi dati? In quali condizioni vengono presi dalle persone, anche da quelle che rappresentano gruppi emarginati? Le persone sono consapevoli della raccolta e dell’utilizzo dei loro dati? Sono d’accordo con li loro utilizzo? Sono favorevoli alla creazione di sistemi in grado di riconoscerle meglio, di sorvegliarle meglio? Ad esempio, qualche anno fa, un caso paradigmatico di distorsione è stato uno studio di Joy Buolamwini, che ha verificato come i sistemi di visione computerizzata non riconoscano le persone nere, soprattutto le donne, nello stesso modo in cui riconoscono le persone bianche. E questo è un chiaro caso di pregiudizio dell’IA.

Dopo aver evidenziato questa carenza, però, ha anche iniziato a sottolineare che sarebbe il caso di chiedere alle persone interessate se vogliano davvero affinare la capacità di riconoscimenti di sistemi di sorveglianza che, in molti casi, vengono usati contro di loro in modo sproporzionato.

Quindi, a volte non si tratta solo di volere sistemi che funzionino bene per tutti, ma ci sono anche sistemi dei quali dobbiamo chiederci in assoluto se debbano esistere e se siano applicati in modo sproporzionato a danno delle minoranze emarginate. 

All’interno del panel “Decolonizing AI” si parlerà anche delle dinamiche di potere e delle condizioni di lavoro che esistono nell’industria dell’IA. Questo è un aspetto che il pubblico conosce molto poco, poiché tende a considerare le aziende come identità monolitiche più o meno senza volto. Qual è, secondo te, un aspetto importante da conoscere, a proposito del lavoro nell’IA e sulle dinamiche di potere che lo caratterizzano?

Quello che secondo me la gente dovrebbe sapere è che anche se queste aziende ci appaiono monolitiche, dietro c’è un’enorme quantità di persone. Utilizzo i numeri della Banca Mondiale: in tutto il mondo ci sono fra i 150 e i quasi 400 milioni di persone impiegate nel lavoro sui dati. Spesso si tratta di lavoratori esternalizzati, che non sono ufficialmente dipendenti delle grandi aziende tecnologiche. Lavorano attraverso piattaforme o società terze. E sono loro a costituire il carburante dell’IA. Sono loro a svolgere il lavoro di raccolta, cura, separazione dei dati, applicazione delle politiche a cui facevo riferimento prima, in modo che i sistemi di IA e anche le piattaforme di social media possano funzionare.

Senza di loro non avremmo ChatGPTMidJourneyFacebookTwitterInstagram, come li conosciamo. Questi lavoratori vengono pagati pochi centesimi all’ora e in molti casi sono soggetti a condizioni di lavoro disumane. Anche se lavorano per i giganti della tecnologia, non si trovano nella Silicon Valley. In molti casi si trovano nei Paesi del Sud del mondo o nei Paesi in via di sviluppo. E in molti casi le aziende approfittano del fatto che queste persone non hanno molte alternative. Infine, un’altra cosa da sapere è che, a causa dei contenuti che revisionano e delle condizioni e delle pressioni a cui sono sottoposti, molti di questi lavoratori sono segnati a vita. Immaginate di essere un moderatore di contenuti per Facebook e di dover moderare contenuti relativi alla violenza sessuale, all’autolesionismo, persino all’abuso sessuale su minori: non è certo un lavoro piacevole da svolgere e si viene pagati poco. Si tratta di un’industria con moltissimo sfruttamento.

Ma è importante che la gente sappia che senza questi lavoratori non avremmo le tecnologie che conosciamo e di cui tutti godiamo. 

Hai fatto qualche ipotesi su come potrebbe evolversi l’IA e sul grado di controllo che avremo su di essa? Sarà uno scenario apocalittico o riusciremo a tenere sotto controllo il potere di questo particolare “genio” ora che è uscito dalla bottiglia? 

Non credo negli scenari apocalittici, tipo Terminator arriverà e ci ucciderà tutti o le macchine si rivolteranno contro di noi o cose del genere. Credo però che lo scenario che ci troviamo davanti in questo momento sia già molto cupo. E finché non saremo consapevoli del potere di queste aziende e soprattutto del potere che stiamo dando loro grazie ai nostri dati, continuerà ad andare così e anche peggio.

Ci sono quindi due cose che posso ipotizzare per il futuro. Una è che l’idea che in futuro non avremo bisogno di lavoro umano per alimentare queste tecnologie sia una bugia.

In termini numerici, ad esempio, i lavoratori dei dati e i moderatori di contenuti sono cresciuti esponenzialmente nell’ultimo anno. Anche in questo caso, stiamo parlando di circa 400 milioni di persone in tutto il mondo. Praticamente la popolazione dell’Unione Europea.

Sono moltissime persone e i numeri continuano a crescere senza mostrare alcun segno di rallentamento. Quando sentiamo dire che in futuro i dati saranno etichettati automaticamente o che non avremo bisogno di moderatori di contenuti, perché gli algoritmi svolgeranno da soli questa funzione, dobbiamo sapere che non è vero.

Avremo ancora bisogno di lavoratori umani, con competenze diverse, in posizioni diverse, ma umani. Questa è la prima cosa. La seconda è la questione della sorveglianza. Naturalmente, come ogni tecnologia che si concentri nelle mani di pochi, l’AI continuerà a essere utilizzata sempre di più su tutti noi, ma soprattutto sulle popolazioni che sono già in una posizione vulnerabile. Quindi vedremo sempre più l’uso di queste tecnologie per il controllo delle frontiere, per esempio, o a scopo bellico.

Assisteremo a un aumento della sorveglianza nelle strade e nei luoghi di lavoro, anche in questo caso in modo sproporzionato a danno delle popolazioni vulnerabili, a chi fra noi si trova, in base a diverse variabili intersezionali, in una posizione più vulnerabile rispetto ad altri. 

In qualità di esperta di IA, analista, sociologa e, in generale, dopo aver passato molto tempo a studiare l’IA, c’è una piattaforma o un servizio che non useresti mai e che non vorresti che i tuoi amici e familiari usassero? 

Tutto ciò che ha a che fare con la cosiddetta IA generativa. Penso che sia una truffa. Non genera nulla. Si limita a prendere e a remixare contenuti prodotti da altri. Ci sono artisti e giornalisti a cui viene sottratto il lavoro di una vita per addestrare queste macchine che, tra l’altro, sono tecnologie utilizzate a scopo di lucro. Non stiamo parlando di un sistema in cui i i dati vengono donati e poi si crea un modello gratuito che tutti possono usare. Non funziona così. Inoltre, ci toglie l’unica cosa che ci rende umani: la nostra possibilità di creare.

Quindi capisco che sia utile, a volte, usare Chat GPT per scrivere, per esempio per aiutarsi se non si domina una certa lingua, lo capisco. Eppure, anche gli errori di grammatica ci rendono unici, così come il tono, i modi in cui scriviamo. Lo stesso vale per i generatori di immagini.

Quindi credo che questo sia il primo pericolo. L’altro pericolo, che ormai è noto, è che il costo ambientale di queste tecnologie è enorme. E in molti casi non ne vale la pena.

Fare una domanda sul Chat GPT, è come buttare via un secchio d’acqua. E a volte la risposta non è nemmeno di qualità. Infine queste tecnologie hanno il potere di creare e riprodurre visioni del mondo dominanti, come se fossero vere, come se fossero l’unica e sola possibilità di interagire con il mondo. Credo che questo sia molto pericoloso. Per questo non uso queste tecnologie e cerco di consigliare agli altri di non usarle, perché non sono così fantastiche come cercano di farci credere.

Tutte le informazioni per partecipare di persona alla conferenza “Hacking Alienation” del Disruption Network Lab o seguirla online sono disponibili qui.

Related Articles

Back to top button