Quando l’Intelligenza Artificiale è razzista: Islamofobia e “Garbage In Garbage Out”​

“La vera ragione per cui i musulmani sono terroristi si trova nel Sacro Corano. Sono terroristi perché l’Islam è un’ideologia totalitaria e suprematista che contiene in sé la disposizione alla violenza e alla jihad fisica”. Sembra un estratto di un discorso pronunciato da un politico nazionalista di destra dalle poco velate tendenze razziste… e invece è una frase di GPT-3, l’algoritmo di machine learning, creato dal laboratorio di ricerca OpenAI, in grado di realizzare discorsi e frasi formalmente perfette, indistinguibili dal linguaggio umano.

GPT-3, acronimo di Generative Pre-trained Transformer 3, sfrutta un language model autoregressivo. Basandosi su un dataset di espressioni verbali scritte, descritto come un “corpus diversificato di testi non categorizzati”, sceglie le parole per completare espressioni tramite metodi di calcolo statistici. Essendo un processo di apprendimento non supervisionato, il sistema non ha esempi di riferimento e deve trovare da solo le somiglianze e le relazioni tra i dati.

GPT-3 è riconosciuto come uno degli algoritmi di NLP (Natural Language Processing) più potenti e raffinati mai realizzati: può generare interi articoli su un argomento, racconti, poesie. Riesce a rispondere a domande, raccontare barzellette e perfino programmare.

“Garbage in, Garbage out”: l’Intelligenza Artificiale è razzista?

Facendo riferimento però a dei corpora di dati disponibili in rete, oltre dalle conoscenze il sistema apprende anche dai bias umani facilmente riscontrabili online: fra cui, appunto, espressioni razziste verso minoranze, persone di colore e donne. Per esempio, all’Islam vengono associate espressioni violente e aggressive.

Si tratta del principio di Artificial Intelligence definito “Garbage in, Garbage out”: il sistema impara dagli input che riceve e, quindi, ne replica le qualità nell’output che restituisce.

Oltre a generare contenuti di qualità, quindi, GPT-3 ha la facoltà di generare informazioni fuorvianti, fake news, espressioni volgari e socialmente inaccettabili: il sistema infatti non è in grado di valutare la bontà del contenuto in input né in output. A tal proposito l’autore e programmatore Gwern Branwen ha twittato che “GPT-3 is terrifying because it’s a tiny model compared to what’s possible, trained in the dumbest way possible”.

Non è una problematica nuova in ambito di machine learning: già nel 2016 il bot intelligente Tay, realizzato da Microsoft, dopo poche ore dalla sua release su Twitter aveva iniziato a twittare espressioni offensive e polemiche.

Anche OpenAI è perfettamente conscia di queste vulnerabilità di GPT-3. Se il suo sistema di NLP è tanto potente da superare il test di Turing e l’obiettivo dell’azienda è “to ensure that artificial general intelligence benefits all of humanity”, ci possiamo aspettare che sin nei prossimi mesi vengano trovate soluzioni a questi problemi.

 

Per saperne di più: https://www.vox.com/future-perfect/22672414/ai-artificial-intelligence-gpt-3-bias-muslim

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

2 + tre =