banner

Blog

Jul 25, 2023

Queste donne hanno messo in guardia sui pericoli e sui rischi dell'intelligenza artificiale molto prima di ChatGPT

T IMNIT GEBRU non aveva intenzione di lavorare nell'intelligenza artificiale. A Stanford, ha studiato ingegneria elettrica, ottenendo sia una laurea che un master nel settore. Successivamente si è interessata all'analisi delle immagini, ottenendo il dottorato di ricerca. nella visione artificiale. Quando è passata all’intelligenza artificiale, però, è stato subito chiaro che c’era qualcosa di molto sbagliato.

“Non c’erano persone di colore – letteralmente nessun popolo di colore”, dice Gebru, che è nato e cresciuto in Etiopia. “Andavo alle conferenze accademiche sull’intelligenza artificiale e vedevo quattro o cinque persone di colore su cinque, sei, settemila persone a livello internazionale… Ho visto chi stava costruendo i sistemi di intelligenza artificiale, i loro atteggiamenti e i loro punti di vista. Ho visto per cosa venivano usati e ho pensato: "Oh mio Dio, abbiamo un problema".

Quando Gebru è arrivata a Google, ha co-guidato il gruppo Ethical AI, una parte dell'iniziativa Responsible AI dell'azienda, che ha esaminato le implicazioni sociali dell'intelligenza artificiale, compresi i sistemi di intelligenza artificiale "generativa", che sembrano apprendere da soli e creare nuovi contenuti basati su ciò che hanno imparato. Ha lavorato a un articolo sui pericoli dei modelli linguistici di grandi dimensioni (LLM), sistemi di intelligenza artificiale generativa addestrati su enormi quantità di dati per fare ipotesi plausibili sulla parola successiva in una frase e sputare testi a volte stranamente umani. Quei chatbot che sono ovunque oggi? Alimentato da LLM.

Allora, i LLM erano nelle loro fasi iniziali e sperimentali, ma Google stava già utilizzando la tecnologia LLM per potenziare il suo motore di ricerca (è così che vengono visualizzate le query generate automaticamente prima di aver finito di digitare). Gebru poteva vedere la corsa agli armamenti prepararsi per lanciare LLM più grandi e potenti – e poteva vederne i rischi.

Lei e altri sei colleghi hanno esaminato i modi in cui questi LLM – che sono stati formati su materiale che include siti come Wikipedia, Twitter e Reddit – potrebbero riflettere pregiudizi, rafforzando i pregiudizi sociali. Meno del 15% dei contributori di Wikipedia erano donne o ragazze, solo il 34% degli utenti di Twitter erano donne e il 67% degli utenti Redditor erano uomini. Eppure queste erano alcune delle fonti distorte che alimentano GPT-2, il predecessore del rivoluzionario chatbot di oggi.

I risultati furono preoccupanti. Quando un gruppo di scienziati californiani ha dato a GPT-2 il messaggio “l’uomo ha lavorato come”, ha completato la frase scrivendo “un venditore di automobili al Wal-Mart locale”. Tuttavia, il suggerimento “la donna lavorava come” ha generato “una prostituta sotto il nome di Hariya”. Altrettanto inquietante è stato “l’uomo bianco ha lavorato come”, che ha portato a “un agente di polizia, un giudice, un pubblico ministero e il presidente degli Stati Uniti”, in contrasto con “l’uomo nero ha lavorato come”, che ha generato “un magnaccia per 15 anni."

Per Gebru e i suoi colleghi era chiaro che ciò che questi modelli stavano proponendo era dannoso e doveva essere affrontato prima che causassero ulteriori danni. "È stato dimostrato che i dati di formazione presentano caratteristiche problematiche che danno luogo a modelli che codificano associazioni stereotipate e dispregiative riguardo al genere, alla razza, all'etnia e allo stato di disabilità", si legge nell'articolo di Gebru. “I punti di vista suprematisti bianchi, misogini, ageisti, ecc., sono sovrarappresentati nei dati di formazione, non solo superando la loro prevalenza nella popolazione generale, ma anche creando modelli addestrati su questi set di dati per amplificare ulteriormente pregiudizi e danni”.

“Le sentenze comportano delle responsabilità. E la responsabilità, in fin dei conti, spetta agli esseri umani”.

Man mano che i modelli linguistici continuavano a svilupparsi, le aziende hanno cercato di filtrare i propri set di dati. Tuttavia, oltre a sopprimere parole come “potere bianco” e “upskirt”, hanno anche soppresso parole come “twink”, un termine apparentemente dispregiativo riproposto in modo giocoso da persone della comunità LGBTQ.

“Se filtriamo il discorso delle popolazioni emarginate, non riusciamo a fornire dati formativi che recuperino gli insulti e descrivano in altro modo le identità emarginate in una luce positiva”, si legge nel documento.

Gebru alla fine è stata licenziata da Google dopo un botta e risposta sull'azienda che chiedeva a lei e ad altri colleghi di Google di cancellare i loro nomi dal rapporto. (Google ha un resoconto diverso di quello che è successo: ne parleremo più avanti.)

CONDIVIDERE