L’intelligenza artificiale non è neutra

› Scritto da

di Zoe Cecchinato e Martina Vercoli

Non c’è dubbio che l’intelligenza artificiale sia uno degli argomenti più importanti di quest’anno e che stia divenendo rapidamente una parte essenziale delle nostre vite. Per questo cercare di comprendere come questa nuova tecnologia possa influenzare la nostra quotidianità e se questo impatto sia positivo o negativo, rappresenta sicuramente una grande sfida. Al momento però, sembrano esserci più dubbi che risposte. 

Quel che è certo è che, nel corso dell’ultimo anno, hanno iniziato ad emergere numerose problematiche e controversie, caratterizzate dalla diffusione dell’idea di intelligenza artificiale come “arma a doppio taglio”: uno strumento che può certamente semplificare le nostre azioni quotidiane, ma che, allo stesso tempo, deve essere utilizzato con molta cautela.

Una delle tante preoccupazioni riguarda il modo in cui l’enorme quantità di informazioni raccolte dall’AI possa assorbire pregiudizi già esistenti nella nostra società. 

In quest’era digitale capita sempre più spesso di sentir parlare o di leggere titoli che parlano della tecnologia come di uno strumento del tutto democratico alla portata di pressoché chiunque o addirittura di lodarne l’imparzialità in quanto non soggetto all’influenza delle emozioni o dei pregiudizi tipici invece del funzionamento del cervello umano, ma è veramente così?

L’AI non si costruisce da sé e ad oggi non è  in grado di essere autonoma; la sua programmazione consiste in un addestramento continuo che si basa sull’accesso ad enormi banche dati create però, almeno in una prima fase, dalla mente umana; ed è proprio questo punto a determinare un primo cedimento di quell’assunto iniziale. Le banche dati, ossia “il mare” da cui “pescano” gli algoritmi e le altre intelligenze artificiali, è “riempito” da esseri umani che possiedono inevitabilmente dei bias cognitivi. 

Si definiscono bias cognitivi tutti i meccanismi che, più o meno consciamente, avvengono all’interno della mente umana, e quindi fortemente influenzati dagli schemi sociali imposti, che condizionano continuamente il nostro operato e le scelte che compiamo nella vita di ogni giorno. 

I dati stessi, infatti, sono generalmente discriminatori o comunque non rappresentativi dei gruppi marginalizzati, delle donne, delle persone nere. Durante tutte le fasi di progettazione, sviluppo ed implementazione dell’intelligenza artificiale, gli input sono di per sé discriminatori. Certamente anche la mancanza di rappresentanza nell’industria tecnologica di persone esperte che possano in qualche modo affrontare e porre un freno ai potenziali danni di queste tecnologie, non fa che aggravare il problema. Alla luce di questo non è difficile dedurre che questi processi tecnologici siano profondamente forgiati sulla base della mente di chi li produce che a sua volta è condizionata dall’ambiente culturale e da tutti i fattori che lo compongono. Ma come si manifestano questi bias? 

L’AI , Il gender and il race gap

Secondo gli studi condotti ad oggi, un primo gap imprescindibile è quello legato alle questioni di genere: i database contengono una schiacciante maggioranza di rappresentazione maschile e questo è dovuto al fatto che difficilmente le donne riescono a raggiungere ruoli apicali nelle imprese, ancor di più in quelle di area tecnologico-scientifica.

Altro elemento di discriminazione sistemica è la rappresentazione tarata sul modello stereotipato di uomo americano bianco, si unisce quindi ad un gender gap anche un race and geopraphic gap.

Nel 2015 il colosso Amazon ha scoperto che il meccanismo di reclutamento del personale affidato ad un’ AI escludeva sistematicamente i curricula di candidate donne.

Un’altra ricerca del 2018, condotta da Joy Buolamwini e Timnit Gebru, ricercatori del MIT e della Stanford University, hanno scoperto che tre programmi di riconoscimento facciale presenti sul mercato, acquisivano pregiudizi razziali e di genere. 

In particolare è stato evidenziato che nel determinare il sesso degli uomini di pelle chiara, i tassi d’errore dei programmi di riconoscimento facciale non hanno mai superato lo 0,8% mentre, per le donne con pelle scura, le percentuali salivano al 20% in un programma e ad oltre il 34% negli altri due. Questi stessi meccanismi, basati su banche dati distorte, rappresentano esattamente i database utilizzati per il riconoscimento facciale in moltissimi ambiti differenti, tra cui anche quello giuridico per esempio nell’identificazione di possibili colpevoli di reati.

Da quest’ultimo studio risulta chiaro come spesso la discriminazione razziale e di genere vengano a intersecarsi.

 Un’ altra indagine sul software “COMPAS”, creato per fornire consulenze ai giudici americani nella scelta della pena adeguata alla condanna, ha fatto emergere come l’algoritmo reiterasse pregiudizi nei confronti delle persone afrodiscendenti: a causa di uno sbilanciamento nella composizione del database, le persone nere avevano quasi il doppio delle possibilità di essere reputati ad alto rischio di criminalità rispetto ai bianchi,.

L’AI e il settore immobiliare

Gli algoritmi che assegnano punteggi ai possibili acquirenti sono diventati sempre più popolari nel settore immobiliare. Per quanto essi possano, per certi versi, assicurare una maggiore efficienza nell’identificare i migliori inquilini, dagli studi condotti è emerso che tale sistema contribuisce a portare avanti processi discriminatori. 

Le tecnologie relative all’intelligenza artificiale perpetuano una “discriminazione abitativa” nella selezione degli inquilini e nelle fasi di verifica per concedere mutui o prestiti finanziari. 

I sistemi di AI si basano sui registri dei tribunali o su altre serie di dati che incorporano pregiudizi e che riflettono problematiche come razzismo e sessismo: a molte persone l’alloggio viene, infatti, negato a priori nonostante la loro capacità economica di sostenere un affitto, proprio perché non sono ritenuti idonei dagli algoritmi utilizzati per effettuare la selezione (offerti da diverse società come Saferent). E’ molto importante specificare che i punteggi di tali società sono in parte basati sulle informazioni contenute nelle relazioni sull’affidabilità creditizia. In America specialmente, ciò costituisce una grave discriminazione nei confronti di affittuari ispanici e neri. 

Due anni fa, una donna afroamericana il cui nome fittizio è Mary Louis, ha presentato una domanda di affitto per un appartamento nel Massachusetts, ma il padrone di casa, presumibilmente a causa di un punteggio assegnato da un algoritmo di selezione degli inquilini realizzato da Saferent, ha deciso di negarle l’affitto. La donna ha così deciso di rispondere con delle referenze per dimostrare i 16 anni precedenti di pagamenti puntuali dell’affitto, senza però ottenere alcun risultato. 

Un’azione collettiva presentata dalla donna e altre persone vittime dello stesso algoritmo sostiene che i punteggi SafeRent, basati in parte sulle informazioni contenute in un rapporto di credito, costituiscono una discriminazione nei confronti degli affittuari neri e ispanici violando il fair Housing Act, una legge che proibisce la discriminazione sulla base della razza, della disabilità, della religione o dell’origine nazionale che è stata approvata nel 1968. Il caso è tutt’oggi in corso e rappresenta uno dei tanti episodi relativi all’Housing discrimination.

“Sarebbe utile e necessario avere persino un briciolo di paura mentre si crea un algoritmo che impatterà sulla società, valutando attentamente eventuali asimmetrie, aspetti poco chiari e non in linea con le aspettative che dovessero emergere” sostiene Tina Eliassi-Rad, scienziata statunitense che si occupa di etica dell’intelligenza artificiale e di machine learning, nonché vincitrice per il 2023 del Premio Lagrange (massimo riconoscimento internazionale per la scienza dei sistemi complessi e dei dati) 

Insomma, lo sviluppo di queste nuove tecnologie sembra dare sempre più ragione alla prima legge della tecnologia di Melvin Kranzberg secondo cui “La tecnologia non è né buona né cattiva, ma non è neanche neutrale”.

TORNA ALL’INDICE DEL NUMERO ZERO