AI - Intelligenza Artificiale | Digitalizzazione
Data Pubblicazione:

Perchè i sistemi di Intelligenza Artificiale discriminano le persone di colore

Nuovi strumenti di Sony e Meta cercano di ridurre i pregiudizi nei sistemi di visione AI. Sony espande la misurazione del tono della pelle in due dimensioni, mentre Meta presenta FACET, un metodo per valutare l'equità nei modelli di visione. Questi strumenti potrebbero migliorare la precisione e la diversità dei modelli, ma la lotta contro i pregiudizi continua.

Nuovi strumenti per rendere i sistemi di visione AI meno bias

L'intelligenza artificiale è sempre più presente nei sistemi di analisi delle immagini, ma incredibilmente spesso mostra pregiudizi, soprattutto nei confronti di persone di colore e donne.

Il problema è che anche le attuali metodologie per rilevare questi pregiudizi sono spesso influenzate da bias.

I bias, o pregiudizi, in informatica e nell'ambito dell'intelligenza artificiale (IA), si riferiscono a distorsioni sistematiche o distorsioni nelle decisioni prese da algoritmi o modelli di IA. Queste distorsioni possono derivare da molteplici fonti e possono influenzare vari aspetti delle applicazioni di IA.

Uno dei tipi più comuni di bias riguarda i dati di addestramento.

Se i dati utilizzati per allenare un modello di IA sono incompleti o rappresentano in modo sbilanciato diverse categorie, il modello potrebbe produrre risultati distorti o discriminatori.

E in riferimento all’argomento trattato da questo articolo, si può affermare che un modello di riconoscimento facciale addestrato principalmente su dati di individui di una specifica etnia potrebbe avere difficoltà a riconoscere correttamente individui di altre etnie.

I bias possono anche insinuarsi attraverso le scelte fatte nel processo di progettazione dell'algoritmo.

Ad esempio, se si selezionano determinate feature o si definiscono certe metriche senza un'attenta considerazione delle implicazioni, il modello potrebbe favorire alcune categorie a scapito di altre.

E’ chiaro quindi che i bias possono portare a gravi conseguenze sociali ed etiche. Possono portare a discriminazioni ingiuste, escludere gruppi svantaggiati o perpetuare stereotipi dannosi.

Per affrontare questi problemi, gli scienziati e gli ingegneri stanno sviluppando strumenti e tecniche per identificare, mitigare e prevenire i bias nei sistemi di IA. Questi sforzi comprendono la raccolta di dati più rappresentativi, l'implementazione di algoritmi di correzione dei bias e l'adozione di pratiche etiche nella progettazione e nell'uso di modelli di IA.

Un articolo pubblicato sul MIT Technology Review dal titolo “These new tools could make AI vision systems less biased” scritto da Melissa Heikkilä affronta questo tema riportando due nuovi articoli di ricerca, uno da Sony e l'altro da Meta, propongono nuovi approcci per misurare i pregiudizi nei sistemi di visione AI in modo più accurato.

Il problema dei pregiudizi nei sistemi intelligenti di analisi delle immagini

I sistemi di visione AI sono onnipresenti e svolgono compiti come la classificazione delle immagini sui social media, il riconoscimento di oggetti e volti nelle foto e nei video, e l'evidenziazione di elementi rilevanti in un'immagine. Anche l’autrice della rivista del MIT riconosce però che questi sistemi sono spesso afflitti da pregiudizi, che li rendono meno precisi quando si tratta di immagini che mostrano persone di colore, donne o altre categorie.

E aggiunge l’informazione che i metodi attuali utilizzati per rilevare i pregiudizi in questi sistemi sono anch'essi influenzati da bias. Spesso classificano le persone in categorie ampie che non tengono conto della complessità della diversità umana.

Le Nuove Proposte di Sony e Meta

Due nuovi articoli di ricerca, sviluppati da team di Sony e Meta, propongono modi innovativi per misurare i pregiudizi nei sistemi di visione AI in modo più accurato. Entrambi gli articoli saranno presentati alla conferenza ICCV di ottobre.

L’approccio di SONY

Tradizionalmente, il bias legato al tono della pelle nei sistemi di visione viene misurato utilizzando la "scala di Fitzpatrick," che misura dalla pelle chiara a quella scura.

Tuttavia, questa scala è stata originariamente sviluppata per misurare l'abbronzatura della pelle bianca e ora è utilizzata per determinare l'etnia. Questo approccio ha limitazioni, ad esempio, non tiene conto del fatto che il tono della pelle cambia con l'età.

Il team di Sony ha sviluppato uno strumento che espande questa scala in due dimensioni, misurando sia il colore della pelle (da chiaro a scuro) che la sua tonalità (dal rosso al giallo). Questo approccio più completo offre una visione più precisa della diversità del tono della pelle umana.

L'Approccio di META

Meta ha sviluppato una nuova metodologia chiamata "Fairness in Computer Vision Evaluation" (FACET) per misurare l'equità nei modelli di visione artificiale. FACET può essere utilizzato in una serie di compiti comuni come la classificazione, il riconoscimento e la segmentazione.

Per creare FACET, Meta ha creato un ampio set di dati contenente 32.000 immagini di persone etichettate da annotatori di tutto il mondo. Questi annotatori hanno etichettato le immagini con 13 attributi visivi diversi, come l'età percepita, il tono della pelle, la rappresentazione di genere, il colore e la texture dei capelli, e altro ancora. Questo approccio offre una valutazione dei bias più accurata e sfumata.

Implicazioni e Futuro

L'utilizzo di questi nuovi strumenti potrebbe aiutare gli sviluppatori a verificare la diversità dei loro set di dati, contribuendo a una migliore formazione dei modelli AI.

Tuttavia, è importante notare che questi strumenti rappresentano solo un passo verso la riduzione dei pregiudizi nei sistemi di visione AI. Molti esperti ritengono che sia ancora necessario un lavoro significativo per raggiungere un sistema che rifletta appieno la complessità della diversità umana.

Le nuove metodologie proposte da Sony e Meta aprono la strada a una maggiore consapevolezza e miglioramenti nella lotta contro i pregiudizi nei sistemi di visione AI, ma è fondamentale continuare a investire nell'etica dell'IA e nella ricerca per garantire un futuro più equo e inclusivo per l'intelligenza artificiale.

Si tratta di un passaggio importante.

I bias razziali ed etnici all'interno degli algoritmi possono generare gravi conseguenze sociali. Questi algoritmi, quando non adeguatamente controllati, possono perpetuare e persino amplificare le disuguaglianze esistenti nella società.

Innanzitutto, possono portare a discriminazioni ingiuste, in cui gruppi razziali o etnici minoritari vengono svantaggiati in settori chiave come l'occupazione, l'accesso all'assistenza sanitaria e l'educazione. Ad esempio, se un algoritmo di screening del lavoro è influenzato da bias razziali, potrebbe penalizzare candidati di determinate etnie, contribuendo a un ciclo di disoccupazione e sottoutilizzo delle competenze.

Inoltre, questi algoritmi possono perpetuare stereotipi dannosi, influenzando le decisioni delle persone e delle istituzioni. Ciò può portare a percezioni distorte delle diverse comunità e può esacerbare le tensioni sociali esistenti.

Dal punto di vista delle conseguenze sociali, questi bias alimentano le disuguaglianze sistemiche, aumentando la marginalizzazione di gruppi razziali ed etnici. Questo può portare a sfiducia verso le istituzioni e la tecnologia stessa.

Inoltre, gli algoritmi con bias possono scatenare reazioni negative e proteste da parte del pubblico. Ciò danneggia la reputazione delle organizzazioni coinvolte e può portare a conseguenze legali ed etiche significative.

Affrontare questi problemi richiede uno sforzo congiunto da parte di ricercatori, sviluppatori e legislatori per sviluppare strumenti per mitigare i bias nell'IA, promuovere l'equità e garantire che l'uso dell'IA sia responsabile e rispettoso delle diverse comunità..

L’articolo  riporta due casi di ricerca, ma sono entrambe situazioni in cui sono i privati ad investire sull’argomento. Non lo fanno ovviamente per dare un contributo generoso al mondo ma semplicemente per migliorare la loro capacità di business. Lo fanno anche perchè hanno le risorse economiche, tecniche ed umane per farlo. 

La preoccupazione è che l’incapacità dei governanti di comprendere l’’importanza e l’urgenza di questi temi così come la carenza di risorse destinate da questi alla ricerca possa portare a un futuro a un nuovo tipo di discriminazione, tra la potenza di pochi player privati di governare con l’intelligenza artificiale il mondo e l’impossibilità da parte del cittadino di poter essere tutelato, ovvero di difendersi.

AI - Intelligenza Artificiale

Con questo Topic raccogliamo per i nostri lettori tutti gli articoli, news, approfondimenti riguardanti l'evoluzione tecnica, le norme e regole, i casi applicativi sul tema dell'intelligenza artificiale

Scopri di più

Digitalizzazione

News e approfondimenti che riguardano, in generale, l'adozione di processi e tecnologie digitali per la progettazione, la costruzione e la gestione dell'ambiente costruito.

Scopri di più

Leggi anche