Riconoscimento facciale: la tecnologia non guarda agli aspetti discriminatori

Data storageDatabase

Secondo un articolo da Internazionale, tratto da Technology Review, si fa un paragone tra l’avanzata delle tecnologie di riconoscimento facciale e il palpabile disagio che ne può scaturire un aspetto discriminatorio

Negli ultimi anni c’è stato un incremento nell’adozione di tecnologie collegate al riconoscimento facciale. Molte persone avranno sentito parlare della funzione di Facebook che rileva la presenza di una persona nelle foto, o di FaceID di Apple, per sbloccare il telefono e fare altre operazioni con il volto. Secondo la rivista Internazionale che ha ripreso un articolo di Technology Review ci sono poi i sistemi di rilevamento, che determinano la presenza di un volto, o quelli di analisi, che cercano d’identificare caratteristiche come il genere o l’etnia.

Queste tecnologie oggi sono usate per scopi diversi – assunzione del personale, transazioni economiche, sicurezza – e molti ritengono che siano precise e imparziali. La logica è: la polizia potrebbe identificare una persona sbagliata, mentre un sistema d’intelligenza artificiale ben addestrato può identificare o classificare un volto con precisione. Ma in realtà la ricerca ha dimostrato più volte che questi sistemi non sono infallibili. Nel 2018 la ricercatrice dell’Mit Joy Buolamwini ha pubblicato uno studio, intitolato Gender shades (sfumature di genere) in cui rilevava che i sistemi venduti da alcune aziende (Ibm, Microsoft e Face ++) avevano un tasso di riconoscimento delle donne di pelle scura che era del 34,4% più basso di quello degli uomini di pelle chiara.

riconoscimento facciale

Anche un’organizzazione non governativa statunitense per i diritti civili (Aclu) ha scoperto che il software di Amazon, Rekognition, identificava i deputati non bianchi con minor precisione di quelli bianchi. Questi sistemi sono spesso alimentati con dati fuorvianti: esaminano meno foto di donne e persone non bianche che di persone dalla pelle chiara.

Proprio di questo si occupano tre studi pubblicati a gennaio. Il primo è un aggiornamento di Gender shades: Joy Buolamwini ha testato di nuovo i sistemi che aveva esaminato l’anno scorso, includendo anche il software Rekognition di Amazon e un nuovo sistema di una piccola azienda d’intelligenza artificiale chiamata Kairos.

Ci sono alcune buone notizie. Buolamwini ha scoperto che ora Ibm, Face++ e Microsoft riescono a distinguere con maggiore precisione se una persona di pelle scura è una donna. Microsoft ha ridotto il suo margine d’errore, portandolo a meno del 2%. Amazon e Kairos, invece, avevano ancora un divario di precisione, rispettivamente di 31 e di 23 punti percentuali nel riconoscimento di uomini dalla pelle chiara e donne dalla pelle scura. Il secondo studio, del Laboratorio d’informatica e intelligenza artificiale dell’Mit (Csail), ha dimostrato che un nuovo algoritmo può limitare gli errori in un sistema di rilevamento facciale, anche quando questo è alimentato con dati fortemente distorti. Man mano che impara, l’algoritmo individua gli esempi meno rappresentati e li esamina con più attenzione.

Nel terzo studio, l’Ibm Research ha identificato altri dati per misurare la diversità, oltre al colore della pelle e al genere, per esempio l’altezza e la larghezza del volto. Questi studi sono un passo importante per eliminare i pregiudizi nel campo del riconoscimento facciale, perché obbligano le aziende a rendere conto del proprio operato, creano nuovi algoritmi e ci aiutano a capire meglio la diversità dei dati. Ma creare dei sistemi più equi e precisi è solo l’inizio. Anche i sistemi più equi possono essere usati per ridurre la libertà delle persone. L’anno scorso un’inchiesta di Daily Beast ha rivelato che Amazon voleva offrire la sua piattaforma di riconoscimento facciale a un’agenzia federale degli Stati Uniti per contribuire al giro di vite contro i migranti. E un’indagine di Intercept ha scoperto che l’Ibm ha sviluppato un software, in collaborazione con il dipartimento della polizia di New York, che è stato usato nelle telecamere di pubblica sicurezza all’insaputa dei cittadini. Nel Regno Unito la polizia usa il riconoscimento facciale per individuare persone sospette in mezzo alla folla, mentre in Cina è usato per sorvegliare tutti i cittadini. Pertanto molti attivisti dei diritti umani ed esperti di tecnologia chiedono nuove leggi per regolamentare questi sistemi. “Senza una giustizia algoritmica, l’accuratezza degli algoritmi e l’imparzialità tecnica rischiano di trasformare gli strumenti d’intelligenza artificiale in armi contro le persone”, dice Joy Buolamwini.