Corsi di formazione sulla consapevolezza dell’equità aiutano i ricercatori a ridurre i pregiudizi dell’IA
Gli strumenti di apprendimento automatico possono avere dei pregiudizi. Questo è dovuto a dati di partenza distorti, ai pregiudizi degli stessi algoritmi usati per elaborare i dati o al modo in cui vengono usate le applicazioni di intelligenza artificiale (IA), ad esempio per filtrare le candidature ai posti di lavoro o ai corsi universitari. Nell’ambito di una rete di formazione innovativa Marie Skłodowska-Curie, il progetto NoBIAS ha formato 15 dottorandi di sei Paesi sulla «consapevolezza dell’equità», con l’obiettivo di ridurre i pregiudizi nell’apprendimento automatico in tutte le tre fasi: comprensione dei pregiudizi nei dati, attenuazione dei pregiudizi negli algoritmi e considerazione dei pregiudizi nei risultati. «La comunità informatica, e non solo, stava già lavorando sui pregiudizi. Ma il nostro è stato un grande progetto in cui abbiamo cercato di sviluppare lo stato dell’arte con nuovi metodi e nuove analisi», spiega Wolfgang Nejdl, coordinatore del progetto e direttore di L3S Research Center dell’Università Leibniz di Hannover, in Germania.
Formazione sugli approcci interdisciplinari per dottorandi
Un gruppo interdisciplinare di dottorandi ha affrontato il tema dei pregiudizi nell’apprendimento automatico dal punto di vista dell’informatica, della giurisprudenza e delle scienze sociali, sviluppando algoritmi «consapevoli dell’equità» e monitorando la provenienza e la trasparenza dei dati per capire in quale fase si presentano i pregiudizi. «Lavorando con altri, chi studia informatica può basarsi sul contesto giuridico o sulla prospettiva delle scienze sociali per inventare uno strumento o un metodo nuovo. Conoscere quali aspetti sono rilevanti tramite altre discipline fa la differenza», osserva Nejdl. Tra studenti di diverse discipline il tema dei pregiudizi è stato affrontato in alcune scuole estive, e successivamente in workshop e conferenze. Ogni dottorando è stato collegato a un’organizzazione partner che applica l’IA in campi specifici, come quello medico, bancario e della selezione del personale.
Equità e prospettive legali
Le applicazioni di IA possono violare i diritti di non discriminazione e non rispettare gli scrupoli legali ed etici, come quelli legati alla privacy. «Per questo è importante anche analizzare gli algoritmi esistenti e capire dove possiamo trovare una distorsione nei dati di input, di cui i ricercatori originali non erano a conoscenza», afferma Nejdl. E osserva: «A volte si prendono i dati ottenuti nel modo più semplice, non nel modo che meglio rappresenta la situazione che si vuole modellare». Negli ultimi tempi, il mondo dell’informatica ha cercato di mitigare le distorsioni apportando modifiche tecniche al modello. «Ora si pone il problema di stabilire se queste modifiche tecniche rispettino effettivamente le normative», afferma Nejdl, accennando alle politiche e alle leggi sulle pari opportunità di impiego o sulla parità di accesso all’università. Analizzando i dati per determinarne l’equità, NoBIAS è andato oltre i precedenti progetti di raccolta dati finanziati dall’UE, come LONGPOP, e oltre gli strumenti di condivisione dei dati, come quelli del progetto PrivacyUs dedicato alla privacy e all’usabilità dei dati.
I pregiudizi derivanti da dati limitati richiedono fonti più diversificate
Il pregiudizio è maggiore quando i dati sono limitati o non rappresentano adeguatamente l’intera popolazione, come nel caso di dati medici limitati a una regione geografica o demografica. «È più difficile eliminare i pregiudizi negli ambiti in cui non si hanno molti dati o fonti diverse», aggiunge Nejdl, sottolineando l’importanza di lavorare per diversificare le fonti di dati. Il responsabile del progetto NoBIAS, Gourab Kumar Patro, cita un esempio di come usare le conoscenze acquisite nel progetto per aggirare le restrizioni legali sull’uso delle informazioni in merito all’etnia. «Un ricercatore nella fase iniziale della carriera coinvolto in NoBIAS, che lavorava su considerazioni legali relative all’attenuazione dei pregiudizi, ha scoperto che è possibile raccogliere informazioni sull’etnia se si specifica che servono solo per attenuare i pregiudizi dell’algoritmo, e non per il processo di selezione. L’interazione interdisciplinare ha permesso di migliorare gli algoritmi.» Come spiega Patro, i risultati e le migliori pratiche del progetto possono aiutare a influenzare le politiche e le normative future, nonché a migliorare le pratiche del settore relative allo sviluppo responsabile dell’IA.
Parole chiave
NoBIAS, intelligenza artificiale, algoritmi, pregiudizio, etica, discriminazione, privacy dei dati, apprendimento automatico