Skip to main content
European Commission logo
polski polski
CORDIS - Wyniki badań wspieranych przez UE
CORDIS
CORDIS Web 30th anniversary CORDIS Web 30th anniversary

Artificial Intelligence without Bias

Article Category

Article available in the following languages:

Szkolenie dotyczące świadomości sprawiedliwości pomaga badaczom ograniczyć tendencyjność sztucznej inteligencji

Popularyzacja algorytmów sztucznej inteligencji wykorzystywanych w celu filtrowania danych doprowadziła do powstania obaw o uprzedzenia i tendencyjność, a także automatyzację dyskryminacji i wpływ tych zjawisk na sprawiedliwość.

Narzędzia i algorytmy uczenia maszynowego mogą być tendencyjne. Przyczyną tego stanu rzeczy są nieobiektywne dane źródłowe, tendencyjność algorytmów wykorzystywanych do ich obróbki oraz sposoby wykorzystywania rozwiązań opartych na sztucznej inteligencji, w tym rekrutacji kandydatów do pracy lub na studia. Realizowany w ramach Innowacyjnych Sieci Szkoleniowych działania „Maria Skłodowska-Curie” (ITN) projekt NoBIAS przyczynił się do przeszkolenia 15 doktorantów z sześciu krajów w zakresie świadomości sprawiedliwości. Celem było ograniczenie tendencyjności algorytmów uczenia maszynowego na każdym z trzech etapów - na etapie danych, algorytmów oraz wyników. „Nad problemem tendencyjności pochylali się dotychczas specjaliści zajmujący się informatyką, a także inni badacze. Nasz projekt był istotnym przedsięwzięciem, w ramach którego staraliśmy się rozwinąć aktualny stan wiedzy za pomocą nowych metod i analiz”, wyjaśnia Wolfgang Nejdl, koordynator projektu i dyrektor Ośrodka Badawczego L3S działającego w ramach Uniwersytetu Leibniza w Hanowerze.

Interdyscyplinarne szkolenia dla doktorantów

Grupa doktorantów zajęła się problemem tendencyjności algorytmów uczenia maszynowego z interdyscyplinarnej perspektywy, obejmującej informatykę, prawo i nauki społeczne. W ramach działań opracowali algorytmy świadome sprawiedliwości, a także analizowali pochodzenie danych oraz ich przejrzystość, aby ustalić, na którym etapie pojawia się tendencyjność. „Dzięki współpracy studenci informatyki mogą wykorzystać wiedzę prawniczą lub z obszaru nauk społecznych, a następnie opracować nowe narzędzie lub metodę. Wiedza na temat istotnych aspektów innych dziedzin wiele zmienia w tym kontekście”, zauważa Nejdl. Doktoranci zajmujący się różnymi dziedzinami nauki spotykali się w ramach szkół letnich, gdzie poznali zagadnienia dotyczące uprzedzeń, a następnie uczestniczyli w warsztatach i konferencjach. Wszyscy doktoranci współpracowali z organizacjami partnerskimi, które stosują sztuczną inteligencję w określonych kontekstach, w tym w medycynie, bankowości i rekrutacji pracowników.

Sprawiedliwość i punkt widzenia prawa

Rozwiązania oparte na sztucznej inteligencji mogą potencjalnie naruszać zakazy dyskryminacji, wyzwanie stanowią też kwestie takie jak prywatność. „Dlatego istotne jest między innymi przeanalizowanie istniejących algorytmów i poszukiwanie problemów w danych wejściowych, których nie byli świadomi badacze”, twierdzi Nejdl. „Czasami problem polega na wykorzystywaniu najłatwiej dostępny danych zamiast danych najlepiej odzwierciedlających modelowaną sytuację”, dodaje badacz. W niedawnej przeszłości informatycy próbowali rozwiązać problem tendencyjności wprowadzając zmiany techniczne do modeli. „Obecnie staramy się odpowiedzieć na pytanie, czy wprowadzone zmiany techniczne są zgodne z przepisami”, zauważa badacz, zwracając uwagę na przepisy dotyczące równych szans na rynku pracy oraz dostępu do wykształcenia. Dzięki analizom danych pod kątem sprawiedliwości, zakres prac przeprowadzonych w ramach projektu znacząco wykraczał poza ramy dotychczasowych inicjatyw finansowanych przez UE, takich jak LONGPOP, a także narzędzi do udostępniania danych opracowanych w ramach projektu PrivacyUs poświęconego prywatności i użyteczności danych.

Tendencyjność wynikająca z ograniczeń zbiorów danych wymaga zróżnicowanych źródeł

Tendencyjność algorytmów jest bardziej widoczna, gdy zbiory danych są ograniczone lub nie odzwierciedlają odpowiednio ogółu populacji, co ma miejsce na przykład w przypadku danych medycznych ograniczonych do regionu geograficznego lub określonej grupy ludności. „Najtrudniej jest wyeliminować to zjawisko w sytuacjach, gdy dostępność danych lub zróżnicowanych źródeł jest ograniczona”, dodaje Nejdl, jednocześnie zwracając uwagę na konieczność podjęcia nowych działań ukierunkowanych na dywersyfikację źródeł danych. Kierownik projektu NoBIAS, Gourab Kumar Patro, przytacza przykład wykorzystania wiedzy zdobytej w ramach projektu w celu rozwiązania wyzwań prawnych dotyczących wykorzystywania informacji na temat przynależności rasowej. „Jeden z badaczy na wczesnym etapie kariery pracujący w ramach projektu NoBIAS nad zagadnieniami prawnymi dotyczącymi uprzedzeń stwierdził, że możliwe jest gromadzenie informacji na temat przynależności rasowej, jeśli są wykorzystywane wyłącznie na potrzeby ograniczania tendencyjności algorytmów, nie zaś w procesie selekcji. Interdyscyplinarna współpraca pozwoliła na usprawnienie algorytmów”. Patro twierdzi, że rezultaty projektu i najlepsze praktyki mogą przełożyć się na strategie i przyszłe przepisy, a także przysłużyć się do poprawy praktyk branżowych w zakresie odpowiedzialnego rozwoju sztucznej inteligencji.

Słowa kluczowe

NoBIAS, sztuczna inteligencja, algorytmy, tendencyjność, etyka, dyskryminacja, prywatność danych, uczenie maszynowe

Znajdź inne artykuły w tej samej dziedzinie zastosowania