Etyka a rozwój technologii
Inteligentne systemy informacyjne zmieniają nasze życie. Opierające się na sztucznej inteligencji i analizie dużych zbiorów danych rozwiązania pełnią szereg ważnych ról w społeczeństwie – od profilaktyki chorób po ograniczanie przestępczości. Niestety są one często także nadużywane, na przykład w aplikacjach randkowych dobierających do siebie równie atrakcyjne osoby czy w celu określania wskaźnika masy ciała (BMI) na postawie zdjęć, co wykorzystywane jest przez firmy ubezpieczeniowe. Aby przeciwdziałać szkodliwemu wpływowi tych kwestii na społeczeństwo i wyznawane przez nie wartości, zespół finansowanego przez UE projektu SHERPA bada, w jaki sposób inteligentne systemy informacyjne wpływają na kwestie związane z etyką i prawami człowieka.
Słabe strony technologii rozpoznawania twarzy
Chcąc rozpocząć dyskusję na temat bezpieczeństwa algorytmów rozpoznawania twarzy, Tijmen Schep, artysta wchodzący w skład konsorcjum SHERPA, stworzył interaktywny film dokumentalny zatytułowany „How Normal Am I” („Jak normalny/-a jestem”). Odtwarzany jest kilkuminutowy film przedstawiający, jak algorytmy rozpoznawania twarzy są wykorzystywane do oceny ludzi, a jednocześnie nasza twarz poddawana jest analizie i oceniana pod względem wieku, urody i płci. Ustalane jest także nasze samopoczucie, BMI i możliwe średnia długość życia. „Technologia rozpoznawania twarzy powoli staje się częścią naszego życia codziennego, dlatego możemy mieć subtelne, a jednocześnie przytłaczające wrażenie bycia stale obserwowanym i ocenianym”, tłumaczy w filmie Schep. „Możemy odczuwać presję, by zachowywać się «normalnie», co dla algorytmu oznacza bycie przeciętnym. To dlatego musimy chronić nasze prawo do prywatności, które zasadniczo jest prawem do inności. Dzięki prywatności nie musimy być zatem zawsze idealni”. W filmie podkreślono także niedokładność algorytmów, którymi można całkiem łatwo manipulować, by uzyskać inny wynik. Na przykład ruch głową w górę lub w dół zmienia szacowany wiek, a uniesienie brwi może obniżyć wynik BMI. Ponadto ocena dokonywana przez algorytm często nie jest obiektywna, ponieważ opiera się jedynie na wynikach zebranych wśród studentów z Chin. Modele sztucznej inteligencji wykorzystywane w badaniu uruchamiane są w przeglądarce, więc żadne dane osobowe nie są przesyłane na chmurę.
Prywatność w domu
Tijmen Schep był także głównym projektantem innego opracowanego w ramach projektu SHERPA systemu, który pokazuje nam, jak może wyglądać inteligentny dom zachowujący pełną prywatność mieszkańców. Nowy, nie naruszający prywatności system nazwany Candle nie wymaga połączenia z internetem i został zaprojektowany, by przechowywać wszystkie dane w domu. W przeciwieństwie do innych systemów inteligentnego domu rozwiązanie przetwarza komendy głosowe w pełni lokalnie. W skład systemu Candle wchodzą czujniki temperatury, wilgotności, poziomu CO2, pyłu i wykorzystania elektryczności, a także alarmy i inteligentne zamki. Chcąc odbudować zaufanie ludzi do inteligentnych systemów informacyjnych, które zostało nadszarpnięte różnymi skandalami związanymi z naruszeniem prywatności, twórcy Candle udostępnili za darmo kod źródłowy. „Chcemy pomóc przemysłowi tworzyć produkty, które nie naruszają prywatności, dzieląc się naszymi pomysłami na bezpieczne rozwiązania”, oświadczył Schep na stronie Candle. Celem projektu SHERPA (Shaping the ethical dimensions of smart information systems (SIS) – a European perspective) jest opracowanie zrównoważonych rozwiązań, które przyniosłyby korzyści nie tylko wynalazcom technologii, ale także samym użytkownikom. Realizacja projektu zakończy się w październiku 2021 r. Więcej informacji: strona projektu SHERPA
Słowa kluczowe
SHERPA, inteligentny dom, prywatność, rozpoznawanie twarzy, etyka, inteligentny system informacyjny