Entwicklung von Technologien unter ethischen Gesichtspunkten
Intelligente Informationssysteme verändern unser Leben. Diese Systeme, die unter Verwendung künstlicher Intelligenz und Big-Data-Analytik entwickelt werden, leisten auf bedeutende Weise einen Beitrag zur Gesellschaft, von der Krankheitsprävention bis hin zur Verbrechensbekämpfung. Bedauerlicherweise werden sie auch für weniger positive Zwecke genutzt. Sie liefern z. B. Schönheitsbewertungen für die Zuordnung vergleichbar attraktiver Personen in Dating-Apps oder gestatten die Nutzung von Fotos von Personen zur Vorhersage des Body-Mass-Indexes für Krankenversicherungspolicen. Um den schädlichen Auswirkungen entgegenzuwirken, die solche Verwendungszwecke auf die Gesellschaft und ihre Werte haben, untersucht das EU-finanzierte Projekt SHERPA (Shaping the ethical dimensions of smart information systems (SIS) – a European perspective) die verschiedenen Arten der Beeinflussung ethischer und menschenrechtlicher Fragestellungen durch den Einsatz intelligenter Informationssysteme.
Gesichtserkennung nicht zu ernst nehmen
In der Hoffnung, Menschen zur kritischen Betrachtung der Zuverlässigkeit von Gesichtserkennungsalgorithmen anzuregen, entwarf Tijmen Schep, ein Künstler aus dem SHERPA-Konsortium, einen interaktiven Dokumentarfilm mit dem Titel „How Normal Am I“ („Wie Normal Bin Ich“). In der Form eines Tests demonstriert der Dokumentarfilm, wie Gesichtserkennungsalgorithmen dazu verwendet werden, um uns zu beurteilen. Dabei wird in nur wenigen Minuten dein Gesicht analysiert und im Hinblick auf Alter, Schönheit sowie Geschlecht eingeschätzt. Der Algorithmus wird außerdem dazu verwendet, deinen emotionalen Zustand zu bewerten sowie deinen Body-Mass-Index und die Lebenserwartung zu kalkulieren. „Während die Gesichtserkennungstechnologie in unser tägliches Leben Einzug hält, kann sie dieses subtile, aber zugleich allgegenwärtige Gefühl erzeugen, stets beobachtet und beurteilt zu werden“, kommentiert Schep im Dokumentarfilm. „Du fühlst dich möglicherweise unter Druck gesetzt, dich ‚normal‘ zu verhalten, was für einen Algorithmus bedeutet, sich näher am Durchschnitt zu bewegen. Deshalb müssen wir unser Menschenrecht auf Privatsphäre schützen. Es ist im Wesentlichen unser Recht, anders zu sein. Man könnte sagen, dass Privatsphäre bedeutet, ein Recht darauf zu haben, nicht perfekt zu sein.“ Die Unzuverlässigkeit der Gesichtserkennungsalgorithmen wird im Dokumentarfilm hervorgehoben, wobei deutlich wird, dass die Bewertungen recht einfach manipuliert werden können. Beispielsweise ändert das Auf- und Abbewegen des Kopfes die Altersvorhersage und nur das Hochziehen der Augenbrauen kann in einem niedrigeren Wert für den Body-Mass-Index resultieren. Darüber hinaus sind die Bewertungen des Algorithmus in Bezug auf die Schönheit verzerrt, da sie ausschließlich auf den Schönheitswerten chinesischer Studierender basieren. Die im Dokumentarfilm verwendeten KI-Modelle laufen im eigenen Browser der Zuschauenden, so dass keine persönlichen Daten an die Cloud gesendet werden.
Privatsphäre zu Hause
Tijmen Schep übernahm die Rolle als führender Designer für ein weiteres SHERPA-gestütztes System, das uns darüber nachdenken lässt, wie ein intelligentes Gebäude aussehen würde, wenn die Privatsphäre oberste Priorität hätte. Das neue datenschutzfreundliche System für intelligente Gebäude mit der Bezeichnung Candle wurde so konzipiert, dass es alle Daten im Gebäude speichert und zum Betrieb keine Internetverbindung benötigt. Der Grund dafür ist, dass es im Gegensatz zu anderen Systemen für intelligente Gebäude mit einer vollständig lokalen Sprachsteuerung ausgestattet ist. Die Funktionen von Candle umfassen Sensoren für Temperatur, Luftfeuchtigkeit, CO2-Gehalt, Staub und Stromverbrauch sowie Alarme und intelligente Schlösser. Die Entwicklerinnen und Entwickler von Candle haben den Quellcode frei zugänglich gemacht, um das Vertrauen der Menschen in intelligente Informationssysteme wiederherzustellen, das nach verschiedenen Skandalen wegen Verletzung der Privatsphäre beschädigt wurde. „Unser Ziel ist es, die Industrie auf ihrem Weg zu datenschutzfreundlichen Produkten voranzutreiben, indem wir innovative Beispiele dafür zeigen, wie diese Produkte aussehen könnten“, erklärte Schep auf der Candle-Website. SHERPA zielt darauf ab, nachhaltige Lösungen zu finden, die nicht nur den Innovationsschaffenden von Technologien, sondern auch der Gesellschaft, die sie nutzt, zugutekommen. Das Projekt endet im Oktober 2021. Weitere Informationen: SHERPA-Projektwebsite
Schlüsselbegriffe
SHERPA, intelligentes Gebäude, Datenschutz, Privatsphäre, Gesichtserkennung, Ethik, intelligentes Informationssystem