Skip to main content
European Commission logo
Deutsch Deutsch
CORDIS - Forschungsergebnisse der EU
CORDIS
CORDIS Web 30th anniversary CORDIS Web 30th anniversary

Artificial Intelligence without Bias

Article Category

Article available in the following languages:

Schulungen zum Fairness-Bewusstsein helfen Forschenden, KI-Verzerrungen zu verringern

Algorithmen der künstlichen Intelligenz, die zum Datenfiltern verwendet werden, haben zu Besorgnis über automatisierte Verzerrungen und deren Auswirkungen auf Diskriminierung und Fairness geführt.

Instrumente für maschinelles Lernen können voreingenommen sein. Dies geschieht wegen verzerrter Quelldaten, verzerrter Algorithmen für die Datenverarbeitung oder der Art und Weise, wie Anwendungen der künstlichen Intelligenz (KI) eingesetzt werden, z. B. beim Filtern von Bewerbungen für Stellen oder Hochschulzulassungen. Im Rahmen eines Marie Skłodowska-Curie Innovative Training Network (ITN) bildete das Projektteam von NoBIAS 15 Promovierende aus sechs Ländern in „Fairness-Bewusstsein“ aus. Ziel war es, Verzerrungen beim maschinellen Lernen in allen drei Phasen zu verringern: Verzerrungen in Daten verstehen, Verzerrungen in Algorithmen abschwächen und Verzerrungen in Ergebnissen berücksichtigen. „Die Gemeinschaft für Informatik, aber auch andere, arbeiteten bereits an Verzerrungen. ADochunser Projekt war ein großes Projekt, bei dem wir versucht haben, den Stand der Technik mit neuen Methoden und neuen Analysen zu verbessern“, erklärt Projektkoordinator Wolfgang Nejdl, Direktor des Forschungszentrums L3S an der Leibniz Universität Hannover in Deutschland.

Promovierende in interdisziplinären Ansätzen ausbilden

Eine interdisziplinäre Gruppe Promovierender befasste sich mit Verzerrungen beim maschinellen Lernen aus der Perspektive der Informatik, der Rechts- und der Sozialwissenschaften. Sie entwickelten „fairnessbewusste“ Algorithmen und verfolgten die Datenherkunft und -transparenz, um nachzuvollziehen, in welchem Stadium Verzerrungen auftreten. „Durch die Zusammenarbeit mit anderen können Studierende der Informatik auf dem rechtlichen Kontext oder der sozialwissenschaftlichen Perspektive aufbauen und dann ein neues Instrument oder eine neue Methode entwickeln. Es ist hilfreich zu wissen, welche Aspekte aus anderen Disziplinen relevant sind“, so Nejdl. Studierende verschiedener Fachrichtungen wurden in Sommerkursen, die in das Thema Verzerrungen einführten, und später in Workshops und Konferenzen zusammengebracht. Alle Promovierenden waren mit einer Partnerorganisation verbunden, die KI in bestimmten Bereichen wie Medizin, Bankwesen und Personalbeschaffung einsetzt.

Fairness und rechtliche Perspektiven

KI-Anwendungen könnten das Recht auf Nichtdiskriminierung sowie rechtliche und ethische Erwägungen, wie den Schutz der Privatsphäre, verletzen. „Deshalb ist es auch wichtig, bestehende Algorithmen zu analysieren und zu prüfen, wo wir bei den Eingabedaten eine Verzerrung finden, die den ursprünglichen Forschenden nicht bewusst war“, so Nejdl. „Manchmal werden Daten genutzt, die auf die einfachste Art und Weise beschafft wurden, und nicht solche, die die Situation, die modelliert werden soll, am besten wiedergibt“, bemerkt Nejdl. In der jüngeren Vergangenheit wurde in der Informatik versucht, die Verzerrungen durch technische Änderungen im Modell abzumildern. „Jetzt stellt sich die Frage, ob diese technischen Änderungen tatsächlich mit den Vorschriften übereinstimmen oder nicht“, sagt er und verweist auf Richtlinien und Gesetze zur Chancengleichheit bei der Beschäftigung oder zum gleichberechtigten Zugang zur Universität. Bei der Analyse der Daten im Hinblick auf Fairness ging das Projektteam über frühere EU-finanzierte Datenerhebungsprojekte wie LONGPOP und Instrumente zur gemeinsamen Nutzung von Daten wie im Projekt PrivacyUs zum Datenschutz und zur Benutzerfreundlichkeit hinaus.

Verzerrungen wegen begrenzter Daten erfordern vielfältigere Quellen

Die Verzerrung ist ausgeprägter, wenn die Daten begrenzt sind oder nicht die gesamte Bevölkerung angemessen repräsentieren, z. B. bei medizinischen Daten, die auf eine geografische oder demografische Region beschränkt sind. „Es ist am schwierigsten, Verzerrungen in jenen Bereichen zu beseitigen, in denen nicht so viele Daten oder verschiedene Quellen [von Daten] verfügbar sind“, fügt Nejdl hinzu und weist darauf hin, dass zusätzliche Anstrengungen erforderlich sind, um die Datenquellen zu diversifizieren. Der Projektleiter von NoBIAS, Gourab Kumar Patro, nennt ein Beispiel für die Nutzung der gewonnenen Erkenntnisse zur Umgehung der rechtlichen Beschränkungen für die Verwendung von ethnischen Informationen. „Ein NoBIAS-Nachwuchsforschender, der sich mit rechtlichen Überlegungen zur Abschwächung mit Verzerrungen befasste, stellte fest, dass es möglich ist, ethnische Informationen zu sammeln, wenn diese nur zur Abschwächung von Verzerrungen im Algorithmus, nicht aber für irgendeinen Auswahlprozess verwendet werden sollen. Durch die interdisziplinäre Zusammenarbeit konnten die Algorithmen verbessert werden.“ Laut Patro können die aus dem Projekt hervorgegangenen Ergebnisse und bewährten Verfahren dazu eingesetzt werden, die Politik und künftige Vorschriften zu beeinflussen und die Praktiken der Branche im Bereich der verantwortungsvollen KI-Entwicklung zu verbessern.

Schlüsselbegriffe

NoBIAS, künstliche Intelligenz, Algorithmen, Verzerrung, ethisch, Diskriminierung, Datenschutz, maschinelles Lernen

Entdecken Sie Artikel in demselben Anwendungsbereich