Faktenprüfungen per KI helfen im Kampf gegen Fake News
Gleich zu Beginn des Projekts FANDANGO im Januar 2018 wurde die Verbreitung und Entstehung von Desinformation zum aktuellen Tagesthema. So verdeutlichten die vorletzten Wahlen in den Vereinigten Staaten, die Folgen des Brexit-Referendums im Vereinigten Königreich und natürlich die COVID-Pandemie, was „Fake News“ bei der Bewertung komplexer Ereignisse anrichten können. „Und doch bereitet schon die Definition dessen, was unter medialer Desinformation überhaupt zu verstehen ist, enorme Probleme“, erklärt Francesco Saverio Nucci, Projektkoordinator von FANDANGO und wissenschaftlicher Leiter für Anwendungsforschung bei Engineering R&D Labs, Italien. „Zudem verändert sich die Bedeutung des Begriffs ‚Fake News‘, da inzwischen eine politischere Dimension hinzukommt.“ Ein weiteres Problem ist, dass dessen Interpretation individuell sehr abweichen kann und man sich kaum auf eine gemeinsame Grundlage zur Erkennung von Desinformation in den Medien einigen kann. So ist auch die Anwendung von Algorithmen mit künstlicher Intelligenz zur Identifizierung von „Fake News“ keine leichte Aufgabe.
Erkennung von Desinformation in den Medien
Dies war allerdings vorrangiges Projektziel von FANDANGO. „Wir wollten verschiedene KI-Methoden zur Erkennung von Desinformation testen und validieren“, führt Nucci aus, unter anderem im Bereich Klimawandel sowie Europa- und Einwanderungspolitik. Zunächst wollte das Projektteam mittels maschineller Lernverfahren „gefälschte“ Bilder und sogenannte „tiefengefälschte“ manipulierte Videos aufspüren. Mit künstlicher Intelligenz und algorithmischer Verarbeitung natürlicher Sprache wurden dann Texte auf verdächtige Merkmale analysiert. „Dies brachte mehrere interessante Erkenntnisse“, so Nucci. „Zunächst zeigte sich, dass menschliches Urteilsvermögen unerlässlich ist: KI kann zwar unterstützen, aber menschliche Expertise niemals gänzlich ersetzen. KI ist ein nützliches Tool, reicht aber nicht aus, um das Problem der Fake News vollständig zu lösen.“ Ein weiteres Ergebnis der Arbeitsgruppe war, dass die Software Journalisten oder Journalistinnen nicht nur Vermutungen über eine „Fälschung“ liefern, sondern diese Vermutung in Bezug auf ein Bild oder einen Text auch begründen sollte. Die Projektgruppe untersuchte schließlich mit maschinellen Lernverfahren, wie sich Fehlinformationen in Netzwerken verbreiten. Ein wichtige Beitrag zum Erfolg des Projekts ist für Nucci die enge Zusammenarbeit zwischen Technologieforschung und Sozialwissenschaften. „Die technischen Fachkräfte meines Teams haben sich inzwischen auch hervorragende Medienkompetenzen angeeignet“, merkt er an. „Klar wurde dabei aber, dass im Journalismus das Potenzial erkannt werden muss, mit künstlicher Intelligenz Desinformationen gegenzusteuern.“
Entwicklung von Medienkompetenz
Auf Basis dieser Ergebnisse wurde eine modulare Plattform mit maschinellen Lernverfahren wie der algorithmischen Verarbeitung natürlicher Sprache für Texte und Quellenrecherchen entwickelt. Obwohl diese Arbeit noch in der Frühphase ist, sieht Nucci Entwicklungspotenzial für die Plattform, um sie an Medienunternehmen zu vermarkten. „Zur Verbesserung dieser Tools brauchen wir mehr Daten“, ergänzt er. „Je mehr Daten wir haben, desto besser funktionieren die Algorithmen.“ Das Projekt zeigte auch, dass Medienfachleute in Datenkompetenz und –management geschult werden müssen. Fehlinterpretierte Statistiken zum Prozentsatz der gegen COVID-19 Geimpften förderten beispielsweise maßgeblich die Impfskepsis in der Bevölkerung. „Neben der Verbesserung maschineller Lernalgorithmen besteht bei verschiedensten Aspekten noch Forschungsbedarf“, sagt Nucci, „etwa zu Medienkompetenz und der Verbreitung von Fehlinformationen in sozialen Netzwerken.“
Schlüsselbegriffe
FANDANGO, Medien, Desinformation, Politik, KI, Algorithmen, Journalisten, Journalistinnen, Fehlinformation