defalsif-AI – Leitinitiative zur Stärkung der Resilienz gegen Fake News und Desinformation

Gastbeitrag von Martin Boyer, AIT

Das Herzstück demokratischer Gesellschaften sind die freie Meinungsäußerung und der damit verbundene freie Ideenaustausch. Diese können jedoch auch eine potenzielle Schwachstelle darstellen, wenn sie zur Streuung von Desinformation missbraucht werden.

Unter Desinformation versteht man die Verbreitung falscher oder irreführender Informationen mit dem Ziel, absichtlich in die öffentliche, demokratische Debatte einzugreifen. Desinformation wird in dem Moment zu einer hybriden Bedrohung, in dem sie mutwillig eingesetzt wird, um bestimmten demokratischen Institutionen, wie z. B. den freien Medien, zu schaden oder deren Glaubwürdigkeit zu untergraben und damit den demokratischen Prozess und die Entscheidungsfindung zu beeinflussen, wie z. B. bei Wahlkämpfen. Desinformationskampagnen sind ein bekanntes Instrument zur Beeinflussung politischer oder gesellschaftlicher Debatten und führen im Extremfall zu einer Spaltung der Gesellschaft.

Mit der Verbreitung sozialer Medien ist es einfacher geworden, solche Kampagnen kostengünstig und anonym zu orchestrieren, sodass die Täter/innen schwer zu identifizieren sind und ein sehr heterogenes Publikum erreichen können.

Analysten in den österreichischen Ministerien benötigen neue Ansätze zur Identifizierung und im Umgang mit groß angelegten Desinformationskampagnen auf operativer, strategischer und politischer Ebene, während es den österreichischen Medieninstitutionen darum geht, durch ihre Informations- und Meinungsbildungsfunktion Demokratie zu ermöglichen.

Diese Organisationen benötigen daher verbesserte Methoden und Werkzeuge, um die immer größer werdenden Mengen an digitalen Medien im Hinblick auf die Identifizierung, Verifizierung und Korrektur von Quellen auszuwerten.

Das defalsif-AI-Projekt und sein Konsortium

Das Projekt defalsif-AI – Detektion von Falschinformation mittels Artificial Intelligence – wird innerhalb des Sicherheitsforschungs-Förderprogramm KIRAS durch das Bundesministerium für Landwirtschaft, Regionen und Tourismus (BMLRT) gefördert.

Das Projekt zielt speziell auf die Bedrohungen durch Desinformation und stellt technische Instrumente zu deren Bekämpfung bereit. Dies geschieht in einer beispielhaften gemeinsamen Anstrengung von Forschung, öffentlichem Sektor und Industrie, die verschiedene Aspekte des Problems angehen.

Das Projekt wird am Center for Digital Safety & Security des AIT Austrian Institute of Technology – Österreichs größter außeruniversitärer Forschungseinrichtung – koordiniert. Angewandte Forschung und technologische Aspekte werden sowohl von AIT als auch von der Firma Enlite-AI abgedeckt – ein österreichisches Unternehmen, das Dienstleistungen im Bereich der Künstlichen Intelligenz anbietet.

Während des gesamten Entwicklungsprozesses sind alle relevanten Stakeholder/innen eingebunden. Das österreichische Bundeskanzleramt (BKA), das Bundesministerium für Landesverteidigung (BMLV) und das Bundesministerium für Europäische und Internationale Angelegenheiten (BMEIA) sowie die Medien-Institutionen der APA – Austria Presse Agentur und des österreichischen Rundfunks ORF bringen ihre Erfahrungen aus erster Hand in das Projekt ein:

Durch die langjährige Erfahrung der Bedarfsträger/innen wird vor allem die Berücksichtigung der Anwender/innenperspektive in der Gestaltung des defalsif-AI Gesamtsystems gestärkt. Die ministeriellen Bedarfsträger/innen werden gemeinsam mit der APA und dem ORF nicht nur Anforderungen einbringen, sondern auch die erarbeiteten Einzelelemente im täglichen Arbeits- und Prozessumfeld testen und evaluieren.

Die Bedarfsträger/innen, das AIT und die Wirtschaftspartner/innen sorgen somit gemeinsam für realitätsnahe und unmittelbar anwendbare Ergebnisse. Das Projekt wird auch durchgehend von einer Analyse und Bewertung des Medienforensik-Tools aus rechts- und sozialwissenschaftlicher Sicht begleitet. Diese Aspekte werden von den Partnern des Konsortiums Donau-Universität Krems und Research Institute abgedeckt.

Das Konsortium setzt auf eine ausgewogene Kombination von Expertinnen und Experten in allen Forschungsbereichen: Rechts-, Medien- & Sozialwissenschaft, Medienmanipulation, nachvollziehbare und interpretierbare Ergebnispräsentation, Bild-,Video-, Audio-, Text- & Metadatenanalyse sowie Fusion, Plattformarchitektur & Orchestrierung.

defalsif-AI – Leitinitiative gegen Fake News

Fokus von defalsif-AI

Die inhaltlichen Forschungsschwerpunkte von defalsif-AI liegen auf audiovisueller Medienforensik, Textanalyse und deren multimodaler Fusion unter Zuhilfenahme von Methoden der Künstlichen Intelligenz (KI). Ein Hauptaugenmerk unserer Forschung wird in der Verbesserung der Verständlichkeit und Interpretierbarkeit der Ergebnisse für Laien im forensischen/technischen Bereich liegen.

Das primäre Projektergebnis ist ein Proof-of-Concept-Werkzeug, welches mit einer Vielzahl von Quellen arbeiten kann – darunter das Surface Web (z. B. Nachrichtenseiten) und soziale Medien (z. B. Twitter). Screening- und Monitoring-Tools sind enthalten, um Themen, Trends, Häufungen oder Anomalien bei der Verbreitung von Informationen im Internet zu zentralen Regierungsprozessen zu identifizieren.

Das Tool soll in der Lage sein, entweder einzelne Medienobjekte oder ggf. ganze Webseiten zu verarbeiten – also Bild-, Audio-, Video- (z. B. so genannte Deepfakes) und Textmaterial zu analysieren – und damit die Grundlage für Handlungsempfehlungen zu schaffen.

Weitere Forschungsarbeiten innerhalb des Projekts konzentrieren sich auf die Bereitstellung und Generierung von multimodalen Datensätzen, die zum Trainieren und Testen von Machine Learning-Modellen notwendig sind.

Eine umfassende Analyse und Beurteilung des medien-forensischen Werkzeugs aus rechts- und sozialwissenschaftlicher Perspektive, die Ableitung von anwendungsorientierten, technischen und organisatorischen Maßnahmen sowie ein Verwertungsplan – der detailliert aufzeigt wie das resultierende Proof-of-Concept-Werkzeug weiterentwickelt und als produktives System sowohl in staatlichen als auch in privaten Einrichtungen eingesetzt werden könnte – runden das Projekt ab.

Förderung: Das Projekt wird innerhalb des Sicherheitsforschungs-Förderprogrammes KIRAS durch das Bundesministerium für Landwirtschaft, Regionen und Tourismus (BMLRT) gefördert.

Konsortium: AIT Austrian Institute of Technology GmbH (Koordinator), EnliteAI GmbH, Donau-Universität Krems, Research Institute AG & Co KG, Bundeskanzleramt Österreich, Bundesministerium für Landesverteidigung, Bundesministerium für Europäische und Internationale Angelegenheiten, ORF – Österreichischer Rundfunk, APA – Austria Presse Agentur

Projektstart: 10/2020

 

Laufzeit: 24 Monate
Web:  defalsifai.at