Am 28.7.2023 erschien ein Interview mit Prof. Dr. Dr. Christian Reuter. Hier finden sich nur einige Auszüge, in voller Länge ist das Interview (kostenpflichtig) unter folgendem Link erreichbar:
Durch Anwendungen wie ChatGPT oder Midjourney wird es einfach, Falschnachrichten zuerstellen. Aber KI kann auch gegen Fake News helfen – Forscher der TU Darmstadt arbeiten daran.
Ganz so düster sehen Experten die Lage nicht – auch wenn erste Stimmen bereits davor warnen, was KI-Technologie für die US-Präsidentschaftswahlen im Jahr 2024 bedeuten könnte. Auch Christian Reuter, Professor für Informatik an der TU Darmstadt und dort Inhaber des Lehrstuhls „Wissenschaft und Technik für Frieden und Sicherheit“, sieht die Gefahr. Schließlich könne man mit Falschnachrichten ganze Gesellschaften verunsichern – insbesondere im Vorfeld von Wahlen. „Dabei geht es oft gar nicht darum, ein festes Ziel zu erreichen – sondern allgemein darum, Zweifel zu schüren, damit die Menschen nicht mehr wissen, wem sie glauben oder vertrauen können.“
Künstlich Intelligenz braucht es für solche Kampagnen nicht, man denke nur an Russlands Trollfabriken – aber mit ChatGPT oder ähnlichen Sprachmodellen kann das Erstellen von Falschnachrichten automatisiert werden. „Man kann große Datenmengen an Falschnachrichten generieren, die von verschiedenen Bots im Netz veröffentlicht werden“, erklärt Reuter. „Plötzlich entsteht der Eindruck, dass viele Menschen einen Sachverhalt kritisch sehen oder dazu eine Unsicherheit haben. Obwohl es eigentlich nur eine einzige Person ist, die diesen Anschein erwecken will.“ Kurz: Es braucht vielleicht weniger Menschen als bisher, um Desinformationskampagnen durchzuführen.
Speziell bei Fotos und Videos kommt zudem hinzu, dass diese gerne als Beweis dafür angesehen werden, dass ein Ereignis stattgefunden hat. „Das heißt, ich kann nun mithilfe von KI sozusagen Beweise fälschen“, warnt Reuter.
Allerdings gibt es hier auch gute Nachrichten: Fälschungen lassen sich erkennen. „Es gibt forensische Möglichkeiten, das festzustellen“, sagt Reuter. Das gilt nicht nur für sozusagen auf herkömmlichem Weg durch Montage gefälschte Bilder, bei denen unsaubere Schnittkanten oder Veränderungen im Pixel-Muster einen Hinweis geben können.
Die eigentlich gute Nachricht ist jedoch eine andere: Künstliche Intelligenz kann auch dabei helfen, Desinformation zu bekämpfen, die befürchtete Flut an Fake News so mittechnischer Hilfe wieder eingedämmt werden. „Das ist, wenn man so möchte, ein Wettrüsten“, sagt Reuter.
Mehrere Projekte sind dazu bereits angelaufen – ein großes, NEBULA (Nutzerzentrierte KI-basierte Erkennung von Fake News und Fehlinformationen), wird von Reuter und seinem Team koordiniert. Das Bundesministerium für Bildung und Forschung hat das zunächst auf drei Jahre ausgelegte Verbundprojekt, an dem inklusive der TU Darmstadt 13 Partner beteiligt sind, darunter vier Hochschulen, eine Software-Firma und das Landespolizeipräsidium Hessen, mit 1,7 Millionen Euro gefördert.
Werden bestimmte Texte, Videos oder Bilder so vom System als möglicher Fall von Desinformation erkannt, sollen sie jedoch keineswegs gelöscht, sondern mit Indikatoren versehen werden, die Nutzern bei der Einordnung helfen. NEBULA richtet sich dabei insbesondere an „vulnerable Nutzergruppen“ – Kinder oder ältere Personen mit wenig Erfahrung in den digitalen Medien. Für sie soll es eine Zusatzapp für soziale Netzwerke geben, mit denen sich Inhalte überprüfen lassen. Nutzer werden dabei schon jetzt in der Entwicklungsphase eingebunden.
Auch Behörden sollen von NEBULA profitieren – insbesondere im Fall von Großschadenslagen, bei denen oft viele Falschnachrichten zirkulieren, wie etwa 2021 bei der Ahrflut. Mithilfe im Rahmen von NEBULA entwickelter Anwendungen sollen Behörden sich künftig schnell ein Bild der Lage machen können – um, wie Reuter erklärt, in besonders schweren Fällen, also „bei Falschnachrichten, die Leib und Leben gefährden“, die Bevölkerung über Apps wie „hessenWARN“ zeitnah warnen zu können.
Details zum Projekt finden Sie unter www.nebula.peasec.de