Die Verbreitung falscher und irreführender Informationen – insbesondere über soziale Medien wie TikTok, X (ehem. Twitter), Facebook und Co. – wird zunehmend zur Herausforderung, sowohl für individuelle Nutzende als auch für die Gesellschaft als Ganzes. Gezielte Desinformation beeinflussen die öffentliche Meinung und zielen darauf ab, die Glaubwürdigkeit seriöser Akteure zu untergraben. Und auch solche falschen oder irreführenden Informationen, die ohne böse Absicht weiterverbreitet werden, können zu großen Schäden und zu gefährlichem Verhalten in der Bevölkerung führen, wie nicht zuletzt die Covid-19 Pandemie gezeigt hat.

Das im Juli 2022 gestartete Forschungsprojekt „Nutzerzentrierte KI-basierte Erkennung von Fake News und Fehlinformationen“ (NEBULA) adressierte diese Problematik und wurde im Dezember 2025 erfolgreich abgeschlossen.

 Am 14. November 2025 fand an der Hochschule Bonn-Rhein-Sieg in Sankt Augustin die gemeinsame Abschlussveranstaltung der vom Bundesministerium für Forschung, Technologie und Raumfahrt (BMFTR) geförderten Forschungsprojekte NEBULA und CrossComITS statt. Unter dem Motto „Sicher. Souverän. Vernetzt.“ wurden die Ergebnisse aus drei Jahren inter- und transdisziplinärer Forschung zu Falsch- und Fehlinformationen, digitalen Risiken und gesellschaftlicher Resilienz präsentiert. Die öffentliche Veranstaltung richtete sich an alle Interessierten aus Wissenschaft, Zivilgesellschaft und Praxis und wurde durch ein Get-Together am Vorabend ergänzt.

Nach der Begrüßung eröffnete Dr. Laura Braam (Landesanstalt für Medien NRW) die Konferenz mit einer Keynote zu aktuellen Herausforderungen der digitalen Öffentlichkeit, insbesondere im Umgang mit Falsch- und Fehlinformationen.

Im weiteren Verlauf wurden die Ergebnisse des NEBULA Projekts vorgestellt, das sich mit der nutzerzentrierten, KI-basierten Erkennung von Falsch- und Fehlinformationen befasst. Ziel von NEBULA ist es, Desinformation automatisiert zu identifizieren und die Analyseergebnisse verständlich sowie zielgruppengerecht aufzubereiten, um Medienkompetenz und digitale Souveränität zu stärken. Dabei werden technische und sozialwissenschaftliche Perspektiven eng miteinander verknüpft.

Die Projektpartner stellten Verfahren zur Detektion von Falsch- und Fehlinformationen vor, unter anderem auf Basis schwacher Wissensgraphen und maschineller Lernverfahren. Komplementiert wurden diese Einblicke durch Ergebnisse aus Studien, die sich mit transparenten, nutzerzentrierten Indikatoren zur Erkennung beschäftigen und deren Ziel es ist, Vertrauen in Fact-Checking-Assistenzsysteme zu schaffen, Medienkompetenzen zu fördern und Reaktanzen zu verhindern. Ergänzend folgten Berichte aus der Forschung zu den Bedürfnissen vulnerabler Gruppen im Umgang mit Falsch- und Fehlinformationen und deren Anforderungen an technische Lösungsansätze. Den praxisnahen Abschluss bildete die Präsentation des entwickelten NEBULA-Assistenzsystems, das die Forschungsergebnisse in einem anwendungsorientierten Demonstrator bündelt.

 Das Projekt CrossComITS war als Kooperationspartner Teil der Veranstaltung und präsentierte ergänzend Ansätze zur Stärkung von IT- und Medienkompetenz durch niedrigschwellige, crossmediale Lernangebote. In den Beiträgen wurde deutlich, wie qualitative Forschung, didaktische Konzepte und nutzerzentrierte Gestaltung zur Förderung sicherer digitaler Alltagspraktiken beitragen können.

In einer gemeinsamen Diskussionsrunde zu Value Sensitive Design wurde abschließend der verbindende Rahmen beider Projekte sichtbar. Sowohl NEBULA als auch CrossComITS verfolgen das Ziel, digitale Technologien sozial verantwortlich zu gestalten und gesellschaftliche Resilienz gegenüber digitalen Risiken zu stärken. Die Abschlussveranstaltung machte deutlich, dass der Umgang mit Falsch- und Fehlinformationen, Cybersicherheitsrisiken und digitalen Unsicherheiten nur dann nachhaltig gelingen kann, wenn technische Innovationen mit sozialwissenschaftlicher Forschung und den Perspektiven betroffener Gruppen zusammengedacht werden.

Koordiniert wurde das Verbundprojekt “Nutzerzentrierte KI-basierte Erkennung von Fake News und Fehlinformationen” vom Fachgebiet Wissenschaft und Technik für Frieden und Sicherheit (PEASEC) am Fachbereich Informatik der Technischen Universität Darmstadt (Prof. Dr. Christian Reuter). Weitere Partner sind der Lehrstuhl für Wirtschaftsinformatik und Neue Medien (WiNeMe) der Universität Siegen (Prof. Dr. Volker Wulf), die Professur für Kommunikationswissenschaft mit Schwerpunkt politische Kommunikation der Hochschule Bonn-Rhein-Sieg (Prof. Dr. Hektor Haarkötter ), der Lehrstuhl Data Science (DICE)der Universität Paderborn (Prof. Dr. Axel-Cyrille Ngonga Ngomo) sowie die NanoGiants GmbH (Lukas Czarnecki). Das Projekt wurde im Rahmen des Programms der Bundesregierung „Forschung für die zivile Sicherheit 2018 – 2023: Künstliche Intelligenz in der zivilen Sicherheitsforschung II“ gefördert.

Kontakt

Prof. Dr. Christian Reuter
E-Mail:
reuter@peasec.tu-darmstadt.de

Dr.-Ing. Katrin Hartwig
E-Mail:
hartwig@peasec.tu-darmstadt.de

Dr. rer. nat. Tom Biselli
E-Mail: biselli@peasec.tu-darmstadt.de

Franziska Schneider, M.A.
E-Mail:
schneider@peasec.tu-darmstadt.de

Forschungsprojekt NEBULA erfolgreich abgeschlossen – Abschlussveranstaltung „Sicher. Souverän. Vernetzt.“