Wissenschaftliche Mitarbeiterin / Doktorandin

Kontakt:  schneider(at)peasec.tu-darmstadt.de

Technische Universität Darmstadt, Fachbereich Informatik,
Wissenschaft und Technik für Frieden und Sicherheit (PEASEC)
Pankratiusstraße 2, 64289 Darmstadt, Raum 114

DE

Franziska Schneider, M.A., ist wissenschaftliche Mitarbeiterin (WiMi) und Doktorandin am Lehrstuhl Wissenschaft und Technik für Frieden und Sicherheit (PEASEC) im Fachbereich Informatik der Technischen Universität Darmstadt.

Sie schloss ihren Master in Data and Discourse Studies ab, wobei sie sich auf die Schnittstelle von Hassrede, Desinformation und Informationskriegsführung konzentrierte. Ihre Masterarbeit mit dem Titel „From Discord to Deception: Unraveling the Dynamics of Hate Speech and Disinformation in Information Warfare“ untersucht die Konvergenz dieser Phänomene auf Online-Plattformen, insbesondere im Kontext algorithmischer Echokammern und Identitätsarbeit.

Als studentische Hilfskraft (HiWi) bei PEASEC arbeitete Franziska an interdisziplinären Projekten mit, die sich mit der Bekämpfung von Fehlinformationen, nutzerzentrierten KI-Systemen und der Analyse von Metaphern in der Kommunikation kritischer Infrastrukturen befassten. Ihre Forschung umfasst Themen wie die Erkennung und Eindämmung von Fake News, die gesellschaftlichen Auswirkungen algorithmischer Verstärkung und Strategien zur Verbesserung digitaler Diskurse.

EN

Franziska Schneider, M.A., is a research associate and doctoral student at the Chair of Science and Technology for Peace and Security (PEASEC) in the Department of Computer Science at the Technical University of Darmstadt.

She completed her Master’s degree in Data and Discourse Studies, focusing her research on the intersection of hate speech, disinformation, and information warfare. Her thesis, titled „From Discord to Deception: Unraveling the Dynamics of Hate Speech and Disinformation in Information Warfare,“ explores the convergence of these phenomena in online platforms, particularly within the framework of algorithmic echo chambers and identity work.

During her Master’s studies, Franziska contributed to interdisciplinary projects at PEASEC as a student assistant (HiWi), focusing on combating misinformation, exploring user-centered AI systems, and analyzing metaphorical language in critical infrastructure communication.

Publikationen

2024

  • Katrin Hartwig, Tom Biselli, Franziska Schneider, Christian Reuter (2024)
    From Adolescents‘ Eyes: Assessing an Indicator-Based Intervention to Combat Misinformation on TikTok
    Proceedings of the Conference on Human Factors in Computing Systems (CHI) New York, NY, USA. doi:10.1145/3613904.3642264
    [BibTeX] [Abstract] [Download PDF]

    Misinformation poses a recurrent challenge for video-sharing platforms (VSPs) like TikTok. Obtaining user perspectives on digital interventions addressing the need for transparency (e.g., through indicators) is essential. This article offers a thorough examination of the comprehensibility, usefulness, and limitations of an indicator-based intervention from an adolescents’ perspective. This study (𝑁 = 39; aged 13-16 years) comprised two qualitative steps: (1) focus group discussions and (2) think-aloud sessions, where participants engaged with a smartphone-app for TikTok. The results offer new insights into how video-based indicators can assist adolescents’ assessments. The intervention received positive feedback, especially for its transparency, and could be applicable to new content. This paper sheds light on how adolescents are expected to be experts while also being prone to video-based misinformation, with limited understanding of an intervention’s limitations. By adopting teenagers’ perspectives, we contribute to HCI research and provide new insights into the chances and limitations of interventions for VSPs.

    @inproceedings{hartwig_adolescents_2024,
    address = {New York, NY, USA},
    series = {{CHI} '24},
    title = {From {Adolescents}' {Eyes}: {Assessing} an {Indicator}-{Based} {Intervention} to {Combat} {Misinformation} on {TikTok}},
    isbn = {9798400703300},
    url = {https://doi.org/10.1145/3613904.3642264},
    doi = {10.1145/3613904.3642264},
    abstract = {Misinformation poses a recurrent challenge for video-sharing platforms (VSPs) like TikTok. Obtaining user perspectives on digital interventions addressing the need for transparency (e.g., through indicators) is essential. This article offers a thorough examination of the comprehensibility, usefulness, and limitations of an indicator-based intervention from an adolescents’ perspective. This study (𝑁 = 39; aged 13-16 years) comprised two qualitative steps: (1) focus group discussions and (2) think-aloud sessions, where participants
    engaged with a smartphone-app for TikTok. The results offer new insights into how video-based indicators can assist adolescents’ assessments. The intervention received positive feedback, especially for its transparency, and could be applicable to new content. This paper sheds light on how adolescents are expected to be experts while also being prone to video-based misinformation, with limited understanding of an intervention’s limitations. By adopting
    teenagers’ perspectives, we contribute to HCI research and provide new insights into the chances and limitations of interventions for VSPs.},
    booktitle = {Proceedings of the {Conference} on {Human} {Factors} in {Computing} {Systems} ({CHI})},
    publisher = {Association for Computing Machinery},
    author = {Hartwig, Katrin and Biselli, Tom and Schneider, Franziska and Reuter, Christian},
    year = {2024},
    keywords = {Security, UsableSec, HCI, A-Paper, Ranking-CORE-A*, Selected, AuswahlCrisis, Projekt-ATHENE-PriVis, Projekt-NEBULA},
    }

  • Katrin Hartwig, Tom Biselli, Franziska Schneider, Christian Reuter (2024)
    NEBULA: Nutzerzentrierte KI-basierte Erkennung von Fake News und Fehlinformationen
    Aktuelle Themen und Herausforderungen behördlicher Risikokommunikation – Tagungsband München.
    [BibTeX] [Abstract] [Download PDF]

    Die Verbreitung falscher und irreführender Informationen – insbesondere über soziale Medien wie TikTok, Twitter, Facebook und Co. – nehmen eine immer größer werdende Relevanz in sicherheitsrelevanten Situationen ein. Gerade im Kontext des russischen Angriffskrieges gegen die Ukraine spielen derartige Plattformen eine besondere Rolle, indem gefälschte Videos oder Inhalte mit falscher zeitlicher Einordnung in kürzester Zeit viral gehen und somit das Potential für Verunsicherung und Meinungsmanipulation bergen. Problematisch sind dabei nicht nur absichtliche, sondern auch unabsichtlich irreführende Informationen. Ziel des interdisziplinären BMBF-Projekts NEBULA (Laufzeit: 1.7.2022-30.6.2025) ist die transparente, KI- basierte Erkennung von Falsch- und Fehlinformationen in sicherheitsrelevanten Situationen sowie die zielgruppengerechte Darstellung der Detektionsergebnisse zur Förderung der Medienkompetenz. Die nutzerzentrierten Ansätze adressieren dabei sowohl Behörden und Organisationen mit Sicherheitsaufgaben (BOS) in der akkuraten Lagebilderstellung und Krisenkommunikation, als auch vulnerable Personengruppen durch partizipative Entwicklung von technischen Unterstützungswerkzeugen. Innerhalb des Projekts entstehen Demonstratoren in Form von Smartphone-Apps, Browser-Plugins und Webanwendungen, um Einzelpersonen und Behörden dazu zu befähigen, Falsch- und Fehlinformationen eigenständig kritisch zu reflektieren und Umgangsstrategien zur Informationseinordnung anzueignen.

    @inproceedings{hartwig_nebula_2024,
    address = {München},
    title = {{NEBULA}: {Nutzerzentrierte} {KI}-basierte {Erkennung} von {Fake} {News} und {Fehlinformationen}},
    url = {https://peasec.de/paper/2024/2024_HartwigBiselliSchneiderReuter_NEBULA_BfSTagungsband.pdf},
    abstract = {Die Verbreitung falscher und irreführender Informationen – insbesondere über soziale Medien wie TikTok,
    Twitter, Facebook und Co. – nehmen eine immer größer werdende Relevanz in sicherheitsrelevanten
    Situationen ein. Gerade im Kontext des russischen Angriffskrieges gegen die Ukraine spielen derartige
    Plattformen eine besondere Rolle, indem gefälschte Videos oder Inhalte mit falscher zeitlicher Einordnung
    in kürzester Zeit viral gehen und somit das Potential für Verunsicherung und Meinungsmanipulation
    bergen. Problematisch sind dabei nicht nur absichtliche, sondern auch unabsichtlich irreführende
    Informationen.
    Ziel des interdisziplinären BMBF-Projekts NEBULA (Laufzeit: 1.7.2022-30.6.2025) ist die transparente, KI-
    basierte Erkennung von Falsch- und Fehlinformationen in sicherheitsrelevanten Situationen sowie die
    zielgruppengerechte Darstellung der Detektionsergebnisse zur Förderung der Medienkompetenz. Die
    nutzerzentrierten Ansätze adressieren dabei sowohl Behörden und Organisationen mit Sicherheitsaufgaben
    (BOS) in der akkuraten Lagebilderstellung und Krisenkommunikation, als auch vulnerable Personengruppen
    durch partizipative Entwicklung von technischen Unterstützungswerkzeugen. Innerhalb des Projekts
    entstehen Demonstratoren in Form von Smartphone-Apps, Browser-Plugins und Webanwendungen, um
    Einzelpersonen und Behörden dazu zu befähigen, Falsch- und Fehlinformationen eigenständig kritisch zu
    reflektieren und Umgangsstrategien zur Informationseinordnung anzueignen.},
    booktitle = {Aktuelle {Themen} und {Herausforderungen} behördlicher {Risikokommunikation} - {Tagungsband}},
    publisher = {Bundesamt für Strahlenschutz},
    author = {Hartwig, Katrin and Biselli, Tom and Schneider, Franziska and Reuter, Christian},
    year = {2024},
    keywords = {Crisis, Projekt-NEBULA},
    }

    2023

  • Jonas Franken, Franziska Schneider, Christian Reuter (2023)
    The Internet’s Plumbing Consists of Garden Hoses: A Critical Analysis of the Advantages and Pitfalls of Metaphors Use for Critical Maritime Infrastructures
    Dreizack 23 Kiel.
    [BibTeX] [Download PDF]

    @inproceedings{franken_internets_2023,
    address = {Kiel},
    title = {The {Internet}’s {Plumbing} {Consists} of {Garden} {Hoses}: {A} {Critical} {Analysis} of the {Advantages} and {Pitfalls} of {Metaphors} {Use} for {Critical} {Maritime} {Infrastructures}},
    url = {https://peasec.de/paper/2023/2023_FrankenSchneiderReuter_MetaphernMarKRITIS_Dreizack23.pdf},
    booktitle = {Dreizack 23},
    publisher = {The Kiel Seapower Series},
    author = {Franken, Jonas and Schneider, Franziska and Reuter, Christian},
    editor = {Schilling, Henrik},
    year = {2023},
    keywords = {Peace, Projekt-AgriRegio, Security, Projekt-ATHENE-SecUrban, Projekt-NetzGeschichte},
    pages = {1--8},
    }