Wissenschaftliche Mitarbeiterin / Doktorandin
Kontakt: schneider(at)peasec.tu-darmstadt.de
Technische Universität Darmstadt, Fachbereich Informatik,
Wissenschaft und Technik für Frieden und Sicherheit (PEASEC)
Pankratiusstraße 2, 64289 Darmstadt, Raum 114
DE
Franziska Schneider, M.A., ist wissenschaftliche Mitarbeiterin (WiMi) und Doktorandin am Lehrstuhl Wissenschaft und Technik für Frieden und Sicherheit (PEASEC) im Fachbereich Informatik der Technischen Universität Darmstadt.
Sie schloss ihren Master in Data and Discourse Studies ab, wobei sie sich auf die Schnittstelle von Hassrede, Desinformation und Informationskriegsführung konzentrierte. Ihre Masterarbeit mit dem Titel „From Discord to Deception: Unraveling the Dynamics of Hate Speech and Disinformation in Information Warfare“ untersucht die Konvergenz dieser Phänomene auf Online-Plattformen, insbesondere im Kontext algorithmischer Echokammern und Identitätsarbeit.
Als studentische Hilfskraft (HiWi) bei PEASEC arbeitete Franziska an interdisziplinären Projekten mit, die sich mit der Bekämpfung von Fehlinformationen, nutzerzentrierten KI-Systemen und der Analyse von Metaphern in der Kommunikation kritischer Infrastrukturen befassten. Ihre Forschung umfasst Themen wie die Erkennung und Eindämmung von Fake News, die gesellschaftlichen Auswirkungen algorithmischer Verstärkung und Strategien zur Verbesserung digitaler Diskurse.
EN
Franziska Schneider, M.A., is a research associate and doctoral student at the Chair of Science and Technology for Peace and Security (PEASEC) in the Department of Computer Science at the Technical University of Darmstadt.
She completed her Master’s degree in Data and Discourse Studies, focusing her research on the intersection of hate speech, disinformation, and information warfare. Her thesis, titled „From Discord to Deception: Unraveling the Dynamics of Hate Speech and Disinformation in Information Warfare,“ explores the convergence of these phenomena in online platforms, particularly within the framework of algorithmic echo chambers and identity work.
During her Master’s studies, Franziska contributed to interdisciplinary projects at PEASEC as a student assistant (HiWi), focusing on combating misinformation, exploring user-centered AI systems, and analyzing metaphorical language in critical infrastructure communication.
Publikationen
2024
[BibTeX] [Abstract] [Download PDF]
Misinformation poses a recurrent challenge for video-sharing platforms (VSPs) like TikTok. Obtaining user perspectives on digital interventions addressing the need for transparency (e.g., through indicators) is essential. This article offers a thorough examination of the comprehensibility, usefulness, and limitations of an indicator-based intervention from an adolescents’ perspective. This study (𝑁 = 39; aged 13-16 years) comprised two qualitative steps: (1) focus group discussions and (2) think-aloud sessions, where participants engaged with a smartphone-app for TikTok. The results offer new insights into how video-based indicators can assist adolescents’ assessments. The intervention received positive feedback, especially for its transparency, and could be applicable to new content. This paper sheds light on how adolescents are expected to be experts while also being prone to video-based misinformation, with limited understanding of an intervention’s limitations. By adopting teenagers’ perspectives, we contribute to HCI research and provide new insights into the chances and limitations of interventions for VSPs.
@inproceedings{hartwig_adolescents_2024,
address = {New York, NY, USA},
series = {{CHI} '24},
title = {From {Adolescents}' {Eyes}: {Assessing} an {Indicator}-{Based} {Intervention} to {Combat} {Misinformation} on {TikTok}},
isbn = {9798400703300},
url = {https://doi.org/10.1145/3613904.3642264},
doi = {10.1145/3613904.3642264},
abstract = {Misinformation poses a recurrent challenge for video-sharing platforms (VSPs) like TikTok. Obtaining user perspectives on digital interventions addressing the need for transparency (e.g., through indicators) is essential. This article offers a thorough examination of the comprehensibility, usefulness, and limitations of an indicator-based intervention from an adolescents’ perspective. This study (𝑁 = 39; aged 13-16 years) comprised two qualitative steps: (1) focus group discussions and (2) think-aloud sessions, where participants
engaged with a smartphone-app for TikTok. The results offer new insights into how video-based indicators can assist adolescents’ assessments. The intervention received positive feedback, especially for its transparency, and could be applicable to new content. This paper sheds light on how adolescents are expected to be experts while also being prone to video-based misinformation, with limited understanding of an intervention’s limitations. By adopting
teenagers’ perspectives, we contribute to HCI research and provide new insights into the chances and limitations of interventions for VSPs.},
booktitle = {Proceedings of the {Conference} on {Human} {Factors} in {Computing} {Systems} ({CHI})},
publisher = {Association for Computing Machinery},
author = {Hartwig, Katrin and Biselli, Tom and Schneider, Franziska and Reuter, Christian},
year = {2024},
keywords = {Security, UsableSec, HCI, A-Paper, Ranking-CORE-A*, Selected, AuswahlCrisis, Projekt-ATHENE-PriVis, Projekt-NEBULA},
}
[BibTeX] [Abstract] [Download PDF]
Die Verbreitung falscher und irreführender Informationen – insbesondere über soziale Medien wie TikTok, Twitter, Facebook und Co. – nehmen eine immer größer werdende Relevanz in sicherheitsrelevanten Situationen ein. Gerade im Kontext des russischen Angriffskrieges gegen die Ukraine spielen derartige Plattformen eine besondere Rolle, indem gefälschte Videos oder Inhalte mit falscher zeitlicher Einordnung in kürzester Zeit viral gehen und somit das Potential für Verunsicherung und Meinungsmanipulation bergen. Problematisch sind dabei nicht nur absichtliche, sondern auch unabsichtlich irreführende Informationen. Ziel des interdisziplinären BMBF-Projekts NEBULA (Laufzeit: 1.7.2022-30.6.2025) ist die transparente, KI- basierte Erkennung von Falsch- und Fehlinformationen in sicherheitsrelevanten Situationen sowie die zielgruppengerechte Darstellung der Detektionsergebnisse zur Förderung der Medienkompetenz. Die nutzerzentrierten Ansätze adressieren dabei sowohl Behörden und Organisationen mit Sicherheitsaufgaben (BOS) in der akkuraten Lagebilderstellung und Krisenkommunikation, als auch vulnerable Personengruppen durch partizipative Entwicklung von technischen Unterstützungswerkzeugen. Innerhalb des Projekts entstehen Demonstratoren in Form von Smartphone-Apps, Browser-Plugins und Webanwendungen, um Einzelpersonen und Behörden dazu zu befähigen, Falsch- und Fehlinformationen eigenständig kritisch zu reflektieren und Umgangsstrategien zur Informationseinordnung anzueignen.
@inproceedings{hartwig_nebula_2024,
address = {München},
title = {{NEBULA}: {Nutzerzentrierte} {KI}-basierte {Erkennung} von {Fake} {News} und {Fehlinformationen}},
url = {https://peasec.de/paper/2024/2024_HartwigBiselliSchneiderReuter_NEBULA_BfSTagungsband.pdf},
abstract = {Die Verbreitung falscher und irreführender Informationen – insbesondere über soziale Medien wie TikTok,
Twitter, Facebook und Co. – nehmen eine immer größer werdende Relevanz in sicherheitsrelevanten
Situationen ein. Gerade im Kontext des russischen Angriffskrieges gegen die Ukraine spielen derartige
Plattformen eine besondere Rolle, indem gefälschte Videos oder Inhalte mit falscher zeitlicher Einordnung
in kürzester Zeit viral gehen und somit das Potential für Verunsicherung und Meinungsmanipulation
bergen. Problematisch sind dabei nicht nur absichtliche, sondern auch unabsichtlich irreführende
Informationen.
Ziel des interdisziplinären BMBF-Projekts NEBULA (Laufzeit: 1.7.2022-30.6.2025) ist die transparente, KI-
basierte Erkennung von Falsch- und Fehlinformationen in sicherheitsrelevanten Situationen sowie die
zielgruppengerechte Darstellung der Detektionsergebnisse zur Förderung der Medienkompetenz. Die
nutzerzentrierten Ansätze adressieren dabei sowohl Behörden und Organisationen mit Sicherheitsaufgaben
(BOS) in der akkuraten Lagebilderstellung und Krisenkommunikation, als auch vulnerable Personengruppen
durch partizipative Entwicklung von technischen Unterstützungswerkzeugen. Innerhalb des Projekts
entstehen Demonstratoren in Form von Smartphone-Apps, Browser-Plugins und Webanwendungen, um
Einzelpersonen und Behörden dazu zu befähigen, Falsch- und Fehlinformationen eigenständig kritisch zu
reflektieren und Umgangsstrategien zur Informationseinordnung anzueignen.},
booktitle = {Aktuelle {Themen} und {Herausforderungen} behördlicher {Risikokommunikation} - {Tagungsband}},
publisher = {Bundesamt für Strahlenschutz},
author = {Hartwig, Katrin and Biselli, Tom and Schneider, Franziska and Reuter, Christian},
year = {2024},
keywords = {Crisis, Projekt-NEBULA},
}
2023
[BibTeX] [Download PDF]
@inproceedings{franken_internets_2023,
address = {Kiel},
title = {The {Internet}’s {Plumbing} {Consists} of {Garden} {Hoses}: {A} {Critical} {Analysis} of the {Advantages} and {Pitfalls} of {Metaphors} {Use} for {Critical} {Maritime} {Infrastructures}},
url = {https://peasec.de/paper/2023/2023_FrankenSchneiderReuter_MetaphernMarKRITIS_Dreizack23.pdf},
booktitle = {Dreizack 23},
publisher = {The Kiel Seapower Series},
author = {Franken, Jonas and Schneider, Franziska and Reuter, Christian},
editor = {Schilling, Henrik},
year = {2023},
keywords = {Peace, Projekt-AgriRegio, Security, Projekt-ATHENE-SecUrban, Projekt-NetzGeschichte},
pages = {1--8},
}