Research Associate / Doctoral Student
Contact: schneider(at)peasec.tu-darmstadt.de
Technical University of Darmstadt, Department of Computer Science,
Science and Technology for Peace and Security (PEASEC)
Pankratiusstrasse 2, 64289 Darmstadt, Room 114
EN
Franziska Schneider, M.A. is a research associate at Science and Technology for Peace and Security (PEASEC) in the Department of Computer Science at the Technical University of Darmstadt. She is working on strategies to combat disinformation and other means of information warfare from a socio-technical perspective.
She studied Intercultural European and American Studies (B.A.) at Martin Luther University Halle and the University of Leeds, as well as Political Science (B.A.) at Goethe University Frankfurt. She completed her Master’s degree in Data and Discourse Studies (M.A.) at the Technical University of Darmstadt and Sciences Po Grenoble, where among other things she analysed hate speech and disinformation dynamics in social media discourses in her Master’s thesis. As a student assistant at PEASEC, Franziska has already worked on interdisciplinary projects dealing with combating misinformation through user-centred, AI-based approaches.
DE
Franziska Schneider, M.A. ist wissenschaftliche Mitarbeiterin am Lehrstuhl Wissenschaft und Technik für Frieden und Sicherheit (PEASEC) im Fachbereich Informatik der Technischen Universität Darmstadt. Sie beschäftigt sich mit Strategien zur Bekämpfung von Desinformationen und anderen Mitteln der Informationskriegsführung aus sozio-technischer Perspektive.
Sie studierte im Bachelor Interkulturelle Europa und Amerika Studien (B.A.) an der Martin-Luther-Universität Halle und der University of Leeds, sowie Politikwissenschaft (B.A.) an der Goethe-Universität Frankfurt am Main. Sie schloss ihren Master in Data and Discourse Studies (M.A.) an der Technischen Universität Darmstadt und der Sciences Po Grenoble ab, wobei sie sich u.A. in ihrer Masterarbeit mit der Analyse von Hassrede und Desinformationsdynamiken in Social Media Diskursen beschäftigt hat. Als studentische Hilfskraft bei PEASEC arbeitete Franziska bereits an interdisziplinären Projekten mit, die sich mit der Bekämpfung von Fehlinformationen durch nutzerzentrierte, KI-basierten Ansätzen befassten.
Publications
2024
[BibTeX] [Abstract] [Download PDF]
Misinformation poses a recurrent challenge for video-sharing platforms (VSPs) like TikTok. Obtaining user perspectives on digital interventions addressing the need for transparency (e.g., through indicators) is essential. This article offers a thorough examination of the comprehensibility, usefulness, and limitations of an indicator-based intervention from an adolescents’ perspective. This study (𝑁 = 39; aged 13-16 years) comprised two qualitative steps: (1) focus group discussions and (2) think-aloud sessions, where participants engaged with a smartphone-app for TikTok. The results offer new insights into how video-based indicators can assist adolescents’ assessments. The intervention received positive feedback, especially for its transparency, and could be applicable to new content. This paper sheds light on how adolescents are expected to be experts while also being prone to video-based misinformation, with limited understanding of an intervention’s limitations. By adopting teenagers’ perspectives, we contribute to HCI research and provide new insights into the chances and limitations of interventions for VSPs.
@inproceedings{hartwigAdolescentsEyesAssessing2024,
address = {New York, NY, USA},
series = {{CHI} '24},
title = {From {Adolescents}' {Eyes}: {Assessing} an {Indicator}-{Based} {Intervention} to {Combat} {Misinformation} on {TikTok}},
isbn = {9798400703300},
url = {https://peasec.de/paper/2024/2024_HartwigBiselliSchneiderReuter_MisinfoTikTok_CHI.pdf},
doi = {10.1145/3613904.3642264},
abstract = {Misinformation poses a recurrent challenge for video-sharing platforms (VSPs) like TikTok. Obtaining user perspectives on digital interventions addressing the need for transparency (e.g., through indicators) is essential. This article offers a thorough examination of the comprehensibility, usefulness, and limitations of an indicator-based intervention from an adolescents’ perspective. This study (𝑁 = 39; aged 13-16 years) comprised two qualitative steps: (1) focus group discussions and (2) think-aloud sessions, where participants
engaged with a smartphone-app for TikTok. The results offer new insights into how video-based indicators can assist adolescents’ assessments. The intervention received positive feedback, especially for its transparency, and could be applicable to new content. This paper sheds light on how adolescents are expected to be experts while also being prone to video-based misinformation, with limited understanding of an intervention’s limitations. By adopting
teenagers’ perspectives, we contribute to HCI research and provide new insights into the chances and limitations of interventions for VSPs.},
booktitle = {Proceedings of the {Conference} on {Human} {Factors} in {Computing} {Systems} ({CHI})},
publisher = {Association for Computing Machinery},
author = {Hartwig, Katrin and Biselli, Tom and Schneider, Franziska and Reuter, Christian},
year = {2024},
keywords = {AuswahlCrisis, Crisis, HCI, Selected, UsableSec, Security, A-Paper, Ranking-CORE-A*, Projekt-NEBULA, Projekt-ATHENE-PriVis},
}
[BibTeX] [Abstract] [Download PDF]
Die Verbreitung falscher und irreführender Informationen – insbesondere über soziale Medien wie TikTok, Twitter, Facebook und Co. – nehmen eine immer größer werdende Relevanz in sicherheitsrelevanten Situationen ein. Gerade im Kontext des russischen Angriffskrieges gegen die Ukraine spielen derartige Plattformen eine besondere Rolle, indem gefälschte Videos oder Inhalte mit falscher zeitlicher Einordnung in kürzester Zeit viral gehen und somit das Potential für Verunsicherung und Meinungsmanipulation bergen. Problematisch sind dabei nicht nur absichtliche, sondern auch unabsichtlich irreführende Informationen. Ziel des interdisziplinären BMBF-Projekts NEBULA (Laufzeit: 1.7.2022-30.6.2025) ist die transparente, KI- basierte Erkennung von Falsch- und Fehlinformationen in sicherheitsrelevanten Situationen sowie die zielgruppengerechte Darstellung der Detektionsergebnisse zur Förderung der Medienkompetenz. Die nutzerzentrierten Ansätze adressieren dabei sowohl Behörden und Organisationen mit Sicherheitsaufgaben (BOS) in der akkuraten Lagebilderstellung und Krisenkommunikation, als auch vulnerable Personengruppen durch partizipative Entwicklung von technischen Unterstützungswerkzeugen. Innerhalb des Projekts entstehen Demonstratoren in Form von Smartphone-Apps, Browser-Plugins und Webanwendungen, um Einzelpersonen und Behörden dazu zu befähigen, Falsch- und Fehlinformationen eigenständig kritisch zu reflektieren und Umgangsstrategien zur Informationseinordnung anzueignen.
@inproceedings{hartwigNEBULANutzerzentrierteKIbasierte2024,
address = {München},
title = {{NEBULA}: {Nutzerzentrierte} {KI}-basierte {Erkennung} von {Fake} {News} und {Fehlinformationen}},
url = {https://peasec.de/paper/2024/2024_HartwigBiselliSchneiderReuter_NEBULA_BfSTagungsband.pdf},
abstract = {Die Verbreitung falscher und irreführender Informationen – insbesondere über soziale Medien wie TikTok,
Twitter, Facebook und Co. – nehmen eine immer größer werdende Relevanz in sicherheitsrelevanten
Situationen ein. Gerade im Kontext des russischen Angriffskrieges gegen die Ukraine spielen derartige
Plattformen eine besondere Rolle, indem gefälschte Videos oder Inhalte mit falscher zeitlicher Einordnung
in kürzester Zeit viral gehen und somit das Potential für Verunsicherung und Meinungsmanipulation
bergen. Problematisch sind dabei nicht nur absichtliche, sondern auch unabsichtlich irreführende
Informationen.
Ziel des interdisziplinären BMBF-Projekts NEBULA (Laufzeit: 1.7.2022-30.6.2025) ist die transparente, KI-
basierte Erkennung von Falsch- und Fehlinformationen in sicherheitsrelevanten Situationen sowie die
zielgruppengerechte Darstellung der Detektionsergebnisse zur Förderung der Medienkompetenz. Die
nutzerzentrierten Ansätze adressieren dabei sowohl Behörden und Organisationen mit Sicherheitsaufgaben
(BOS) in der akkuraten Lagebilderstellung und Krisenkommunikation, als auch vulnerable Personengruppen
durch partizipative Entwicklung von technischen Unterstützungswerkzeugen. Innerhalb des Projekts
entstehen Demonstratoren in Form von Smartphone-Apps, Browser-Plugins und Webanwendungen, um
Einzelpersonen und Behörden dazu zu befähigen, Falsch- und Fehlinformationen eigenständig kritisch zu
reflektieren und Umgangsstrategien zur Informationseinordnung anzueignen.},
booktitle = {Aktuelle {Themen} und {Herausforderungen} behördlicher {Risikokommunikation} - {Tagungsband}},
publisher = {Bundesamt für Strahlenschutz},
author = {Hartwig, Katrin and Biselli, Tom and Schneider, Franziska and Reuter, Christian},
year = {2024},
keywords = {Crisis, Projekt-NEBULA},
}
2023
[BibTeX] [Download PDF]
@inproceedings{frankenInternetsPlumbingConsists2023,
address = {Kiel},
title = {The {Internet}’s {Plumbing} {Consists} of {Garden} {Hoses}: {A} {Critical} {Analysis} of the {Advantages} and {Pitfalls} of {Metaphors} {Use} for {Critical} {Maritime} {Infrastructures}},
url = {https://peasec.de/paper/2023/2023_FrankenSchneiderReuter_MetaphernMarKRITIS_Dreizack23.pdf},
booktitle = {Dreizack 23},
publisher = {The Kiel Seapower Series},
author = {Franken, Jonas and Schneider, Franziska and Reuter, Christian},
editor = {Schilling, Henrik},
year = {2023},
keywords = {Security, Peace, Projekt-ATHENE-SecUrban, Projekt-AgriRegio, Projekt-NetzGeschichte},
pages = {1--8},
}