Künstliche Intelligenz soll das Leben vereinfachen. Was aber, wenn sie zur Gefahr wird? Indem sie etwa Vorschläge für neue Chemiewaffen ausspuckt oder Anleitungen für den Bau von Bio- oder Chemiebomben liefert?

Der Artikel „Gift aus dem Rechner“ von Edda Grabar in der Welt am Sonntag am 22. Januar 2023 geht dieser Frage nach und thematisiert: „Wie kann man die Technologie einsetzen? Wie vor Missbrauch schützen?

Die Antwort darauf ist komplex. Dass Terroristen in der Garage Chemiewaffen herstellen, hält der Experte Trapp für unwahrscheinlich; die meisten Versuche flögen auf. „Giftstoffe wie VX müssen produziert, gelagert und gehandhabt werden, ohne dass sie seine Anwender selbst gefährden“, sagt er. Das gelänge im Prinzip nur Staaten. „Aber es kann möglich sein, dass KI-Technologien bisherige Kontrollmechanismen unterlaufen können“, sagt Ralf Trapp. Wenn ein Programm unbekannte Synthesewege ausspuckt oder neue Wirkstoffklassen entwirft, die es noch nicht gibt, dann fehlen auch Anhaltspunkte, um danach zu suchen. Die bisherigen Kontrollmechanismen würden versagen.

Aber muss eine KI neue Kampfstoffe berechnen können, um eine Bedrohung zu schaffen? An der Technischen Universität (TU) Darmstadt etwa untersucht der Informatiker und Friedensforscher Christian Reuter mögliche Missbrauchsszenarien. Für ihn reicht schon ein Programm, das derzeit überall diskutiert wird: ChatGPT, die KI, die das Wissenschaftssystem herausfordert, weil sie zumindest potentiell mittelmäßige Hausarbeiten so verfasst, als wären sie von Studenten selbst geschrieben. „Wir wollten wissen, ob sie auch die Anleitung zum Bomben- oder Waffenbau liefert“, sagt Reuter. Die konkrete Frage danach beantworte sie natürlich nicht. Wenn man sie aber in eine Umgebung, etwa eine Filmszene packe und die Umstände so verquicke, dass die Anleitung Teil dieser Szene ist, dann werfe sie die Informationen durchaus heraus.

Wenn aber selbst eingebaute Kontrolltechnologien versagen, was hilft dann? Der Missbrauch lasse sich nicht hundertprozentig verhindern. Aber um das Risiko zu minimieren, muss man Gegenszenarien entwickeln, ist die emeritierte Mikrobiologin und Biowaffenexpertin Kathryn Nixdorff von der TU Darmstadt überzeugt. „Wir müssen bereits Studenten in die Lage versetzen, ein Risiko mitdenken zu können“, sagt sie.

Der vollständige Artikel ist in der Welt am Sonntag am 22. Januar 2023 erschienen.

Wenn Künstliche Intelligenz zur Gefahr wird: TU-Professoren Reuter und Nixdorff im „Welt am Sonntag“-Interview