Direkt zum Inhalt
Warnschild mit Biohazard-Symbol vor einem Bildschirm mit dem OpenAI-Logo – Hinweis auf potenzielle Risiken von ChatGPT-5 in kritischen Forschungsbereichen.
OpenAI stuft GPT-5 als Hochrisiko-Modell im Bereich Biologie und Chemie ein.
OpenAI stuft GPT-5 als Hochrisiko-Modell im Bereich Biologie und Chemie ein.
ppart / iStock; levartphotography / unsplash

Bio- und Chemiewaffen: Hochsicherheitsrisiko GPT-5

08.08.2025 um 16:12, Stefanie Hermann
3 min read
GPT-5 brilliert bei Mathematik und Programmierung. Die neuen Fähigkeiten bringen neue Gefahren – von Halluzinationen bis zu Cyberangriffen und Biowaffen.

Am 7. August 2025 hat OpenAI mit großer Aufmerksamkeit ChatGPT-5 veröffentlicht. Das neue Sprachmodell soll in nahezu allen Disziplinen besser abschneiden als seine Vorgänger. Anders als bei Vorgängerversionen ist das neue Modell von Beginn an für alle Nutzer, also auch jene im Gratis-Tarif, nutzbar. Die Kombination aus hoher Verfügbarkeit und enormer Leistungsfähigkeit löst jedoch nicht nur Begeisterung, sondern auch Sorgen aus.

Fortschritte mit Schattenseiten

GPT-5 erreicht bei mathematischen Aufgaben eine Erfolgsquote von 94,6 Prozent, bei komplexen Programmieraufgaben 74,9 Prozent. Die neue Architektur mit den Submodellen „main” und „thinking” ermöglicht dynamische Anpassungen an die gestellte Aufgabe. Mit wachsender Leistungsfähigkeit steigt aber auch das Missbrauchspotenzial. OpenAI hat das selbst erkannt.

Die Risiken im Überblick

Die System Card dient als offizieller Sicherheitsrahmen für GPT-5 und beschreibt detailliert, in welchen Bereichen Gefahren oder Schwachstellen bestehen. Sie analysiert sowohl technische Risiken als auch mögliche gesellschaftliche Folgen der Nutzung. Hier sind die elf von OpenAI dokumentierten Risikobereiche.

Missbrauch für verbotene Inhalte: Trotz Filtersystemen entstehen bei mehrstufigen Gesprächen problematische Antworten. GPT-5 blockiert einfache riskante Inhalte zuverlässig, bei komplexen Kontexten bleibt aber ein Restrisiko.

Sycophancy: GPT-5 neigt weiterhin zu gefälligem Verhalten, was in sensiblen Kontexten irreführend sein kann – z. B. in politischen oder medizinischen Diskussionen. Im besten Fall ist das anbiedernde Verhalten der KI nervtötend, im schlimmsten Fall produziert sie aus Gefälligkeitsgründen Fehlinformationen.

Jailbreaks: Auch GPT-5 ist nicht immun gegen trickreiche Umgehungsversuche, um durch geschickte Prompts eigentlich „verbotene” Nutzung zu ermöglichen. Besonders mehrschichtige Angriffe („multi-turn jailbreaks”) können Sicherheitsmechanismen aushebeln.

Schwächen in der Befehlshierarchie: Systemanweisungen sollten prinzipiell über allem stehen. Es gibt jedoch dokumentierte Fälle, in denen GPT-5-main Anweisungen von Entwicklern oder Nutzern fälschlich höher priorisierte.

Halluzinationen: Die Fehlerquote wurde drastisch reduziert. In Evaluierungen mit Benchmarks wie TruthfulQA und MMLU hat GPT-5-thinking in Testläufen eine um 78 Prozent geringere Fehlerquote als GPT-4o gezeigt. Bei offenen Fragen treten aber nach wie vor falsche Fakten auf.

Täuschendes Verhalten: GPT-5 kann erkennen, dass es getestet wird, und sein Verhalten anpassen. Sicherheitsüberprüfungen können so tendenziell verfälscht werden.

Risiken durch Bild-Eingaben: Hier wird es besonders heikel. Die Kombination von Text- und Bildeingaben kann theoretisch gefährliche Inhalte erzeugen. Ein Ergebnis können etwa Anleitungen zum Waffenbau sein. Das Erkennungssystem, das das verhindern soll, ist gut, aber nicht perfekt.

Gesundheitsbezogene Risiken: GPT-5 bietet fundiertere Informationen, ersetzt aber keine medizinische Fachberatung. Fehlerhafte Ausgaben können besonders in kritischen Situationen problematisch sein.

Cybersecurity-Risiken: Die KI kann noch nicht zu 100 Prozent erkennen wofür sie eingesetzt wird. Insofern unterstützt auch GPT-5 auch bei Hacking-Aufgaben, etwa durch Codebeispiele oder Exploit-Erklärungen. Besonders in Kombination mit menschlichem Wissen kann das brandgefährlich sein.

Sandbagging & Evaluations-Täuschung: Das Modell kann Testsituationen antizipieren und sein Verhalten anpassen, um harmloser zu erscheinen. Die Wirkung wird derzeit aber als begrenzt eingestuft.

Biologische und chemische Risiken

GPT-5-thinking wird als „high capability” (also sehr fähig) in Biologie und Chemie bewertet .Im Fall von GPT-5-thinking könnten laut System Card auch harmlose Antworten in Kombination – etwa durch Anleitungen zur Synthese toxischer Substanzen – zu einer gefährlichen Gesamtinformation führen.

Im Rahmen des firmeneigenen „Preparedness Frameworks“ wurde diese Risikoklassifizierung aktiv geschaltet – eine vorbeugende Maßnahme trotz fehlender Hinweise auf akute Gefahren. OpenAI setzt hier auf abgestufte Zugriffssysteme („Tiered Access“) und menschliche Kontrolle.

„Wir haben beschlossen, das gpt-5-Denkmodell im biologischen und chemischen Bereich als hochgradig fähig zu behandeln und die damit verbundenen Sicherheitsvorkehrungen zu aktivieren„, heißt es von Unternehmensseite. ”Obwohl wir keine definitiven Beweise dafür haben, dass dieses Modell einem Anfänger dabei helfen könnte, schwere biologische Schäden zu verursachen – unsere definierte Schwelle für hohe Fähigkeiten -, haben wir uns für einen vorsorglichen Ansatz entschieden.“

more