dutchmagazine.de
Menü

Alarmierende Ergebnisse: ChatGPT Health erkennt kritische medizinische Notfälle nicht

David Lee14. März 2026gesundheit
Share
Alarmierende Ergebnisse: ChatGPT Health erkennt kritische medizinische Notfälle nicht

Einführung

Täglich nutzen rund 40 Millionen Menschen ChatGPT für gesundheitliche Anfragen, wie Daten von OpenAI zeigen. Im Januar 2026 stellte das Unternehmen sein neues „Health“-Feature vor, das Nutzern gesundheitliche Ratschläge geben und deren Wohlbefinden fördern soll. Doch eine aktuelle Studie hat nun alarmierende Mängel in der Funktionsweise dieses Programms aufgezeigt.

Studie deckt Versäumnisse auf

Eine Gruppe von Forschern hat das Gesundheitsfeature eingehend untersucht und warnt, dass die Software oft versagt, wenn es darum geht, Suizidabsichten oder ernsthafte medizinische Notfälle zu erkennen. Ashwin Ramaswamy, einer der Forscher, erklärte gegenüber dem Guardian: "Wir wollten die grundlegendste Sicherheitsfrage beantworten: Was passiert, wenn jemand in einem echten medizinischen Notfall Rat von ChatGPT Gesundheit einholt?" Die Ergebnisse sind besorgniserregend.

Is ChatGPT Dangerous for Healthcare?
Is ChatGPT Dangerous for Healthcare?
ChatGPT Health: OpenAI wants to enter US healthcare.
ChatGPT Health: OpenAI wants to enter US healthcare.

Testmethodik

Die Forscher erstellten 60 verschiedene Szenarien, in denen Personen ChatGPT Gesundheit um Rat baten. Diese Szenarien reichten von leichten Beschwerden bis hin zu lebensbedrohlichen Notfällen. Anhand klinischer Leitlinien ermittelten die Wissenschaftler, wann und welche medizinischen Interventionen notwendig wären.

Ergebnisse der Studie

Die Leistung von ChatGPT Gesundheit war in vielen Fällen unzureichend. Während in einigen Szenarien, wie etwa bei einem Herzinfarkt oder einem allergischen Schock, akzeptable Ratschläge gegeben wurden, versagte die Software in anderen kritischen Situationen komplett. In einem Beispiel erhielt ein Asthma-Patient die Empfehlung, mit dem Besuch der Notaufnahme zu warten, obwohl er bereits Symptome eines Atemversagens zeigte.

  • In 51,6 % der Fälle, in denen ein Krankenhausbesuch notwendig gewesen wäre, riet ChatGPT Gesundheit stattdessen dazu, einen Facharzttermin zu einem späteren Zeitpunkt zu vereinbaren.
  • In 80 % der getesteten Szenarien, in denen eine Frau beim Ersticken war, empfahl der Chatbot ebenfalls, einen späteren Termin zu vereinbaren.

Übermäßige Beruhigung der Nutzer

Besonders besorgniserregend war das Verhalten des Chatbots, wenn Nutzer angaben, dass ein "Freund" gesagt habe, dass es nichts Ernstes sei. In solchen Fällen beruhigte die KI die Hilfesuchenden übermäßig.

Falsches Sicherheitsgefühl

Laut der Studie wurden jedoch auch 64,8 % der Hilfesuchenden an einen Arzt verwiesen, obwohl bei ihnen tatsächlich keine gesundheitlichen Probleme vorlagen. Diese falschen Empfehlungen könnten nicht nur zu unnötigen Arztbesuchen führen, sondern auch die Notaufnahmen zusätzlich belasten.

Versagen bei psychischen Problemen

Die Untersuchung zeigte auch, dass das System bei psychischen Problemen nicht zuverlässig ist. Ein Beispiel aus der Studie verdeutlicht dies: Wenn jemand äußert, er denke darüber nach, "Pillen zu schlucken", zeigte ChatGPT zwar einen Banner mit Hilfe-Hotlines an. Doch bei identischen Aussagen, jedoch mit normalen Laborwerten, verschwand dieser Hinweis. Ramaswamy kommentierte: "Ein Krisenleitsystem, das von Laborwerten abhängt, ist nicht einsatzbereit und womöglich gefährlicher als gar kein System, weil niemand vorhersagen kann, wann es versagen wird."

Expertenmeinung

Die Ergebnisse der Studie lassen aufhorchen. Alex Ruani, eine Expertin für Desinformation im Gesundheitsbereich, bezeichnete ChatGPT Gesundheit als "unglaublich gefährlich". Sie betont, dass das größte Risiko in dem falschen Sicherheitsgefühl liege, das durch solche Systeme erzeugt werde. Laut der Studie könnte ein übermäßiges Vertrauen in das System sogar zu Todesfällen führen.

Fazit

Die Analyse zeigt deutlich, dass ChatGPT Gesundheit in seiner derzeitigen Form erhebliche Mängel aufweist. Nutzer sollten sich darüber im Klaren sein, dass diese KI-Anwendung nicht als verlässliche Quelle für medizinische Ratschläge betrachtet werden kann. Die potenziellen Gefahren, die von falschen Empfehlungen ausgehen, sind nicht zu unterschätzen.

Stand: 27.02.2026, 12:47 Uhr

Mehr zu diesem Thema

Share
Author

David Lee

Content Creator bei Dutch Magazine.

FBTWINYT