Jede Woche wenden sich mehr als 230 Millionen Menschen an ChatGPT, um Antworten zu erhalten. Sie fragen nach allem, von Programmierfehlern bis hin zu Kochrezepten, aber zunehmend fragen sie auch nach ihrer Gesundheit. Laut OpenAI prüfen Nutzer, ob Lebensmittel sicher zu verzehren sind, verwalten chronische Allergien oder suchen nach Wegen, eine hartnäckige Erkältung loszuwerden.
Eine neue, in der Fachzeitschrift Nature veröffentlichte Studie legt jedoch nahe, dass ChatGPT zwar ein brillanter Gesprächspartner, aber eine gefährlich inkonsequente Triage-Fachkraft ist. Forscher vom Mount Sinai in New York fanden heraus, dass die KI zwar „Lehrbuch“-Notfälle mit Leichtigkeit bewältigt, es jedoch in mehr als der Hälfte der Fälle versäumt, den Ernst subtilerer, lebensbedrohlicher Situationen zu erkennen.
Die Studie unter der Leitung von Ashwin Ramaswamy suchte nach der Antwort auf eine grundlegende Frage: Wenn sich ein Nutzer mitten in einer medizinischen Krise befindet, wird ChatGPT ihm raten, die Notaufnahme aufzusuchen? Um dies zu testen, präsentierten die Forscher der KI verschiedene klinische Szenarien.
Die Ergebnisse offenbarten eine frappierende Zweiteilung. Bei klassischen, unverkennbaren Notfällen – wie dem plötzlichen Herabhängen einer Gesichtshälfte bei einem Schlaganfall oder Nesselsucht und Keuchen bei einer schweren allergischen Reaktion – schnitt ChatGPT bewundernswert ab. Sie erkannte die Muster, auf die sie trainiert worden war, und riet korrekt zu sofortiger medizinischer Intervention.
Doch Medizin ist selten nur eine Abfolge von Lehrbuchdefinitionen. Die Studie ergab, dass ChatGPT erhebliche Schwierigkeiten hatte, wenn die Gefahr nicht sofort offensichtlich war. In Fällen, in denen die Symptome nuancierter waren oder ein höheres Maß an klinischem Verdacht erforderten, unterschätzte die KI den Ernst der Lage in über 50 % der Versuche.
Um zu verstehen, warum ein fortschrittliches großes Sprachmodell (LLM) hier scheitert, hilft eine Analogie. Stellen Sie sich ChatGPT als einen Weltklasse-Bibliothekar vor, der jedes jemals geschriebene medizinische Lehrbuch gelesen hat, aber noch nie einen Patienten gesehen hat. Der Bibliothekar kann die Symptome einer seltenen Krankheit perfekt rezitieren, aber ihm fehlt die „klinische Intuition“, um die subtile Blässe im Teint eines Patienten oder die spezifische Art und Weise zu bemerken, wie eine Person einen „dumpfen Schmerz“ beschreibt, der tatsächlich auf eine innere Blutung hindeuten könnte.
KI arbeitet auf Basis von Mustererkennung und Wahrscheinlichkeit. In einem Lehrbuch-Notfall sind die Muster laut und deutlich. In einem subtilen Notfall sind die Muster gedämpft. Da die KI keine klärenden physischen Fragen stellen oder das Auftreten des Patienten beobachten kann, greift sie oft auf eine konservativere, weniger dringliche Interpretation der bereitgestellten Daten zurück.
Die Hauptsorge des medizinischen Fachpersonals ist das „falsche grüne Licht“. Wenn eine Person eine KI nach einem Symptom fragt und die KI ein Hausmittel oder einen „Abwarten und Beobachten“-Ansatz vorschlägt, empfindet der Nutzer ein Gefühl der Erleichterung. Diese kognitive Beruhigung kann zu gefährlichen Verzögerungen bei der Suche nach professioneller Hilfe führen.
| Szenario-Typ | KI-Leistung | Typisches Beispiel |
|---|---|---|
| Lehrbuch-Notfall | Hohe Genauigkeit | Brustschmerzen, die in den linken Arm ausstrahlen (Herzinfarkt) |
| Eindeutiges Trauma | Hohe Genauigkeit | Tiefe arterielle Blutung oder offensichtlicher Knochenbruch |
| Subtiler Notfall | Geringe Genauigkeit | Symptome einer Eileiterschwangerschaft oder Sepsis im Frühstadium |
| Chronisches Management | Moderate Genauigkeit | Anpassung der Ernährung bei bekanntem Typ-2-Diabetes |
Wie die Tabelle nahelegt, liegt das Risiko im Mittelweg. Ein Nutzer könnte einen „starken Bauchschmerz“ beschreiben, der tatsächlich eine Blinddarmentzündung ist. Wenn sich die KI auf Verdauungsstörungen statt auf das Risiko eines Durchbruchs konzentriert, könnte sich das Zeitfenster für eine sichere Routineoperation schließen.
OpenAI hat nie behauptet, dass ChatGPT ein Medizinprodukt ist. Tatsächlich legen die Nutzungsbedingungen der Plattform ausdrücklich fest, dass das Tool nicht für medizinische Beratung, Diagnose oder Behandlung gedacht ist. Die meisten medizinischen Anfragen lösen mittlerweile einen Standard-Haftungsausschluss aus: „Ich bin eine KI, kein Arzt. Bitte konsultieren Sie eine medizinische Fachkraft.“
Wie die Mount-Sinai-Studie jedoch hervorhebt, sind diese Haftungsausschlüsse oft unter Absätzen mit scheinbar autoritativen Ratschlägen vergraben. Wenn ein Nutzer Schmerzen hat oder in Panik gerät, überspringt er wahrscheinlich den Disclaimer und steuert direkt auf das vorgeschlagene Heilmittel zu. Die Studie legt nahe, dass die aktuellen Sicherheitsvorkehrungen möglicherweise nicht ausreichen, um zu verhindern, dass sich Nutzer während eines kritischen Zeitfensters auf die KI verlassen.
Bedeutet das, dass Sie KI niemals für gesundheitsbezogene Fragen nutzen sollten? Nicht unbedingt. KI kann ein hervorragendes Werkzeug für die Gesundheitskompetenz sein – sie kann komplexe medizinische Begriffe erklären, Ihnen helfen, Fragen für Ihren Arzt vorzubereiten oder gesunde Rezepte zu finden. Aber wenn es um Diagnose und Triage geht, ist ein anderer Ansatz erforderlich.
Praktische Schritte für Nutzer:
Die Integration von KI in das Gesundheitswesen ist unvermeidlich und in vielerlei Hinsicht wünschenswert. In Zukunft könnten spezialisierte medizinische KI-Modelle, die auf verifizierten klinischen Daten – statt auf dem allgemeinen Internet – trainiert wurden, zu unglaublich genauen Triage-Werkzeugen werden.
Bis dahin dient die Mount-Sinai-Studie als wichtige Erinnerung: ChatGPT ist ein mächtiges Spiegelbild des menschlichen Wissens, aber es fehlt ihm das lebensrettende Urteilsvermögen eines menschlichen Arztes. Wenn es um Ihre Gesundheit geht, ist der beste „Algorithmus“ immer noch der Weg in die Notaufnahme.



Unsere Ende-zu-Ende-verschlüsselte E-Mail- und Cloud-Speicherlösung bietet die leistungsfähigsten Mittel für den sicheren Datenaustausch und gewährleistet die Sicherheit und den Schutz Ihrer Daten.
/ Kostenloses Konto erstellen