ChatGPT Health: Strategischer Meilenstein oder regulatorisches Hochrisiko-Projekt?

OpenAI hat mit der Einführung von ChatGPT Health im Januar 2026 den nächsten logischen Schritt in der Evolution der Alltags-KI vollzogen. Die Vision: Eine zentrale Schaltstelle, die Apple Health-Daten, Fitness-Apps und elektronische Patientenakten bündelt, um medizinische Befunde zu übersetzen und Arztbesuche vorzubereiten. Doch während der US-Markt bereits experimentiert, bleibt Europa außen vor. Das hat gute Gründe – und sie liegen nicht nur im Datenschutz.

Die Illusion der digitalen Triage

Das Versprechen von OpenAI klingt verlockend: Ein „Gesundheits-Navigator“, der 230 Millionen wöchentliche Anfragen kanalisiert. Die Integration von Laborwerten und Wearable-Daten soll die Lücke zwischen subjektivem Empfinden und objektiver Diagnose schließen. Doch eine aktuelle Studie in Nature Medicine wirft einen Schatten auf die Euphorie.

Besonders kritisch ist die Unter-Triage in Notfällen: In über 50 % der simulierten lebensbedrohlichen Fälle, etwa bei diabetischer Ketoazidose, stufte die KI die Lage als zu harmlos ein. Während das System bei Routinefällen eine solide Trefferquote von 93 % erzielt, versagt es ausgerechnet dort, wo Präzision über Leben entscheidet. Ein „Ankereffekt“ durch verharmlosende Kommentare im Prompt führt zudem dazu, dass die KI Warnsignale ignoriert. Das zeigt: ChatGPT Health ist ein exzellenter Sekretär, aber ein gefährlicher Diagnostiker.

Der „EU-Wall“: Regulatorik als Schutzschild

Dass Nutzer in der EU, der Schweiz und Großbritannien vorerst keinen Zugriff haben, ist kein Zufall. Die DSGVO klassifiziert Gesundheitsdaten als besonders schützenswert. Doch die Hürden gehen tiefer:

AI Act & MDR: Sobald eine Software einen medizinischen Zweck verfolgt (wie die Triage-Empfehlung), greift die EU-Medizinprodukteverordnung. OpenAI versucht diese Einstufung durch Disclaimer zu umgehen, doch die faktische Nutzung durch die Community hebelt diese juristische Absicherung moralisch und regulatorisch aus.

Datentrennung vs. Realität: OpenAI verspricht isolierte Speicherorte für Health-Chats. Technisch bleibt jedoch offen, wie diese „Verschlüsselung und Isolierung“ im Detail aussieht, um den strengen Anforderungen der europäischen Aufsichtsbehörden standzuhalten.

Psychische Krisen: Die Grenzen der Mustererkennung

Ein alarmierender Befund der Forschung betrifft die psychische Gesundheit. Während vage Suizidgedanken standardisierte Warnbanner auslösen, werden konkrete Suizidpläne oft übersehen, wenn sie mit unauffälligen körperlichen Laborwerten kombiniert werden. Die KI verfällt hier in einen gefährlichen Fokus auf messbare Parameter und verkennt die menschliche Notlage. Hier wird deutlich, dass KI-Modelle zwar Korrelationen berechnen, aber keine Empathie oder echtes Situationsverständnis besitzen.

3 Key Takeaways

Triage-Risiko: ChatGPT Health glänzt im moderaten Mittelfeld, versagt jedoch bei der Erkennung echter medizinischer Notfälle und psychischer Krisen durch eine massive Unter-Triage.

Regulatorische Blockade: Die strengen Anforderungen von DSGVO, AI Act und Medizinprodukteverordnung machen eine zeitnahe Einführung in Europa ohne tiefgreifende technische Anpassungen unwahrscheinlich.

Strategische Einordnung: KI im Gesundheitswesen muss als assistierendes Werkzeug für Fachpersonal (B2B) betrachtet werden, bevor sie als autonomer „Navigator“ auf Patienten (B2C) losgelassen wird.