Hintergrund

ChatGPT antwortet empathischer als Ärztinnen und Ärzte

Anna Sandner
7.9.2023

Mitgefühl kann eine Heilung beschleunigen. Warum gerade die künstliche Intelligenz ChatGPT unter bestimmten Bedingungen Medizinerinnen und Medizinern in diesem Punkt voraus ist, zeigt eine neue Studie. Doch der KI-Bot ersetzt kein medizinisches Fachpersonal – das sagt ChatGPT sogar selbst.

Zuspruch hilft uns Menschen in allen Lagen, besonders aber wenn wir krank sind. Mitgefühl und ein empathisch eingestelltes Gegenüber können die Heilung positiv beeinflussen. So gesehen ist ChatGPT möglicherweise mancher Ärztin und manchem Arzt überlegen – nämlich dann, wenn die KI auf medizinische Fragen von Betroffenen mit ausführlicheren und empathischeren Antworten reagiert, als das medizinische Personal es aus zeitlichen Gründen kann. Doch die Antworten des Gesprächsbots bergen auch Risiken.

Empathische KI mit qualitativ hochwertigen Antworten

Forschende der University of California in San Diego verglichen in einer Studie die Antworten auf konkrete medizinische Fragen von Ärztinnen und Ärzten mit denen von ChatGPT. Sie wollten wissen, ob eine künstliche Intelligenz (in ihrem Fall ChatGPT) in der Lage ist, ebenso korrekt wie auch empathisch auf Patientenfragen zu antworten wie Fachpersonal.

Für die Studie beantwortete der Chatbot 195 zufällig ausgewählte medizinische Fragen, die Betroffene öffentlich auf einer Social-Media-Plattform (Reddit’s r/AskDocs) gestellt hatten, auf der Ärztinnen und Ärzte ehrenamtlich Antworten geben. Ein Team aus zugelassenen Fachkräften aus dem Gesundheitswesen wählte anschließend aus, ob jeweils die Antwort der KI oder die der menschlichen Fachperson insgesamt mehr überzeugte. Dabei bewerteten sie sowohl die Qualität der bereitgestellten Informationen (sehr schlecht, schlecht, akzeptabel, gut oder sehr gut) als auch das Einfühlungsvermögen (nicht einfühlsam, etwas einfühlsam, mäßig einfühlsam, einfühlsam und sehr einfühlsam). Sie wussten nicht, welche Antwort von wem stammte.

Dieser Vergleich zwischen KI und Mensch lieferte ein unerwartetes Ergebnis: Die Antworten von ChatGPT wurden insgesamt bevorzugt und in Sachen Qualität und Empathie besser bewertet.

Faktor Zeit: KI im Vorteil

Dabei muss beachtet werden, dass die Ärztinnen und Ärzte, die auf der Reddit-Seite Auskunft geben, dies freiwillig und ohne Bezahlung tun. Sie halten ihre Antworten generell kurz (im Schnitt 52 Wörter lang) und beleuchten in der Regel keine weiterführenden Hintergründe. Für die KI ist in diesem Vergleichsszenario Zeit kein limitierender Faktor. Ihre Antworten waren dementsprechend ausführlicher (durchschnittlich 211 Wörter lang). Das ist zwar auf das Studiendesign zurückzuführen, allerdings ist die Situation im realen Gesundheitswesen auch meist von Zeitmangel bei Fachkräften dominiert.

KI-Assistenten als Entlastung im Gesundheitswesen

Der Studie liegt die Frage zugrunde, ob KI-Assistenten zukünftig im überlasteten Gesundheitswesen das Fachpersonal unterstützen könnten. Dabei ist der Gedanke nicht, künstliche Intelligenz als Ersatz für medizinisches Personal zu nutzen, sondern diesem zu assistieren. Indem etwa die KI Antworten auf Patientenfragen ausformuliert, die dann von menschlichem Fachpersonal nur noch überprüft und gegebenenfalls angepasst werden müssen. Die Studienautoren regen nach den vielversprechenden Ergebnissen zu weiterer Forschung im klinischen Umfeld an, um Ärztinnen und Ärzte zu entlasten und die Patientenversorgung zu verbessern.

Ärztlicher Rat von ChatGPT: kein Verlass auf korrekte Antworten der KI

Die Fragen, die in der vorliegenden Studie verwendet wurden, waren allgemein gehalten und für ihre Beantwortung war kein tiefgehendes Spezialwissen notwendig. Das machte es ChatGPT möglich, qualitativ hochwertige Antworten zu geben. Mit steigender Komplexität und benötigtem Fachwissen könnte ein derartiger Vergleich anders ausfallen. Außerdem betonen die Expertinnen und Experten, die die Antworten ausgewertet haben, dass ein Chat mit einer KI keinen Arztbesuch ersetzen kann. Sich bei einem medizinischen Problem also ausschließlich auf ChatGPT zu verlassen, könnte fatale Folgen haben, zumal der Bot nicht immer korrekt antwortet und auch mal falsche Fakten ausgibt.

Das sagt ChatGPT dazu

Und dieser Meinung ist ChatGPT sogar selbst: Auf meine Frage «Kannst du eine medizinische Diagnose stellen?» verneint die KI.

Also frage ich nach «medizinischem Rat» und bekomme folgende Antwort:

«Ich kann allgemeine Informationen zu medizinischen Themen bereitstellen, aber ich bin kein Ersatz für eine fachliche medizinische Beratung durch einen Arzt oder eine Ärztin. Wenn du medizinische Fragen oder Bedenken hast, ist es am besten, sich an einen qualifizierten medizinischen Fachmann oder eine Fachfrau zu wenden. Sie können deine individuelle Situation bewerten und dir entsprechende Ratschläge und Empfehlungen geben, die auf deinen spezifischen Bedürfnissen basieren.»

In dieser Hinsicht sind sich Forschende, medizinisches Fachpersonal und ChatGPT also einig.

Titelfoto: Karolina Grabowska/pexels

8 Personen gefällt dieser Artikel


Diese Beiträge könnten dich auch interessieren

  • Hintergrund

    KI in der Medizin: Wenn dein Knie deine Biervorliebe verrät

    von Anna Sandner

  • Hintergrund

    Dating in Zeiten von Künstlicher Intelligenz

    von Natalie Hemengül

  • Hintergrund

    Wearables können Parkinson frühzeitig erkennen

    von Anna Sandner

Kommentare

Avatar