Künstliche Intelligenz: Wie zuverlässig ist ChatGPT in Sachen Gesundheit?
Bislang ging es Schlag auf Schlag. Im November 2022 stellte ein US-Start-up den Prototypen ChatGPT der Öffentlichkeit kostenfrei zur Verfügung. Die Künstliche Intelligenz (KI) antwortet auch auf medizinische Fragen oder kann Forschungsliteratur zu einem Thema zusammenfassen. Schon zwei Monate nach seiner Veröffentlichung verzeichnete ChatGPT Schätzungen zufolge rund 100 Millionen Nutzerinnen und Nutzer. Im Februar folgte die Meldung, dass die KI die US-Medizinprüfung mit der Mindestpunktzahl bestanden hat. Taugt sie Patientinnen und Patienten also als eine Art Dr. ChatGPT?
Wie funktioniert ChatGPT?
"ChatGPT ist ein großes Sprachmodell", sagt die Informatikerin und Psychologin Ute Schmid von der Uni Bamberg. "In die KI wurde eine gigantisch große Menge von Informationen aus dem Internet eingespeist“. Die Qualitätsspanne reicht dabei von meist seriösen Informationen etwa aus Online-Lexika oder wissenschaftlicher Literatur bis hin zu komplett falschen Angaben aus Foren oder Social Media.
Die Nutzerinnen und Nutzer können mit dem ChatBot kommunizieren, indem sie einen Prompt, also eine Eingabe erstellen, etwa: „Was muss ich bei Fieber tun?“. In diesem Fall springt der Bot zu dem Punkt in seinem riesigen Netzwerk, wo der Begriff "Fieber" mit seinem Kontext zu finden ist und kombiniert dies mit der Eingabe. „Seine Antworten entstehen, indem er berechnet, welche Wörter in seiner Antwort als nächstes kommen“, sagt Ute Schmid. Bei dem Satz "Bei Fieber sollte man viel..." findet er vermutlich "trinken" als wahrscheinlichste Fortsetzung.
Welche Vorteile könnten sich durch ChatGPT ergeben?
Ärztinnen und Ärzte diskutieren derzeit, ob der ChatBot ihnen nervige Schreibarbeit abnehmen oder diese zumindest erleichtern könnte. Die KI könnte möglicherweise Arztbriefe verfassen oder Schreiben an Krankenkassen. Auch eine Literaturrecherche oder das Zusammenfassen der Krankengeschichte von Patientinnen und Patienten wären denkbar.
Wie können Patientinnen und Patienten den Chatbot nutzen?
Man könne ChatGPT beispielsweise wie eine medizinische Suchmaschine verwenden, sagt Alena Buyx, Professorin für Ethik der Medizin und Gesundheitstechnologien an der Technischen Universität München und Vorsitzende des Deutschen Ethikrats. Als Nutzer oder Nutzerin gibt man dann etwa ein: "Welche Therapien gibt es bei Brustkrebs?". "Der Unterschied ist, dass die KI anders als etwa Google keine Webseiten auflistet, sondern eine Antwort verfasst", so Buyx. Man müsse aber gleich hinzufügen, dass ChatGPT hierbei fehleranfällig sei und sich sogar Dinge ausdenke.
Möglich wäre auch, ChatGPt als Symptomchecker einzusetzen. Nutzerinnen und Nutzer nennen dann ihre Symptome und der ChatBot antwortet, um welche Krankheit es sich möglicherweise handelt. Ebenfalls denkbar: ChatGPT zu fragen, zu welchen Wechselwirkungen es kommen kann, wenn man mehrere Medikamente gleichzeitig einnimmt. Was zu der wichtigen Frage führt:
Wie verlässlich sind die Informationen von ChatGPT?
Die Bamberger Informatikerin Ute Schmid rät Patientinnen und Patienten davon ab, ChatGPT für konkrete Behandlungsvorschläge zu nutzen. Man könne sich nicht darauf verlassen, dass die Informationen vertrauenswürdig sind. „Patientinnen und Patienten sollten auf diesem Weg zudem weder die Wechselwirkungen ihrer Medikamente erfragen noch Symptome angeben, um eine Diagnose zu erhalten“, so Schmid. „Wenn ChatGPT zum Beispiel Wechselwirkungen nennt, kann man der Antwort nicht einfach glauben.“
Das Problem: ChatGPT gibt keine Quellen an. Man weiß also nicht, ob es sich um Fakten oder Phantasie handelt. „Im Internet stehen viele ungeprüfte Informationen, die der ChatBot unkritisch mit übernimmt“, sagt Schmid. Letztlich verstehen Sprachmodelle wie ChatGPT nicht wirklich, was einzelne Wörter und Sätze bedeuten, sondern berechnen die Wahrscheinlichkeit für die Abfolge von Wörtern. Das Tückische dabei ist: ChatGPt klingt in seinen Antworten sehr überzeugend, selbst wenn er mal keine fundierte Antwort parat hat.
Bisher gibt es erst erste Untersuchungen dazu, wie sehr man den Antworten der KI zu Fragen der Gesundheit Glauben schenken kann. In einer Studie nahmen Forscherinnen und Forscher die Empfehlungen von ChatGPT zur Prävention von Herzerkrankungen unter die Lupe. 21 von 25 Antworten stuften sie als angemessen ein. Die restlichen Antworten fielen durch. So empfahl die KI sowohl Herz-Kreislauf-Aktivitäten als auch das Heben von Gewichten nachdrücklich, was je nach Konstitution der fragenden Person auch falsch und für bestimmte Menschen sogar schädlich sein kann.
Wie ist ChatGPT aus ethischer Sicht zu bewerten?
Auch Alena Buyx, die Medizinethikern aus München hat durchaus einige Bedenken bei dem Einsatz von ChatGPT. "Die Ergebnisse von ChatGPT sind sehr gut, aber nicht fehlerfrei, was natürlich in der Medizin besonders relevant ist." Zudem sei Nutzerinnen und Nutzern möglicherweise nicht klar, dass es sich nur um einen ChatBot handelt und nicht um einen Menschen. Denn tatsächlich klingt die Konversation mit der KI täuschend echt. In der Folge könnten Patientinnen und Patienten vermuten, dass hinter den Antworten doch ein Arzt oder eine Ärztin steckt. Oder zumindest irgendeine Art von menschlicher Kontrolle.
"Hier benötigen wir Transparenz", so Buyx. Sonst handele es sich beim Einsatz von ChatGPT nicht um eine selbstbestimmte Entscheidung, denn sie beruhe ja dann auf Täuschung. "Wir müssen uns zudem überlegen, welche Bereiche der ärztlichen Tätigkeiten wir wirklich der KI überlassen wollen und warum." Denn wir hätten ja nicht umsonst eine ärztliche Verantwortung und ein geschütztes Arzt-Patient-Verhältnis.
Laut der Medizinethikerin sind verschiedene Folgen denkbar, wenn Patientinnen und Patienten ChatGPT nutzen. Es könne auf der einen Seite positiv dazu führen, dass diese durch die Kommunikation mit Chatbots eine größere Gesundheitskompetenz erwerben. "Aber auf der anderen Seite ist die KI ja nicht mit dem Gesundheitssystem verbunden, um in wichtigen Fällen oder sogar Notfällen den Patienten sozusagen an einen Arzt zu überweisen."
ChatGPT: Wie sieht es mit dem Datenschutz aus?
ChatGPT speichert natürlich die Daten, die man eingibt. Im Moment werden die Daten dazu genutzt, die KI weiter zu trainieren. Die Daten liegen auf US-amerikanischen Servern. „Damit unterliegt ChatGPT nicht den strengen europäischen Datenschutzrichtlinien“, sagt Ute Schmid. „Wichtig ist es, am besten keine personenbezogenen Daten wie das Alter oder den Wohnort einzugeben.“ Tatsächlich erfasst ChatGPT keine personenbezogenen Daten der Nutzerinnen oder Nutzer, außer man gibt die Daten freiwillig preis.
Praxistest ChatGPT
Wir haben ChatGPT drei Fragen zum Thema Gesundheit gestellt und seine Antworten von Expert:innen bewerten lassen: