ChatGPT wirkt als Seite zunächst unauffällig und unspektakulär. Es ist eine Art Chatbot. Diese „intelligente“ Variante kennt scheinbar Antworten auf viele medizinische Fragen. Etwa jeder Vierte der Generation Z ist mit dieser Anwendung vertraut.
Von Prof. Dr. Volker Nürnberg, Professor für Management im Gesundheitswesen an der Allensbach Hochschule
ChatGPT wurde von OpenAI, einem kalifornischen KI-Forschungsunternehmen, das unter anderem von der schillernden Persönlichkeit Elon Musk gegründet, entwickelt. Der Chatbot funktioniert auf der Grundlage von maschinellem Lernen und neuronalen Netzen. Die Daten, mit denen ChatGPT trainiert wurde, stammen hauptsächlich aus Internetquellen wie Wikipedia, Nachrichtenseiten und Portalen für wissenschaftliche Fachartikel. Aber sie sind nicht mehr aktuell. Das macht die Maschine bei den schnellen bzw. kurzen Innovationszyklen im Gesundheitswesen, gefährlich. Den Hype um die Anwendung erklärten sich Expert:innen vor allem mit der sehr einfachen Nutzbarkeit. Erinnerungen daran, als Apple aufkam, werden wach: Erstmals konnten auch Laien weltweit mit KI interagieren, ohne tiefergehende PC-Kenntnisse zu besitzen. Die Benutzeroberfläche von ChatGPT war von Beginn an ähnlich einfach zu bedienen wie bei etablierten Webanwendungen wie Google oder WhatsApp. Es ist also keine Überraschung, dass immer mehr Menschen ChatGPT kontaktieren, auch im Zusammenhang mit ihrer Gesundheit. Bevor sie eine:n Ärzt:in aufsuchen, stellen sie zunächst Fragen an ChatGPT, um herauszufinden, welche Erkrankungen sie möglicherweise haben könnten. Das ist niedrigschwellig, anonym und kostenfrei.
Leider muss man in Deutschland insbesonde als gesetzlich Versicherter, sehr lange auf einen Facharzttermin warten. Zwischen Wochen und vielen Monaten. Da scheint die einfache, aber eben nur zu 80 Prozent valide Option ChatGPT als gute Alternative. In solchen Fällen könnte es sich anbieten, mithilfe von ChatGPT eine Diagnose zu erhalten und den darauf basierenden Therapien zu folgen. Manche Patient:innen bevorzugen es, Gesundheitsfragen einem Chatbot anzuvertrauen, da sie sich weniger beobachtet oder beurteilt fühlen als bei einem Ärzt:innenbesuch. Dies gilt insbesondere für Erkrankungen, die noch immer mit Scham behaftet sind, wie beispielsweise psychische Erkrankungen oder Geschlechtskrankheiten. Die Möglichkeit, einen Diagnosehinweis von zu Hause zu erhalten, ist in solchen Fällen diskreter.
Trotz der genannten Vorteile ist jedoch Vorsicht geboten, wenn es um den Einsatz von ChatGPT im Gesundheitskontext geht. Ein offensichtlicher Nachteil besteht darin, dass der Chatbot keine physischen Untersuchungen vornehmen, Blut abnehmen oder ein Röntgenbild machen und auch kein dialogorientiertes Anamnesegespräch führen kann. Ein weiterer Schwachpunkt von ChatGPT besteht darin, dass es zu selten auf Hilfsangebote verweist. Besonders bei der Empfehlung von Unterstützungsangeboten durch professionelle Organisationen wie Notfallhotlines weist die KI Defizite auf. Laut Forschungsergebnissen wurde in nur rund 20 Prozent der Antworten auf solche Ressourcen hingewiesen. Eine weitere zu berücksichtigende Problemstellung bei der Anwendung von ChatGPT für Patient:innen sind Sicherheits- und Datenschutzaspekte, insbesondere im Zusammenhang mit der Speicherung sensibler Gesundheitsdaten. Sicherheitsbedenken im Zusammenhang mit der Verwendung von ChatGPT können auftreten, wenn Patient:innen dem Chatbot unter anderem vertrauliche Informationen zu chronischen Erkrankungen anvertrauen. Falls diese Daten nicht ausreichend gesichert werden, besteht das Risiko des Missbrauchs oder der unbefugten Weitergabe an Dritte.
Ein weiteres Problem ist die Verwendung veralteter Informationen. Die aktuelle ChatGPT-4-Version basiert derzeit auf einem Wissensstand von 2021 und kann daher keine Fragen zu aktuellen medizinischen Entwicklungen beantworten. Überdies können fehlende Quellenangaben in Verbindung mit der Nutzung für Diagnosen im medizinischen Kontext problematisch sein, da Patient:innen mitunter Schwierigkeiten haben, die Glaubwürdigkeit der bereitgestellten Informationen zu überprüfen. Ohne klare Verifikationsmöglichkeiten bleibt unklar, welche Quellen oder Grundlagen für die bereitgestellten Informationen herangezogen wurden. Für Laien erscheint ChatGPT oft wie eine Blackbox, in die sie Anfragen eingeben, ohne genau zu wissen, was dahinter geschieht – und erhalten dann Informationen, ohne den genauen Ursprung oder die zugrunde liegenden Grundlagen nachvollziehen zu können.
Zusammenfassend bietet ChatGPT rund um die Uhr schnelle, einfache Hilfe auf Gesundheitsfragen, jedoch sind damit auch Risiken verbunden, darunter ungenaue, oder eben gar falsche Diagnosen, unzureichende Verweisung auf Hilfsangebote sowie Sicherheits- und Datenschutzbedenken aufgrund möglicher Verwendung veralteter Informationen. Manche Länder haben es deshalb zeitweilig verboten. In Deutschland hingegen lehnen die Verantwortlichen ein Verbot ab. Stattdessen werden eine strenge Regulierung und Überwachung für den Einsatz von KI, insbesondere im medizinischen Bereich, gefordert, um so Transparenz und Sicherheit zu gewährleisten. Bundesgesundheitsminister Karl Lauterbach erkennt die Chancen, aber auch die Gefahren von KI-Chatbots wie ChatGPT im Gesundheitssystem. Es ist notwendig, eine Kennzeichnungspflicht oder andere Regulierungen einzuführen, um den Patient:innen transparent zu machen, wenn beispielsweise ein Arztbrief mithilfe von ChatGPT oder anderen KIs erstellt wurde. In der Zukunft werden die besten Resultate jedoch durch Kombinationen aus KI und realen Ärzt:innen erzielt. Es entstehen hier auch neue Jobs an der Schnittstelle zwischen Mensch und Maschine. Das Zusammenwirken von Mensch und Maschine kann einen Quantensprung für die Qualität der Medizin bedeuten.
In Deinem persönlichen Studienführer findest du alle wichtigen Informationen zu deinem Studiengang.