Menschen vertrauen medizinischen Ratschlägen weniger, wenn sie vermuten, dass eine künstliche Intelligenz an deren Erstellung beteiligt ist. Das ist das zentrale Ergebnis einer Studie von Psychologen der Würzburger Julius-Maximilians-Universität (JMU), deren Ergebnisse jetzt in „Nature Medicine“ publiziert worden sind.
Früher haben die Menschen „Dr. Google“ befragt, wenn sie wissen wollten, ob ihre Symptome für eine leichte Magenverstimmung sprechen oder doch für Krebs im Endstadium; heute wenden sich dafür zunehmend an ChatGPT. Mit der Folge, dass niedergelassene Ärztinnen und Ärzte mit Personen zu tun haben, die mit fertigen Diagnosen aus dem Internet in die Sprechzimmer kommen und sich kaum davon überzeugen lassen, dass sie nicht schwer erkrankt sind. Tatsächlich ist aber das Vertrauen in die medizinische Kompetenz einer künstlichen Intelligenz (KI) längst nicht so ausgeprägt, wie es den Anschein hat.
Ein ausgeprägtes Misstrauen gegenüber der KI
Die jetzt vorgelegten Studienergebnisse zeigen, dass Menschen medizinische Ratschläge als weniger zuverlässig und empathisch beurteilen, wann immer eine KI daran beteiligt war. Das war selbst dann der Fall, wenn die Studienteilnehmer und -teilnehmerinnen annehmen konnten, dass ein Arzt oder eine Ärztin unter Zuhilfenahme einer KI diese Empfehlungen erstellt hatte. Konsequenterweise waren die Befragten bei KI-unterstützten Entscheidungen auch in geringerem Maße dazu bereit, diesen zu folgen – verglichen mit Ratschlägen, die ausschließlich auf ärztlicher Expertise basierten.
„Das Setting unserer Studie ist angelehnt an eine Digital Health-Plattform, auf der Informationen zu medizinischen Fragestellungen eingeholt werden können – also ein Setting, welches mit der zunehmenden Digitalisierung an Relevanz dazugewinnen wird“, beschreiben die Autoren ihr Vorgehen.
Keine Unterschiede in der Verständlichkeit
Mehr als 2.000 Studienteilnehmerinnen und -teilnehmer erhielten bei diesem Experiment identische medizinische Ratschläge und sollten diese auf ihre Verlässlichkeit, Verständlichkeit und Empathie bewerten. Der einzige Unterschied: Während eine Gruppe die Information erhielt, diese Ratschläge stammten von einem Arzt beziehungsweise einer Ärztin, hieß es für die zweite Gruppe, ein KI-gestützter Chatbot sei dafür verantwortlich. Die dritte Gruppe wurde in dem Glauben gelassen, ein Arzt oder eine Ärztin habe die Empfehlung unter Zuhilfenahme einer KI erstellt.
Die Ergebnisse sind eindeutig: Menschen vertrauen medizinischen Empfehlungen weniger, wenn sie vermuten, dass KI beteiligt ist. Das gilt auch dann, wenn sie glauben, dass ärztliches Personal daran mitgewirkt hat. Auch in der Kategorie „Empathie“ schneidet der ärztliche Rat besser ab als die beiden KI-Varianten. Einzig unter dem Aspekt der Verständlichkeit zeigen sich kaum Unterschiede zwischen den drei Gruppen. Anscheinend haben Menschen unter diesem Gesichtspunkt keine Vorbehalte gegen die Technik.
Vertrauen ist wichtig für den Behandlungserfolg
„Das ist ein wichtiger Befund, da Vertrauen in medizinische Diagnosen und Therapieempfehlungen bekanntermaßen ein sehr wichtiger Faktor für den Behandlungserfolg ist“, bewerten die Autoren das Studienergebnis. Gerade vor dem Hintergrund einer möglichen Entbürokratisierung und Entlastung des ärztlichen Arbeitsalltags durch eine Kooperation mit KI erhalten diese Erkenntnisse einen besonderen Stellenwert. Ihrer Ansicht nach bildet die Studie somit einen Startpunkt für eine detaillierte Erforschung der Bedingungen dafür, wie KI in Diagnostik und Therapie eingesetzt werden kann, ohne das Vertrauen und die Mitwirkung von Patientinnen und Patienten zu gefährden.
Pressemitteilung „Wenig Vertrauen in Dr. ChatGPT“. Universität Würzburg, 30.7.2024 (https://www.uni-wuerzburg.de/aktuelles/einblick/single/news/wenig-vertrauen-in-chatgpt/).
* Reis M et al.: Influence of believed AI involvement on the perception of digital medical advice. Nat Med. 2024 Jul 25 (DOI 10.1038/s41591-024-03180-7).