- Anzeige -
Recht

Die diffizile Haftungsfrage

KI-Übersetzungen

Armin Mutscheller

28.8.2024

Maschinelle Übersetzungen bieten verlockende Vorteile, scheitern jedoch oft an mangelndem Fachwissen, besonders in der Medizin. Und was passiert, wenn jemand wegen eines Fehlers der maschinellen Übersetzung falsch behandelt wird? Oder wenn sensible Daten unfreiwillig offengelegt werden?

Im Anfang 2024 erschienenen „Allianz Risk Barometer“ rangieren „Cybervorfälle“ auf Platz 1 aller geschäftlichen Risiken, vor Naturkatastrophen, Gewalt und anderen Gefahren. Definiert sind Cybervorfälle als „Ereignis, das gespeicherte Informationen oder IT-Ressourcen betrifft und Unternehmen erheblich schaden könnte“. Die Bandbreite umfasst u. a. Infektionen durch Schadsoftware und den Diebstahl von vertraulichen Daten.

Fast täglich hört man von Cybervorfällen. Mal ist Volkswagen betroffen, mal die CDU-Zentrale, mal ein Krankenhaus. Es müssen aber nicht immer gleich Armeen von Cyberkriminellen aus fernen Ländern hinter einem Cybervorfall stehen. Manchmal sind auch die Nutzer selbst die Ursache und die wenigsten wissen, dass auch maschinelle Übersetzungen (MÜ) durchaus ihre Tücken haben.

Fehlende Kontextsensibilität

Die maschinelle Übersetzung gilt als eine „Spielart“ der künstlichen Intelligenz (KI). Dementsprechend werden auch an die MÜ hohe Erwartungen gestellt, doch als Allheilmittel gegen Zeitdruck und Budgetknappheit taugen Systeme wie DeepL, Google Translate oder Bing Translator nicht. Das gilt besonders für ihren Einsatz in der Medizin.

Anders als eine „echte“ künstliche Intelligenz, die auf lange und komplexe Prompts durchaus beeindruckende Ergebnisse liefert und diese im Dialog mit dem Menschen sogar verfeinern und erweitern kann, ist das Blickfeld eines MÜ-Systems sehr begrenzt: Es reicht genau vom Satzanfang bis zum Satzende und nicht einen Buchstaben weiter. Auch Systeme, die ganze Word-Dokumente „in einem Rutsch“ übersetzen, liefern keine kohärente Textübersetzung, sondern Stückwerk. Dabei spielt es keine Rolle, ob das MÜ-System regelbasiert, statistisch oder neuronal arbeitet. Alle marktgängigen MÜ-Systeme sind schon auf grammatischer Ebene „kontextblind“. Dadurch entstehen typische und nicht selten gefährliche MÜ-Fehler wie dieser:

Ausgangssatz: „Manche Ärzte verschreiben bei Diabetes Typ II Metformin. Sie erstellen dann einen Medikationsplan.“

Maschinelle Übersetzung: „Some doctors prescribe metformin for type II diabetes. You then draw up a medication plan.“

Da die MÜ das Textgefüge nicht kennt, wird sie solche Fehler permanent einstreuen. Besonders tückisch ist das bei den allgegenwärtigen medi­zinischen Abkürzungen, die auch menschliche Übersetzer an ihre Grenzen bringen können. Ob also „EKG“ für „Elektrokardiogramm“ oder für „Echokardiogramm“ steht, kann das MÜ-System nicht beurteilen – in solchen Situationen wird es schlicht und ergreifend raten.

Diesen virtuellen Münzwurf vollzieht das MÜ-System auch auf stilistischer Ebene. Richtet sich der Text an ein Fachpublikum oder an Laien? Erwartet der Leser also fachsprachliche oder gemeinsprachliche Nomenklatur? Verwende ich „Fractura basis cranii“ oder doch lieber „Schädelbasisbruch“?

Ermöglicht werden diese teils enormen Qualitätsmängel auch dadurch, dass die Quelltexte nicht immer einem ordentlichen Lektorat unterzogen werden, bevor sie an die MÜ übergeben werden. Fast zwangsläufig entstehen dann sprachliche und inhaltliche Fehler, die einem professionellen Übersetzer wohl kaum unterlaufen würden.

Fehlendes Wissen

Menschen übersetzen Texte nicht linear, sondern in einem Kontinuum aus Sprachwissen und Weltwissen – denn auch ein grammatisch vollkommen korrekter Satz kann blanken Unsinn ergeben. Der Sprachwissenschaftler Noam Chomsky hat zur Veranschaulichung dieses Phänomens folgenden Satz ersonnen: „Colorless green ideas sleep furiously.“

Übergibt man diesen grammatisch korrekten und doch unsinnigen Satz an ein MÜ-System, liefert es die ebenso unsinnige Übersetzung. Diese wissensferne Übersetzungsstrategie erzeugt aus guten und sogar aus schlechten Sätzen fast immer grammatisch stimmige, oft elegante Übersetzungen. Auch wenn dabei völliger Blödsinn entsteht. Doch nicht immer machen dadaistische Formulierungen den Leser stutzig. Hier ein Beispiel für eine etwas subtilere maschinelle Fehlübersetzung, wie sie einem in der Praxis immer wieder begegnen. Ausgangssatz: „The patient was advised to cooperate in blood glucose control to achieve levels between 4.5 and 6.7 mmol/l.“ Maschinelle Übersetzung: „Dem Patienten wurde geraten, bei der Blutzuckerkontrolle mitzuwirken, um Werte zwischen 4,5 und 6,7 mmol/l zu erreichen.“

Ein kompetenter Fachübersetzer würde erkennen, dass „blood glucose control“ (= Blutzuckereinstellung) ein „falscher Freund“ ist, der zu einer wörtlichen und somit falschen Übersetzung verleitet. Er wüsste auch, dass Blutzuckerwerte im deutschen Sprachraum üblicherweise in mg/dl angegeben werden und nicht in mmol/l. Und sehr wahrscheinlich hätte er sich auch gefragt, ob sich das Wort „patient“ wirklich auf einen Mann bezieht.

Menschliches Wissen und Intuition spielen beim klassischen Übersetzen eine tragende Rolle. Für die Qualitätssicherung an einer MÜ bieten sich 2 Strategien an: 1. eine die Fehler offenbarende Rückübersetzung (back-translation, BT) des MÜ-Resultats durch ein MÜ-System oder 2. eine Qualitätsabschätzung (quality estimation, QE) durch eine medizinische Fachkraft. In einer vielbeachteten Studie aus dem Jahr 2023 kam ein amerikanisches Forscherteam zu dem Ergebnis, dass beim MÜ-Einsatz in der Medizin eine Kombination aus MÜ, BT und QE am ehesten zu einer vernünftigen Übersetzungsqualität führen könnte. Das klingt nicht gerade nach einem kostengünstigen Prozedere.

Datenabfluss

Datenschutzverletzungen sind ein weiterer Schwachpunkt. Wer Forschungsergebnisse, personenbezogene Daten oder technologische Geschäftsgeheimnisse zur Übersetzung an ein cloudbasiertes MÜ-System übergibt, hat sich von seinen wohlgehüteten Geheimnisse bereits verabschiedet. Denn es liegt in der Natur der Sache, dass MÜ-Systeme, wie jede andere KI auch, Unmengen an Trainingstexten benötigen, um das zugrunde liegende Large Language Model (LLM) erweitern zu können. Man gibt bei der MÜ also sehenden Auges Informationen aus der Hand, die nicht oder noch nicht für die Öffentlichkeit bestimmt sind.

Man möchte den großen IT-Unternehmen den guten Willen nicht absprechen, aber beim Thema Datenschutz haben sich alle in der Vergangenheit nicht mit Ruhm bekleckert.

MÜ-Anbieter kennen natürlich den Stellenwert des Datenschutzes und versprechen feierlich, dass zumindest bei abonnementfähigen MÜ-Systemen keine Kundendaten auf ihren Servern zurückbleiben – es sei denn zu „Forschungszwecken“. Man möchte diesen Unternehmen den guten Willen nicht absprechen, andererseits haben sich die weltgrößten IT-Konzerne, die jetzt alle ein Stück vom großen KI-Kuchen abbekommen möchten, beim Thema Datenschutz in der Vergangenheit nicht gerade mit Ruhm bekleckert. So haben unter anderem Apple, Google, Meta (ehemals: Facebook) und Microsoft der NSA bis zur Offenlegung des Abhörskandals 2013 fleißig dabei geholfen, die benötigten Datenberge zu beschaffen. Und Datenlecks können auch ohne aktives Zutun dafür sorgen, dass sensible Daten in die falschen Hände geraten.

Übersetzungsfehler können extrem teuer werden und schlimmstenfalls ein Menschenleben zerstören. Berühmt geworden ist z. B. der Fall eines 18-jährigen Amerikaners, bei dem im Jahr 1980 eine Fehlübersetzung zu einer Fehldiagnose und diese wiederum zu einer Fehlbehandlung führte. Der Patient erlitt dadurch eine Querschnittslähmung, und die Klinik musste an die Familie eine Entschädigung in Höhe von 71 Millionen US-Dollar bezahlen.

Wer haftet für Schäden, die durch eine maschinelle Fehlübersetzung entstehen? Da es kein Rechtssubjekt im klassischen Sinne gibt, dürfte es schwierig werden, eine verschuldensabhängige Haftung herzuleiten. Auch sind MÜ-Systeme mittlerweile so komplex, dass sich oft nicht mehr nachvollziehen lässt, wie die Übersetzung überhaupt zustande kam. Man müsste also eher an eine verschuldensunabhängige Haftung denken: Demnach wäre schon die bloße Nutzung der MÜ riskant und würde eine Haftpflicht begründen.

Die Rechtslage ist in dieser Frage noch unklar, und bis zur Klärung der Haftungsfrage bleibt die MÜ für alle im Medizinbereich Tätigen ein Minenfeld, das es tunlichst zu meiden gilt. Dafür spricht auch, dass in Artikel 6 der Anfang Juni 2024 in Kraft getretenen KI-Verordnung der EU (KI-VO) einige medizinische ­KI-Einsatzfelder als „hochriskant“ eingestuft werden. Sie sollen dann nur unter Vorgaben erlaubt sein. Wenn es nach mir ginge, würde auch die maschinelle Übersetzung explizit in diese Kategorie einsortiert werden.

Der Autor

Armin Mutscheller
Diplom-Übersetzer, öffentlich bestellter Sachverständiger und Lehrbeauftragter an der Universität Heidelberg

info@mutscheller.de

Literatur beim Autor

Der Beitrag basiert auf einer Veröffentlichung für www.medicallearning.de

Bildnachweis: privat

Lesen Sie mehr und loggen Sie sich jetzt mit Ihrem DocCheck-Daten ein.
Der weitere Inhalt ist Fachkreisen vorbehalten. Bitte authentifizieren Sie sich mittels DocCheck.
- Anzeige -

Das könnte Sie auch interessieren

123-nicht-eingeloggt