KI-Algorithmen besitzen eine enorm hohe Rechenleistung. Das Zusammenspiel KI – Mensch kann zu einer erheblichen Qualitätssteigerung in der Gesundheits- und Pflegeversorgung führen. Doch Vorsicht ist geboten, wenn es sich wie bei ChatGPT um einen (unwissenschaftlichen) Textgenerator handelt. Diesbezüglich bleibt es dabei, dass auch bei Nutzung von KI-Algorithmen die Letztverantwortung beim Arzt liegt und auch dort verbleiben muss. Im Interview mit dem Krankenhaus IT Journal erörtert die Rechtsanwältin Professorin iur. Alexandra Jorzig klinische Einsatzmöglichkeiten, rechtliche Rahmenbedingungen in der Medizin und Perspektiven und für KI-Sprachmodelle.
Welche rechtlichen Rahmenbedingungen in der Medizin für Patienten und Kliniken sind durch KI Large Language Models (LLM) z.B. ChatGPT für den ärztlichen Kontext zu definieren?
Prof. Jorzig: Aus rechtlicher Sicht gilt es bei ChatGPT vor allem den Datenschutz zu beachten. ChatGPT speichert und nutzt die eingegebenen Daten. Sofern also personenbezogene Daten eingegeben (geprompted) werden, ist der Anwendungsbereich der DSGVO eröffnet. Die Verwendung personenbezogener Daten ist nach Art. 6 I DSGVO nur unter besonderen Bedingungen möglich. Liegen diese Bedingungen nicht vor, stehen nicht nur Sanktionen nach der DSGVO, sondern auch eine Strafbarkeit wegen der Verletzung der ärztlichen Schweigepflicht (§ 203 StGB) im Raum. Wichtig zu betonen ist noch, dass die personenbezogene DSGVO nur bei Anonymisierung der Daten nicht eingreift. Eine Pseudonymisierung, bei der unter Zuhilfenahme zusätzlicher Daten Rückschlüsse auf die Person möglich sind, ist demnach nicht ausreichend.
Wie weit können rechtliche Rahmenbedingungen bei textbasierten Dialogsystemen wie ChatGPT Entscheidungsfindungen der Therapie oder Behandlung Mediziner und Patienten rechtlich absichern? Welche Optimierung ist nötig, um rechtliche Rahmenbedingungen an evidenzbasierte, patientenzentrierte Medizin zu entsprechen?
Prof. Jorzig: Durch rechtliche Rahmenbedingungen ist dies nur schwerlich möglich, denn gerade dort liegt das Problem von ChatGPT. Das Tool ist nicht evidenzbasiert und patientenzentriert. Die zur Verfügung stehenden Daten werden gerade nicht nach wissenschaftlicher Relevanz unterschieden. Zudem kann das Programm nicht zwischen Fakt und Fiktion unterscheiden, es konfabuliert. OpenAI, der Betreiber von ChatGPT, spricht diesbezüglich von hallucinations. Zwar hat OpenAI kürzlich eine Strategie vorgelegt, um gegen diese hallucinations von ChatGPT vorzugehen. Noch sollte der Fokus hingegen darauf gerichtet werden, dass es sich bei ChatGPT um einen (unwissenschaftlichen) Textgenerator handelt.
Wie weit kann KI - Algorithmen, im klinischen Kontext angewendet - die ärztliche Rolle und die damit verbundenen Aufgaben verändern? Wie sollte sich die Ärzteschaft im Sinne rechtlicher Rahmenbedingungen darauf vorbereiten?
Prof. Jorzig: Im Zusammenhang mit Künstlicher Intelligenz wird oftmals die Frage aufgeworfen, ob KI uns nichtirgendwann (oder sogar in naher Zukunft?) alle ersetzen wird. Für den Beruf des Arztes gilt es, die unterschiedlichen KI-Algorithmen als Werkzeug und nicht als Substitution anzusehen. Die Gründe, warum ChatGPT den Arzt nicht ersetzt, habe ich bereits angerissen. Als Textgenerator kann ChatGPT aber bei administrativen Aufgaben hilfreich sein, z. B. bei der Erstellung von Arztbriefen. Generell können KI-Algorithmen Routineaufgaben übernehmen und zur Effizienz von Arbeitsabläufen beitragen. Ärzte hätten somit wieder mehr Zeit für ihre originäre Aufgabe, der medizinischen Behandlung von Patienten. Diesbezüglich bleibt es dabei, dass auch bei Nutzung von KI-Algorithmen die Letztverantwortung beim Arzt verbleibt und auch dort verbleiben muss!
Prof. Dr. iur. Alexandra Jorzig, Rechtsanwältin, Fachanwältin
für Medizinrecht, Professorin für Gesundheitsrecht/Digital Health,
IB Hochschule für Gesundheit und Soziales Berlin,
JORZIG Rechtsanwälte, Düsseldorf
Welche Potenziale liegen in der Kombination aus KI-basierten Diensten und menschlicher Korrektur? Welche Perspektiven für Arzt und Patienten sollten rechtliche Rahmenbedingungen eröffnen? Wo stehen wir?
Prof. Jorzig: Man sollte sich zunächst vor Augen führen, dass KI-Algorithmen eine enorm hohe Rechenleistung besitzen und das 24/7. Diese Algorithmen können bei vorhandener digitaler Infrastruktur Millionen von Daten miteinander verknüpfen und analysieren. Gerade das Zusammenspiel KI – Mensch kann zu einer erheblichen Qualitätssteigerung in der Gesundheits- und Pflegeversorgung führen, denn allein die KI-basierte Datenanalyse kann nicht ausreichen. Eine sich daran anschließende Behandlung greift auch immer in eine individuelle soziale Lebenssituation ein, die der behandelnde Arzt im Blick haben muss. Um die angesprochene digitale Infrastruktur auszubauen und Daten interoperabel miteinander verknüpfen zu können hat das Bundesgesundheitsministerium in seiner Digitalisierungsstrategie die Einführung eines Digital- und eines Gesundheitsdatennutzungsgesetzes (GDNG) angekündigt. Ein wichtiger Schritt, um der in Deutschland noch herrschenden fragmentarischen Datenlandschaft entgegenzuwirken.
Quelle: Krankenhaus-IT Journal, Ausgabe 03/2023