Welche Risiken Unternehmen und Praxen bei der Einführung von KI-Tools drohen

Daten

Veröffentlicht 23.01.2025 11:40, Dagmar Finlayson

Effizienzsteigerung, Automatisierung von Prozessen und tiefere Einblicke in Daten - die Einführung von Künstlicher Intelligenz (KI) in Unternehmen und Praxen verspricht eine Vielzahl an Vorteilen. Doch mit dem Einsatz der Technologie gehen auch erhebliche datenschutzrechtliche Risiken einher, die es zu beachten gilt.

Mit der Einbindung von Künstlicher Intelligenz kommen zahlreiche Herausforderungen auf Unternehmen zu. Dabei ist selten eine so sensibel wie die Verarbeitung personenbezogener Daten – besonders in Zeiten wachsender Datenschutzanforderungen. Doch die datenschutzrechtlichen Hürden können gemeistert werden, wenn auf einige Punkte geachtet wird. Dann steht Unternehmen nichts mehr im Wege, um KI effizient und verantwortungsvoll einzusetzen.

Verarbeitung personenbezogener Daten: Eine Gratwanderung

KI-Tools, insbesondere in Bereichen wie Kundenservice, Personalmanagement oder medizinischer Diagnostik, basieren auf der Verarbeitung großer Mengen an Daten. Diese Daten beinhalten häufig auch personenbezogene Informationen, die nach der Datenschutz-Grundverordnung (DSGVO) einen besonders hohen Schutz genießen. Werden beispielsweise Patienteninformationen, Daten von Beschäftigen oder Kundendaten für das Training von Algorithmen verwendet, können unzulässige oder unzureichend gesicherte Datenverarbeitungen rasch zu Datenschutzverletzungen führen.

Ein zentrales Risiko besteht darin, dass KI-Algorithmen auf eine Vielzahl von Datensätzen zugreifen, die in ihrer Gesamtheit zur Rekonstruktion von personenbezogenen Informationen führen können. Selbst Daten, die zunächst anonym erscheinen, könnten durch KI-gestützte Mustererkennung wieder auf Einzelpersonen zurückgeführt werden. Diese „Re-Identifikation“ stellt eine erhebliche Gefahr dar, die strikte datenschutzrechtliche Anforderungen an die Datensicherheit und die Anonymisierung von Daten zur Folge hat. Man kann ihr aber entgegenwirken, wenn die die KI-Anwendung auf einem eigenen Server ohne Anbindung nach außen betreibt.

Transparenz und Kontrolle: Die Black-Box des maschinellen Lernens

Ein weiteres datenschutzrechtliches Risiko ist die mangelnde Transparenz in Bezug auf die Funktionsweise von KI-Systemen. Viele KI-Algorithmen, insbesondere jene, die auf maschinellem Lernen basieren, operieren als „Black Boxes“ – sie treffen Entscheidungen auf der Grundlage von Mustern, die nicht immer nachvollziehbar sind. Diese Intransparenz kann zu Problemen führen, wenn es darum geht, die Einhaltung der DSGVO zu gewährleisten, insbesondere das Recht auf Auskunft und das Recht auf Erklärung bei automatisierten Entscheidungen.

Wenn eine KI beispielsweise eine Entscheidung über die Kreditwürdigkeit eines Kunden oder die Behandlungsoption für einen Patienten trifft, ohne dass der Entscheidungsprozess für den Betroffenen verständlich ist, kann dies seine Rechte gemäß Artikel 22 der DSGVO verletzen. Die Datenschutz-Grundverordnung schreibt vor, dass bei automatisierten Entscheidungsprozessen die betroffene Person verständliche Informationen über die Logik und die Tragweite der Entscheidung erhalten muss. Hier müssen Unternehmen und Praxen sicherstellen, dass sie transparente Prozesse implementieren, die den Anforderungen der DSGVO entsprechen.

Datenweitergabe und Drittparteien

Ein häufig unterschätztes Risiko im Zusammenhang mit der Einführung von KI-Tools ist die potenzielle Datenweitergabe an Drittparteien. Viele KI-Anbieter arbeiten mit Cloud-Diensten und nutzen externe Server zur Verarbeitung und Speicherung von Daten. In solchen Fällen kann die Weitergabe von personenbezogenen Daten an Dienstleister oder Subunternehmer erfolgen – möglicherweise auch an Anbieter in Ländern, die nicht denselben hohen Datenschutzstandards wie die EU folgen. Diese Drittstaatenübermittlungen erfordern besondere Vorsichtsmaßnahmen: so zum Beispiel den Abschluss von Standardvertragsklauseln oder die Anwendung anderer geeigneter Sicherheitsvorkehrungen, wie etwa die individuelle Prüfung der Datenschutzkonformität des Unternehmens und der angewandten Technik.

Unternehmen und Praxen müssen sich darüber im Klaren sein, wie und wo die Daten verarbeitet und gespeichert werden. Die DSGVO stellt klare Anforderungen an die Datenweitergabe und -speicherung in Drittländern, was ohne eine sorgfältige Überprüfung des Anbieters zu rechtlichen Problemen führen kann.

Verantwortlichkeit und Haftung

Bei der Einführung von KI-Tools müssen Unternehmen auch die Frage der Verantwortlichkeit klären: Wer haftet im Falle einer Datenschutzverletzung, die durch den Einsatz einer KI-Lösung verursacht wird? Laut DSGVO ist der Verantwortliche für die Datenverarbeitung derjenige, der die Zwecke und Mittel der Verarbeitung festlegt. Wird jedoch ein externes KI-Tool verwendet, kann es schwierig sein, genau zu bestimmen, wer im Falle eines Fehlers die Verantwortung trägt.

Die Unterscheidung zwischen Auftragsverarbeitung und eigenständiger Verantwortlichkeit wird zunehmend komplexer, wenn es um KI geht. Unternehmen müssen also sicherstellen, dass sie klare vertragliche Vereinbarungen mit den Anbietern von KI-Tools treffen und die datenschutzrechtlichen Pflichten eindeutig regeln.

Risikomanagement und Datenschutzfolgenabschätzung

Die Einführung von KI in Unternehmen erfordert eine sorgfältige Datenschutzfolgenabschätzung (DSFA), insbesondere wenn die Datenverarbeitung mit hohem Risiko für die Rechte und Freiheiten der betroffenen Personen verbunden ist. Dies ist besonders relevant, wenn KI-Tools für die automatisierte Entscheidungsfindung oder Profiling verwendet werden, wie es etwa in der Personal- oder Marketingbranche der Fall ist. Unternehmen müssen die möglichen Risiken für den Datenschutz bewerten und entsprechende Schutzmaßnahmen ergreifen, um diese Risiken zu minimieren.

Die DSFA sollte alle potenziellen datenschutzrechtlichen Gefährdungen aufzeigen und Maßnahmen zur Risikominderung festlegen. Diese Abschätzung kann als Grundlage dienen, um die notwendigen Schutzvorkehrungen zu treffen und die rechtlichen Anforderungen der DSGVO zu erfüllen.

Fazit

Um die Risiken bei der Einführung von KI-Tools zu minimieren, ist es entscheidend, dass Unternehmen und Praxen bereits im Vorfeld der Implementierung eine gründliche Analyse der datenschutzrechtlichen Anforderungen durchführen, transparente Prozesse schaffen und ihre Verantwortung in Bezug auf die Datenverarbeitung klar definieren. Nur so kann sichergestellt werden, dass der Einsatz von KI im Einklang mit den strengen Vorgaben der DSGVO steht und die Rechte der betroffenen Personen gewahrt bleiben.

 

Autor:                                    

Rechtsanwalt Michael Ochsenfeld, Geschäftsführer Ochenfeld und Coll., Experte für Datenschutz

Weitere Informationen:        https://www.ochsenfeld.com/


Lesen Sie mehr zum Thema "IT-Sicherheit & Kritis"

NIS2 in der Warteschleife
IT-Sicherheit & Kritis
NIS2
Wie sicher ist die IT ambulanter Pflegedienste?
IT-Sicherheit & Kritis
Studie

Lesen Sie hier die neuesten Beiträge

Diese Webseite verwendet Cookies.   Mehr Info.      oder