Risikomanagement-Framework für effektive KI

KI

Veröffentlicht 15.12.2023 08:10, Kim Wehrs

KI-Systeme können komplexe Aufgaben übernehmen, die für Menschen zu schwierig oder zeitaufwendig sind. Sie können auch neue Erkenntnisse generieren, die helfen, Probleme besser zu verstehen und zu lösen. Für Künstliche Intelligenz (KI) ist es daher unerlässlich, ein eigenständiges Risk Management zu etablieren. Die Komplexität und Autonomie von KI-Systemen erfordern eine spezifische Herangehensweise an Risikomanagement, um potenzielle Gefahren und unerwünschte Folgen zu minimieren. Das Framework sollte auch umfassen: KI in der IT zielt nicht auf Stellenabbau, sondern auf Effizienzsteigerung. 

Für AI-Systeme, die vertrauenswürdig sein sollen, müssen auf eine Vielzahl von Kriterien reagieren, die für interessierte Parteien von Wert sind. Ansätze, die die Vertrauenswürdigkeit von AI verbessern, können negative AI-Risiken reduzieren. Merkmale vertrauenswürdiger AI-Systeme sind: gültig und zuverlässig, sicher, widerstandsfähig, verantwortlich und transparent, erklärbar und interpretierbar, datenschutzorientiert und fair. Um vertrauenswürdige AI zu schaffen, ist jedes dieser Merkmale anhand des Kontexts abzuwägen, in dem das AI-System verwendet wird. Während alle Merkmale sozio-technische Systemattribute sind, beziehen sich Verantwortlichkeit und Transparenz auch auf die Prozesse und Aktivitäten innerhalb eines AI-Systems und seiner externen Umgebung. Das Vernachlässigen dieser Merkmale kann die Wahrscheinlichkeit und das Ausmaß negativer Konsequenzen erhöhen.

Um Risiken zu verkleinern und die Vorteile von KI zu maximieren, ist ein effektives KI-Risikomanagement erforderlich. Ein KI-Risikomanagement-Framework sollte die folgenden Aspekte berücksichtigen:

·      Identifizierung und Bewertung von Risiken: Zunächst müssen die potenziellen Risiken von KI-Systemen identifiziert und bewertet werden. Dazu gehören Risiken wie Diskriminierung, Fairness, Sicherheit, Datenschutz und Ethik.

·      Minimierung von Risiken: Sobald die Risiken identifiziert und bewertet werden, müssen Maßnahmen zur Minimierung dieser Risiken ergriffen werden. Dazu können technische Maßnahmen wie die Verwendung von Fairness-Algorithmen oder die Verwendung von Datensätzen mit hoher Qualität gehören. Auch organisatorische Maßnahmen wie die Schulung von KI-Entwicklern und -Nutzern können dazu beitragen, Risiken zu minimieren.

·      Überwachung und Kontrolle:  KI-Systeme sind auch nach der Implementierung zu überwachen und zu kontrollieren. So können mögliche Risiken frühzeitig erkannt und behoben werden.

Kontrolle über die KI-System-Ergebnisse

Die Kontrolle über die von KI-Systemen erzeugten Ergebnisse stellt eine zentrale Herausforderung dar. Hierbei sind Transparenz und Erklärbarkeit von Algorithmen entscheidend, um Vertrauen in die Technologie zu schaffen. Kernkonzepte für verantwortungsbewusste KI beinhalten Ethik, Fairness, Privatsphäre und Rechenschaftspflicht. Ein integrierter Ansatz, der diese Prinzipien berücksichtigt, ist entscheidend, um die Auswirkungen von KI auf Mensch und Gesellschaft positiv zu gestalten. Um diese Risiken zu minimieren und die Vorteile von KI zu maximieren, ist ein effektives KI-Risikomanagement erforderlich. Ein KI-Risikomanagement-Framework sollte die Aspekte berücksichtigen wie:

·      Identifizierung und Bewertung von Risiken: Zunächst müssen die potenziellen Risiken von KI-Systemen identifiziert und bewertet werden. Dazu gehören Risiken wie Diskriminierung, Fairness, Sicherheit, Datenschutz und Ethik.

·      Minimierung von Risiken: Sobald die Risiken identifiziert und bewertet werden, müssen Maßnahmen zur Minimierung dieser Risiken ergriffen werden. Dazu können technische Maßnahmen wie die Verwendung von Fairness-Algorithmen oder die Verwendung von Datensätzen mit hoher Qualität gehören. Auch organisatorische Maßnahmen wie die Schulung von KI-Entwicklern und -Nutzern können dazu beitragen, Risiken zu minimieren.

·      Überwachung und Kontrolle: Es ist wichtig, die KI-Systeme auch nach der Implementierung zu überwachen und zu kontrollieren. So können mögliche Risiken frühzeitig erkannt und behoben werden.

Die Kontrolle der von KI-Systemen erzeugten Ergebnisse ist eine wichtige Aufgabe des KI-Risikomanagements. Dazu können Maßnahmen ergriffen werden:

·      Transparenz: KI-Systeme sollten so transparent wie möglich sein. Dies bedeutet, dass die Daten, auf denen die Systeme trainiert werden, die Algorithmen, die die Systeme verwenden, und die Ergebnisse der Systeme für Menschen nachvollziehbar sein sollten.

·      Nachvollziehbarkeit: KI-Systeme sollten so nachvollziehbar sein, dass die Ergebnisse der Systeme nachvollzogen werden können. Dies bedeutet, dass die Prozesse, die zu Ergebnissen führen, für Menschen nachvollziehbar sein sollten.

·      Integrität: KI-Systeme sollten so entwickelt und eingesetzt werden, dass die Ergebnisse der Systeme korrekt und zuverlässig sind. 

KI-Risikomanagement im Multi-Managementsystem

Das KI-Risikomanagement sollte als eine Dimension in ein Multi-Managementsystem eingebettet werden. Das bedeutet, dass das KI-Risikomanagement mit anderen Managementsystemen wie dem Risikomanagement, dem Compliance-Management und dem Qualitätsmanagement zusammenarbeiten sollte. So kann sichergestellt werden, dass die Risiken von KI-Systemen umfassend betrachtet und bewältigt werden.

Die Einbettung des Risikomanagements als eine Dimension in ein Multi-Managementsystem ist ein weiterer Schlüsselaspekt. Hierbei müssen bestehende Standards und Normen in das KI-Risikomanagement integriert werden. ISO 31000 und ISO 27001 bieten beispielsweise Grundlagen für ein umfassendes Risikomanagement. Die Anpassung dieser Standards an die spezifischen Anforderungen von KI gewährleistet eine effektive Risikobewertung und -bewältigung.

KI in der IT zielt auf Effizienzsteigerung

KI-Risikomanagement ist ein wichtiger Aspekt für die sichere und verantwortungsvolle Entwicklung und Nutzung von KI-Systemen. Ein effektives KI-Risikomanagement-Framework sollte die folgenden Aspekte berücksichtigen: Identifizierung und Bewertung von Risiken, Minimierung von Risiken sowie Überwachung und Kontrolle. Zusätzlich zu diesen technischen Maßnahmen sind auch organisatorische Maßnahmen wie die Schulung von KI-Entwicklern und -Nutzern wichtig, um die Risiken von KI-Systemen zu minimieren.

Grenzen der KI-Technologie im Blick zu behalten ist wichtig, da sich soziale Fehlentwicklungen und (programm-)technische Fehler beim Einsatz der KI gerade in diesem Bereich unmittelbar auf die Gesundheit und die Unversehrtheit von Menschen auswirken können. Die Ergebnisse der KI sind nicht hundertprozentig überprüfbar, da sie keine vorhersagbaren Ergebnisse liefern, wie bei konventionellen Programmierungen. Dies erfordert beim Einsatz der KI eine besondere Aufmerksamkeit in einem ordnungspolitischen Rahmen. 

KI kann dazu beitragen, dass IT-Abteilungen mit den vorhandenen Ressourcen mehr erreichen und gleichzeitig Zeit und Kosten sparen. Wichtig ist dabei die Klarstellung: KI in der IT zielt nicht auf Stellenabbau, sondern auf Effizienzsteigerung. Langwierige, sich wiederholende Aufgaben können von intelligenten KI-Mechanismen übernommen werden, so dass sich die Mitarbeiter auf produktivere Aufgaben konzentrieren können, die Kreativität, strategisches Denken und vorausschauendes Urteilen erfordern – Fähigkeiten, die technische Hilfsmittel nicht bieten können. Es gibt heute keine ITSM-Lösungen, die komplexe Support-Anfragen vollständig autonom bearbeiten und lösen können. Sie agieren unterstützend und analysierend, aber noch nicht selbst ausführend. Ob und wie sich dies in Zukunft ändern wird, bleibt abzuwarten.

Literatur/Auswahl:

European Commission. (2020). Ethics guidelines for trustworthy AI. https://ec.europa.eu/digital-single-ma ... guidelines-trustworthy-ai 

Niedersächsisches Ministerium für Wirtschaft, Arbeit, Verkehr und Digitalisierung, Menschenzentrierte KI für Niedersachsen, April 2022, file:///C:/Users/wdlor/Downloads/KI_S ... edersachsen_final__3_.pdf  

Autor: Wolf-Dietrich Lorenz
Bild: Adobe Stock / photon_photo

 

 


Lesen Sie mehr zum Thema "Künstliche Intelligenz"

Neue Ethikkommission für KI & Co an der TUM
Künstliche Intelligenz
Ethik
Neue Gehtest-App zur Bewertung der Fitness
Künstliche Intelligenz
Würzburg

Lesen Sie hier die neuesten Beiträge

Diese Webseite verwendet Cookies.   Mehr Info.      oder