Safer Internet Day: Künstliche Intelligenz sicher einsetzen

KI

Veröffentlicht 16.02.2023 14:00, Dagmar Finlayson

Künstliche Intelligenz (KI) hat in den letzten Jahren große Fortschritte erzielt. Bereits heute sind KI-Systeme im Internet im Einsatz – auch in sensiblen Bereichen wie der Medizin oder im autonom fahrenden Auto ist sie an Entscheidungen beteiligt. KI kann uns im Alltag unterstützen, wird sie böswillig manipuliert, jedoch großen Schaden richten. Mit welchen Herausforderungen für die IT-Sicherheit der Einsatz von KI verbunden ist und wie sich KI-Systeme und die zugrunde liegenden Daten vor Angriffen schützen lassen, erläutert Prof. Dr. Ahmad-Reza Sadeghi. Er ist Leiter des System Security Lab an der Technischen Universität Darmstadt und Mitglied der Plattform Lernende Systeme.

Herr Sadeghi, welche neuen Herausforderungen entstehen durch KI-Systeme für die IT-Sicherheit?

Algorithmen oder KI-basierte Systeme sind fragil aus der Sicht der Sicherheit, da sie sehr datenabhängig sind. Man kann sie leicht und insbesondere verdeckt manipulieren. Je fortgeschrittener die Systeme werden, desto fortschrittlicher sind auch die Angriffe. Das größte Risiko ist unser Anwendungsverhalten: Wenn KI-Systeme eines Tages wirklich weite Teile unseres Alltags automatisieren und Entscheidungen für uns treffen, ist auch unsere Abhängigkeit von diesen Systemen viel größer. Also können auch potenzielle Angreifer viel größeren Schaden anrichten. Eine weitere Herausforderung ist, dass gängige IT-Sicherheitssysteme nicht ohne Weiteres auf KI-Systeme übertragen werden können. Zudem möchte man die Performance der Modelle nicht durch Sicherheitsmaßnahmen einschränken.

Wie können wir KI-Systeme und ihre Daten vor Angriffen schützen?

Man muss neue Wege gehen, um KI-Algorithmen zu sichern. Ich habe mich in meiner Forschung auch stark mit angewandter Kryptografie beschäftigt, also dem Rechnen mit verschlüsselten Daten. Die rein kryptografischen Lösungen sind noch nicht skalierbar, gerade bei riesigen KI-Modellen mit teils Milliarden Parametern. Also werden derzeit auch algorithmische Verbesserungen sowie Hardware-basierte Lösungen für KI-Sicherheit erforscht. Ein weiteres interessantes Feld ist der Einsatz von KI für sicherheitskritische Systeme, also Algorithmen, die vor Angriffen schützen.

In Bezug auf den Datenschutz stellt verteiltes maschinelles Lernen eine wichtige Möglichkeit dar. Dabei greift jedes Endgerät auf das jeweilige aktuelle Modell zu und trainiert es lokal mit einem eigenen Datensatz. Mögliche personenbezogene Daten müssen so nicht über einen zentralen Server geschickt werden. Das erhöht unter anderem die Privatsphäre, etwa im medizinischen Kontext. Krankenhäuser teilen keine medizinischen Daten untereinander, können aber über verteiltes maschinelles Lernen mit ihren Daten dennoch die gleichen Systeme trainieren und so zusammenarbeiten. Allerdings existieren auch mehr Angriffspunkte, wenn Daten und KI-Modelle über mehr Systeme verteilt werden. Einzelne Rechner könnten unter Kontrolle gebracht werden, per Software oder weil etwa Personen in einer Institution mit den Angreifern kollaborieren. Wenn das geschieht, kann das Gesamtmodell manipuliert werden.

Was muss passieren, damit Sicherheit im KI-Zeitalter gewährleistet werden kann?

Wir müssen den Begriff der Sicherheit im KI-Kontext weiter fassen als bisher. KI-Entscheidungen haben eine hohe Reputation und werden oft als neutral und unvoreingenommen angesehen. Sie spiegeln jedoch oft nur die Daten wider, die für das Training der KI-Systeme verwendet wurden – und damit auch menschliches Verhalten, Gewohnheiten und Vorurteile. Dies zeigt, dass gesellschaftlichen Faktoren bei der Entwicklung von KI-Systemen mehr Aufmerksamkeit gewidmet werden muss. Auch die Auswirkungen von KI-Systemen auf unsere Gesellschaft müssen eingehender untersucht werden. Während KI-Anwendungen für den Finanzmarkt, in der Medizin oder im Rechtsbereich offensichtlich als kritische Anwendungen zu erkennen sind, welche umfassend analysiert und überprüft werden müssen, können Folgen anderer KI-Anwendungen wie die Empfehlungsalgorithmen von Facebook, Twitter und Google leicht übersehen werden. Das sind die Echo-Kammern, die unsere Gesellschaften verändern. Ich sorge mich nicht vor Terminatoren, sondern vor den schleichenden Auswirkungen sozialer Medien auf demokratische Länder und ihre Wahlsysteme. KI hält für Wirtschaft und Gesellschaft viele Chancen bereit. Ihr volles Potenzial werden wir aber nur ausschöpfen können, wenn wir die Technologie sicher, privatheitschützend sowie ethisch verantwortungsvoll entwickeln und einsetzen.

Originalpublikation:
https://www.plattform-lernende-systeme ... ds/Publikationen/AG3_WP_K... - Das Whitepaper "KI-Systeme schützen, Missbrauch verhindern" der Plattform Lernende Systeme

Quelle: Lernende Systeme - Die Plattform für Künstliche Intelligenz


Lesen Sie mehr zum Thema "Künstliche Intelligenz"

KI in die medizinische Anwendung bringen
Künstliche Intelligenz
PTB
FedZero macht moderne KI-Modelle energiesparsam
Künstliche Intelligenz
FedZero
Neue Ethikkommission für KI & Co an der TUM
Künstliche Intelligenz
Ethik
Chatbots im Wissensmanagement der Kliniken
Künstliche Intelligenz
Security

Lesen Sie hier die neuesten Beiträge

Diese Webseite verwendet Cookies.   Mehr Info.      oder