Künstliche Intelligenz: Trau, schau, wem!
Wer Angebote von Dienstleistern nutzt, um KI-Modelle kostengünstig zu nutzen, sollte unbedingt die Notwendigkeiten im Blick behalten, die sich aus einer Auftragsverarbeitung und möglicherweise aufgrund eines Transfers von Daten in Drittländer ergeben. Auch wenn dank des EU-US-Datenschutzframeworks der Einsatz von Dienstleistern mit Sitz in den USA inzwischen rechtssicher möglich ist, kann es hier zu der einen oder anderen Herausforderung kommen. Beispielsweise wenn von Nutzern eingegebene Daten von dem Dienstleister für dessen eigene Zwecke eingesetzt werden – etwa zur Optimierung der eigenen KI-Anwendung. Vertrauen allein reicht daher bei der Wahl der Anwendung nicht aus. Eine angemessene Kontrolle ist vonnöten. Auch wenn es darum geht, welcher Dienstleister genutzt wird.
Wichtig: Schutzziele kennen und berücksichtigen
Die Freiheiten und Rechte von natürlichen Personen sind immer dann gefährdet, wenn Schutzziele im Bereich des KI-Einsatzes nicht beachtet werden. Zu diesen Schutzzielen zählen folgende Punkte:
- Stichwort Transparenz
Betroffene werden informiert, wenn ihre Daten verwendet werden, um KI-Modelle zu trainieren. Zudem sollte die Verarbeitung der Daten überprüft werden können, sodass darüber Rechenschaft abgelegt werden kann. - Stichwort Verlässlichkeit
Nutzer der KI sollen nicht willentlich manipuliert werden. Außerdem sollten sie vor Informationen geschützt werden, die nicht auf Fakten basieren, also vor sogenannten Halluzinationen. - Stichwort Fairness
Ungleichbehandlung und Diskriminierung durch künstliche Intelligenz sollten verhindert werden – auch wenn diese nicht beabsichtigt sind. Das macht den Datenschutz im Kontext einer vertrauenswürdigen künstlichen Intelligenz so wichtig.
Wenn die KI Fehler macht
Künstliche Intelligenz kann sehr komplizierte Aufgaben lösen. Sie nutzt sogenannte neuronale Netze, die in ihrer Struktur dem menschlichen Gehirn nachempfunden sind. Allerdings kann sie auch Fehler machen – wie der Mensch. Dabei bilden Fakten und Fehler auf den ersten Blick schlüssige Informationen, die Halluzinationen genannt werden. Das Problem ist im Falle der KI allerdings, dass die großen Sprachmodelle ihre Fehler so gut verpacken können, dass man sie bei unaufmerksamem Lesen schlichtweg übersehen kann. Das entspricht zwar der grundsätzlichen Funktionsweise neuronaler Netze, ist aber ein Risiko, das unter den Aspekten des Datenschutzes unbedingt bedacht werden muss. Und: Die Kontrolle durch den Menschen ist noch immer unerlässlich. Dazu lesen Sie mehr in Folge 3 unserer Serie " KI – Herausforderung für den Datenschutz"!
Sie möchten Ihr Unternehmen vor den Risiken der KI schützen?
Gern unterhalten wir uns mit Ihnen über die Möglichkeiten und Risiken der künstlichen Intelligenz und begleiten Ihren Weg in die Welt der neuronalen Netze. Senden Sie uns einfach Ihre Nachricht oder rufen Sie uns unter 09122 6937302 an. Wir freuen uns auf das Gespräch mit Ihnen!
Ihr Team von Datenschutz Prinz
Lesen Sie auch hier weiter:
- Folge 1: Chancen und Risiken der künstlichen Intelligenz
- Folge 3: Künstliche Intelligenz intelligent nutzen