KI-Ethik, Deep-Fakes, Datenschutz: Wie vertrauenswürdig sind KI-Systeme? Antworten gibt uns Rebekka Görge vom Fraunhofer Institut in einem Impulsvortrag. Sie beschreibt sowohl Gefahren von KI, als auch Methoden, um die Vertrauenswürdigkeit sicherzustellen – ein TÜV für Künstliche Intelligenz also.

Rebekka Görge forscht am Fraunhofer Institut für mehr Vertrauenswürdigkeit von KI-Systemen. Bild: Fraunhofer IAIS
Rebekka Görge ist wissenschaftliche Mitarbeiterin am Fraunhofer Institut. Im Team „KI-Absicherung und -Zertifizierung“ forscht sie an Methoden und Werkzeugen, um die Vertrauenswürdigkeit von KI-Systemen zu garantieren. Anfang Juni sensibilisierte sie in unserem Projekt „KI-Strategien für Schulen in evangelischer Trägerschaft“ über typische Herausforderungen von KI-Systemen und mangelnde Akzeptanz beim Nutzer. Die Lösung: Vertrauenswürdige KI-Systeme.
Die 7 größten Herausforderungen bei der Nutzung von KI
- Ethik und Recht mit Schlüsselfragen zu allen ethischen Fragen.
- Fairness: Diskriminierende Daten lassen sich nicht zu 100% beseitigen. Als Beispiel nennt Görge die Benachteiligung von Frauen durch ein Recruiting Tool von Amazon. Dieses stellte das Unternehmen 2018 nach jahrelanger Arbeit daran ein.
- Autonomie und Kontrolle meint einen angemessenen Grad an Verantwortlichkeit zwischen Mensch und Maschine. Worst Case: Gibt es einen „Stopp-Knopf“?
- Transparenz: Für viele Menschen sind die Ergebnisse neuronaler Netze schlichtweg unverständlich.
- Verlässlichkeit als größtes Risikogebiet von Künstlicher Intelligenz. Wie gut oder schlecht kommt zum Beispiel ein in Europa trainiertes KI-System für autonomes Autofahren mit amerikanischen Verkehrsschildern zurecht?
- Sicherheit bezieht sich sowohl auf die „Security“, also die IT-Sicherheit, als auch auf die „Safety“ der Allgemeinheit. Wie kann ich die Außenwelt vor meinem System schützen, um zum Beispiel Unfälle zu vermeiden?
- Datenschutz als sehr präsentes Thema in der Bevölkerung. Sensible Daten lassen sich nicht zu 100% aus KI-Systemen entfernen oder anonymisieren. Betroffene können oft bereits anhand weniger Merkmale identifiziert werden – ein Einfallstor für Datenspionage oder -missbrauch.
Die Lösung: eine vertrauenswürdige KI

Der EU-AI-Act stuft seit 2019 in Europa KI-Systeme in vier Risikobereiche ein. Bild: Fraunhofer IAIS
Viele Risiken, wenig Vertrauen beim Nutzer: Um diesem Dilemma zu begegnen und für mehr Vertrauen in der Bevölkerung zu sorgen, wurde ab 2019 der EU-AI-Act entwickelt und im Jahr 2024 verabschiedet. Eine Expertengruppe für KI aus Forschung, Zivilgesellschaft und Industrie (HLEG) formulierte auf Grundlage der EU-Charta und der Grundrechte Leitlinien für eine vertrauenswürdige KI. Mehr Sicherheit und Akzeptanz: Diese KI-Verordnung stuft KI-Systeme mit vier Risikolevel von minimalem bis inakzeptablem Risiko je nach Anwendung ein – bei Nichteinhaltung drohen den Unternehmen hohe Geldstrafen.
Es geht noch besser
Welches Framework nutzt das Fraunhofer Institut, um die bestehenden Risiken aus Künstlicher Intelligenz anzugehen? In einem ersten Schritt betrachten Rebekka Görge und ihr Team die Umsetzung der Vertrauenswürdigkeit von KI in drei statt in nur einer Dimension. Mehr Möglichkeiten zur Regulation: Zertifizierungen nach ISO-Standard können Anforderungen an die Verwaltung sowie das Risiko- und Compliance-Management stellen. Auf Prozessebene können IT-Entwickler vertrauenswürdige KI quasi „by design“ einbauen und auf Produktebene kommt schließlich der TÜV für KI-Systeme ins Spiel. Die Idee dahinter ist, mit etablierten Standards KI-Systeme zu prüfen und abzusichern.
Erfolgsmodell: Der Fraunhofer IAIS KI-Prüfkatalog
Genau an dieser Absicherung arbeitet das Fraunhofer Institut. Rebekka Görge und ihr Team haben einen KI-Prüfkatalog entwickelt, der in allen sieben Risikobereichen (siehe oben) testet. Der Prüfkatalog ist beim Fraunhofer Institut frei erhältlich. Das Besondere: Er betrachtet den gesamten Lebenszyklus einer KI – also vom Design über die Entwicklung bis hin zum Betrieb, was eine maximale Vertrauenswürdigkeit für den Endnutzer bedeutet. Schließlich sprechen auch seine Einsatzbereiche bei KI-Entwickler*innen bei der Gestaltung sowie KI-Prüfer*innen bei der Qualitätssicherung für den Erfolg. Wir sehen, dass Künstliche Intelligenz eine Reihe von Risiken und sogar Gefahren birgt. Gleichzeitig ist die Forschung und der Wunsch nach Kontrolle und Absicherung aber so weit, das dem/der Endverbraucher*in gute Standards zur Prüfung an die Seite gestellt werden können.
Der Prüfkatalog ist frei erhältlich unter: https://www.iais.fraunhofer.de/de/forschung/kuenstliche-intelligenz/ki-pruefkatalog.html