Drittmittelprojekt
AI Forensics - Accountability through Interpretability in Visual AI Systems (AI Forensics)
Details zum Projekt
Projektlaufzeit: 01/2022–11/2025
Zusammenfassung
Künstliche Intelligenz (KI) wird in immer mehr Bereichen eingesetzt. Welche Daten wie verwendet werden, verstehen jedoch nur noch wenige. Ein internationales Forschungsprojekt unter Beteiligung der Universität Kassel möchte Transparenz schaffen.
Das Projekt „AI Forensics: Accountability through Interpretability in Visual AI Systems" konzentriert sich dabei auf den Einsatz von Bild-Systemen. „Gerade der Bereich der Gesichtserkennung wächst immer weiter. Beispielsweise wird in den USA eine KI mit Gesichtserkennung benutzt, um potenzielle Gefährder zu erkennen. Was der allgemeinen Sicherheit dient, ist gleichzeitig auch ein Eingriff in Persönlichkeitsrechte. Wir möchten Entscheidungen der KI-Entscheidungen nachvollziehbar machen“, erläutert die Projektbeteiligte Prof. Dr. Claude Draude vom Wissenschaftlichen Zentrum für Informationstechnik-Gestaltung der Universität Kassel.
Ziel ist eine frei für die Öffentlichkeit zugängliche Internetplattform, die große Datensätze erschließbar macht. Modelle des maschinellen Lernens sollen so analysierbar und verstehbar gemacht werden. „Nutzende können zum Beispiel ein Bild hochladen und eine automatische Untersuchung aktivieren. Das System überprüft, ob das Bild bereits in einem Datensatz ist (Datensatz-Forensik), wie es in einem Modell verwendet wurde (Modell-Forensik), und wo und zu welchem Zweck (Anwendungsforensik). Der Umfang dieser Fähigkeiten variiert von Modell zu Modell und veranschaulicht unterschiedliche Grade von Transparenz und Interpretierbarkeit auf dem Spektrum der für die Forschung verfügbaren Modelle“, erklärt Draude.