Forschende der Universität Bielefeld und der LMU München haben mit shapiq ein neues Open-Source-Tool entwickelt. Mit der Software werden bestehende Methoden der erklärbaren KI erweitert, indem sie nicht nur den Einfluss einzelner Merkmale, sondern auch deren gemeinsame Wechselwirkungen analysiert. Somit macht sie komplexe Modelle wie neuronale Netze oder Entscheidungsbäume transparent.
Komplexe Entscheidungen verstehen
Moderne Künstliche Intelligenz (KI) stützt sich auf Modelle, die oft als „Black-Boxen“ bezeichnet werden – ihre Entscheidungen sind für Nutzende schwer nachvollziehbar. In sensiblen Bereichen ist es jedoch entscheidend zu verstehen, wie ein Modell zu seinen Ergebnissen kommt. Shapley-Werte, eine Methode aus der Spieltheorie, können hier den Beitrag einzelner Merkmale messen.
Jedoch werden Entscheidungen nicht nur durch einzelne Merkmale, sondern durch deren Wechselwirkungen beeinflusst. So können Merkmale wie „Breitengrad“ und „Längengrad“ nur gemeinsam eine genaue Ortsbestimmung ermöglichen. Das Team des Teilprojekts C03 des Sonderforschungsbereichs TRR 318 hat diese Komplexität mit Hilfe von Shapley-Interaktionen erfasst – eine Erweiterung der klassischen Shapley-Werte.
„Shapley Interactions erlauben es uns, über die rein isolierte Betrachtung von Merkmalen hinauszugehen und komplexe Zusammenhänge besser zu verstehen“, erklärt Maximilian Muschalik (Bild oben links), Hauptautor des Projekts. Mit shapiq liefere man nicht nur einen Beitrag zur Grundlagenforschung, sondern schaffe auch eine praktische Lösung für Anwendende, so Fabian Fumagalli (Bild oben rechts), Autor und Experte auf diesem Gebiet. Er erklärt weiter: „Die Berechnung der Shapley Interactions ist ein aufwändiges Problem, für das spezielle Algorithmen erforderlich sind, die wir nun vorgestellt haben.“
Open-Source-Tool: shapiq
Das Python-Paket shapiq wurde im TRR-Teilprojekt C03 speziell dafür entwickelt, die Forschung und Anwendung von Shapley-Werten und -Interaktionen zu vereinheitlichen und zu vereinfachen. Zu den zentralen Funktionen gehören:
- Effiziente Berechnung: Trotz der hohen theoretischen Komplexität von Shapley Interactions bietet shapiq Algorithmen, die eine effiziente Berechnung ermöglichen – selbst bei großen Datensätzen und komplexen Modellen.
- Visualisierung: Die Ergebnisse können anschaulich dargestellt werden, sodass auch Nicht-Fachleute die Wechselwirkungen intuitiv verstehen können.
- Benchmarking: Das Tool umfasst eine umfassende Benchmark-Suite mit elf realen Anwendungsfällen, die es Forschenden ermöglicht, die Leistung neuer Algorithmen systematisch zu bewerten.
- Flexibilität: Von Entscheidungsbäumen (wie XGBoost) über neuronale Netzwerke bis hin zu modernen Sprachmodellen – shapiq ist für alle Modelltypen geeignet.
Das Werkzeug ist nicht nur ein Fortschritt für die Forschung, sondern soll auch Menschen aus der Praxis ein Instrument bieten, um Modelle verständlicher zu machen und deren Anwendung sicherer zu gestalten.
Open-Source-Entwicklung
Nutzende können die Forschung des Transregio-Teams direkt unterstützen, indem sie das GitHub-Repository mit einem Stern markieren oder das Team über Verbesserungsvorschläge direkt informieren. Da die Software Open Source entwickelt wird, können sich Anwendende auch direkt in die Implementierung einbringen.
Sonderforschungsbereich/Transregio 318
Das stark interdisziplinär ausgerichtete Forschungsprogramm mit dem Titel „Constructing Explainability“ („Erklärbarkeit konstruieren“) geht über die Frage nach Erklärbarkeit von KI als Grundlage algorithmischer Entscheidungsfindungen hinaus. Der Ansatz fördert die aktive Teilnahme der Menschen an soziotechnischen Systemen. Ziel ist es, die Mensch-Maschine-Interaktion zu verbessern, das Verständnis von Algorithmen in den Mittelpunkt zu stellen und dieses als Produkt eines multimodalen Erklärprozesses zu untersuchen. Die Deutsche Forschungsgemeinschaft (DFG) stellt dafür bis Dezember 2025 rund 14 Millionen Euro zur Verfügung. Mehr Infos auf der Website des Projekts.
Bilder: Stephan Höck, Mike-Dennis Müller