Explainable Feature Importance: Interpretierbare maschinelles Lernen durch spieltheoretische Analyse von Einflussgrößen und Interaktionseffekten

Überblick

Methoden des maschinellen Lernens (ML) unterstützen die Suche nach Mustern in Daten und Zusammenhängen zwischen Variablen, z.B. in komplexen bio-medizinischen Systemen. Auf diese Weise können sie neue Einsichten vermitteln und Entscheidungen in Handlungs­feldern wie der medizinischen Diagnostik verbessern. Neben der Güte der aus den Daten gelernten Modelle bildet das Vertrauen menschlicher Experten in diese Modelle eine wichtige Voraussetzung für die Nützlichkeit und Anwendbarkeit von ML. Dies setzt ein gewisses Maß an Transparenz der Modelle voraus, vor al­lem im Hinblick auf die Bedeutung von und die Interaktion zwischen einzelnen Einflussgrößen. In diesem Projektvorhaben schlagen wir einen spieltheoretischen Ansatz zur Modellierung und Dekomposition von Abhängigkeiten höherer Ordnung vor, d.h. Abhängigkeiten zwischen Teilmengen von Variablen. Auf dieser Grundlage lassen sich theoretisch fundierte Maße für die Wichtigkeit einzelner Einflussgrößen und die Stärke der Interaktion zwischen diesen Größen bestimmen. Im Rahmen des Projektes entwickeln wir nicht nur die theoretischen und konzeptionellen Grundlagen dieses Ansatzes, sondern arbeiten auch an einer effizienten algorithmischen Umsetzung. Zur Verbesserung von Verständnis und Akzeptanz entwickeln wir zudem einen interaktiven Ansatz zur Explora­tion von Abhängigkeiten in hochdimensionalen Datenräumen.

Key Facts

Laufzeit:
01/2021 - 12/2024
Gefördert durch:
MKW NRW

Detailinformationen

Projektleitung

contact-box image

Prof. Dr. Reinhold Häb-Umbach

Nachrichtentechnik (NT) / Heinz Nixdorf Institut

Zur Person