Koehn AI Firmenlogo

Erklärbare KI mittels Shapley-Werten

4. Januar 2023

Shapley-Werte zur Analyse der Feature-Relevanz

Bei jeder Aufgabe des Maschinellen Lernens geht es darum, Erkenntnisse aus Daten zu gewinnen. Das Modell erhält dazu Daten von angemessener Qualität als Eingabe. Es wird auf die aus den Eingabedaten abgeleiteten Features trainiert, um Vorhersagen in gewünschter Qualität zu erzeugen. Aber nicht alle Features sind für das Modell von derselben Relevanz. Einige sind sehr relevant, während andere nur Rauschen verursachen und die Rechenkomplexität erhöhen, ohne dass sie einen Nutzen bringen. Zudem ist es auch von geschäftlichem Wert, die wesentlichen Treiber für ein gegebenes Modell zu analysieren. Die Frage ist: Wie kann man dies technisch durchführen?

Die einzigen ML-Modelle, die diese Auswertungsmöglichkeiten an Bord haben, basieren auf Entscheidungsbäumen, und selbst in diesen Fällen bleibt offen, ob eine Erhöhung des Feature-Werts zu einer Erhöhung oder einer Verringerung der Zielvariablen führt. Im Gegensatz dazu erlaubt das Konzept der Shapley-Werte nicht nur, dieses Manko zu beheben, sondern auch, die Feature-Relevanz allgemeiner Typen von Machine-Learning-Modellen jenseits von Entscheidungsbäumen zu bewerten. Bei diesem Ansatz wird jedes Feature systematisch nacheinander ausintegriert und durch geeignetes Hintergrundrauschen ersetzt, um seine Auswirkungen auf den Zielwert zu untersuchen.

Die Analyse der Feature-Relevanz mit Hilfe von Shapley-Werten ist ein universelles Instrument, das wir in fast jedem Projekt in verschiedenen Branchen eingesetzt haben. Wir haben diese Methode im Einzelhandel eingesetzt, um die wichtigsten Faktoren für die Konversion zu ermitteln. Wir haben Shapley-Werte auch bei der Entwicklung eines Tools für Wissenschaftler eingesetzt, das Informationen darüber liefert, was an einem Experiment geändert werden sollte, um ein bestimmtes Ergebnis zu optimieren.

Zum Einrichten des Algorithmus kann das Python-Paket SHAP verwendet werden. Dieses Paket befindet sich jedoch noch im Versuchsstadium, und Sie sollten darauf vorbereitet sein, dass von einer Version zur nächsten neue Bugs auftauchen könnten. Natürlich können Sie die Routine auch von Hand implementieren. Welchen Weg Sie auch immer wählen, bedenken Sie, dass die Erkenntnisse aus Ihrer Feature-Analyse in ihrer Zuverlässigkeit durch die Qualität des ML-Modells, auf das Sie sie anwenden, begrenzt sind. Wenn die Vorhersagequalität des Modells schlecht ist, wird auch die Feature-Analyse nicht viel wert sein.

Interpretation der Ergebnisse

Die nachstehende Abbildung zeigt eine beispielhafte Auswertung. Shapley-Features

In dieser Abbildung sind die 25 wichtigsten Features des hier untersuchten Machine-Learning-Modells in absteigender Reihenfolge aufgeführt. Gleichzeitig zeigt die Abbildung, ob ein hoher oder niedriger Feature-Wert zu einer Erhöhung oder Verringerung des Zielwerts führt. Ist der Shapley-Wert positiv (gilt für alle Punkte rechts der vertikalen Linie), erhöht sich der Zielwert, während ein negativer Shapley-Wert den Zielwert senkt.

Feature 1 soll an dieser Stelle als Beispiel zur Veranschaulichung dienen, für den Fall eines Kundenabwanderungsmodells ("Churn"). Dieses Feature soll angeben, vor wie vielen Tagen ein Kunde zuletzt mit dem untersuchten Unternehmen interagiert hat. Ein niedriger Feature-Wert deutet auf eine kürzliche Interaktion des Kunden mit dem Unternehmen hin, ein hoher Wert auf eine längere Inaktivität. Da die roten Punkte für den Feature-Wert alle links von der vertikalen Linie liegen, senkt ein hoher Feature-Wert (längere Inaktivität) offensichtlich die Wahrscheinlichkeit, dass der Kunde "lebendig" ist (die Zielvariable). Umgekehrt erhöht ein niedriger Feature-Wert (kürzliche Interaktion) die Wahrscheinlichkeit, dass der Kunde noch aktiv ist. Es kann auch boolesche Variablen geben - zum Beispiel Kunden, die entweder Mitglied eines Treueprogramms sind oder nicht. Die Shapley-Analyse wird in diesem Fall die Erwartung bestätigen, dass Mitglieder von Kundenbindungsprogrammen eine geringere Abwanderungswahrscheinlichkeit haben.



Bleiben Sie up-to-date mit unserem kostenlosen Newsletter

0 Kommentare

Hinterlassen Sie einen Kommentar