Back to top
close

Interpretierbare KI ist ein reales Business-Problem, kein akademisches!

In vielen Bereichen unserer datengetriebenen Gesellschaft werden Entscheidungen bereits von KI-Systemen getroffen. Diese müssen nicht nur rechtlich nachvollziehbar sein – geregelt durch die DSGVO – sondern auch ethisch und wirtschaftlich, im Interesse aller Stakeholder. Ist die Absage eines Kreditantrags rational begründet oder diskriminierend? Welche Patientendaten erhöhen ein Krankheitsrisiko besonders? Soll eine Filiale aufgrund der Vorhersage eines KI-Modells geschlossen werden, oder lohnt es sich, das Sortiment umzustellen?

Derartige Beispiele motivieren den ersten Teil der Überschrift. Der zweite ist etwas provokant formuliert, denn die Werkzeuge zur Lösung des Problems muss zunächst die (Daten-)Wissenschaft liefern. Die Theorie hinter XAI (eXplainable AI) ist umfangreich und verstreut. Eine sehr gute Erklärung der Erklär-Methoden liefert Christoph Molnar in seinem Guide “Interpretable Machine Learning“.

Darin wird zunächst definiert, was eine gute Erklärung eines Entscheidungsprozesses ausmacht:

  • Sie sollte selektiv sein, also besonders wichtige Attribute (Features) hervorheben.
  • Sie sollte kontrastierend sein, „bekomme ich den Kredit doch, wenn ich Eingabe X ändere?“.
  • Sie sollte auf den Empfänger zugeschnitten, also sozial sein.

In dem Buch werden zunächst modell-spezifische Erklärungen vorgestellt, immer begleitet von durchgerechneten Beispielen für reale Datensätze. Diese haben den Nachteil, dass sie nicht mithalten, wenn das KI-Modell ausgetauscht wird.

Modell-agnostische Methoden dagegen sind universell einsetzbar. Sie erfordern lediglich den Zugriff auf die Vorhersage Y zur Eingabe X, sowie teilweise eine Kenntnis der Trainingsdaten, oder zumindest ihrer realen Verteilung. Diese Methoden können entweder global angewendet werden, z. B. bewertet “permutation feature importance” den Einfluss eines Attributs, indem seine Werte über den gesamten Datensatz zufällig gemischt werden. Werden die Ergebnisse dadurch wesentlich schlechter, dann ist das Attribut wichtig.
„Shapley Values“ liefert dagegen Erklärungen einzelner Instanzen, basierend auf einem soliden spieltheoretischen Ansatz: Wieviel trägt jeder Spieler (jedes Feature) zum Gewinn (zur Vorhersage des Modells) bei?
„Counterfactual explanations“ sind lokale Gegenbeispiele und eignen sich für eine Was-wäre-wenn-Analyse (What-If). Sie berechnen, welche minimalen Anpassungen der Eingabe das Ergebnis umkehren bzw. stark beeinflussen.

Doch wie kann man diese fortgeschrittenen Algorithmen, ohne vorheriges Studium in Data Science und Programmierung, in der Praxis einsetzen? Ein weiteres Problem liegt in der Diversität realer Datensätze, sie sind nicht immer uniform strukturiert, bestehen aus verschiedenen Datentypen, sind numerisch, kategorisch, enthalten auch freie Texteingaben oder Bilder.

Viele AI-Cloud-Plattformen haben das Problem erkannt und bieten Antworten, die auf eine möglichst breite User Schicht zugeschnitten sind. „DataRobot bietet beispielsweise einen End-2-End-Service-Ansatz. Angefangen bei der automatischen Datenaufbereitung, die für viele schon ein unüberwindbares Hindernis darstellt“, weiß Dr. Thomas Hübner. „Über das Training von konfigurierbaren KI-Modellen oder im Autopiloten-Modus gelangt man schließlich zu grafisch aufbereiteten Erklärungen, die auf modell-agnostischen Methoden basieren. Der User muss nicht mehr arglos einer einzigen Zahl als Ergebnisdarstellung vertrauen, er kann sich das Modellverhalten global oder auch bis ins Detail aufgeschlüsselt erläutern lassen“, erläutert der Data Scientist weiter. Damit werden bessere, nachvollziehbare Business-Entscheidungen möglich und die KI wird nach und nach den Mythos der undurchschaubaren Black-Box los.

EVACO setzt sich zum Thema Data Science mit DataRobot seit Ende 2019 auseinander und erweitert so erfolgreich anwendergesteuerte Business Analytics-Lösungen um Predictive Modeling und Machine Learning.

TEILEN facebook twitter linkedin mail