Die Kunst der KI-Erklärung: Wie XAI Licht ins Dunkel bringt 

Künstliche Intelligenz (KI) ist mittlerweile so gegenwärtig, dass in Deutschland bereits über 90% etwas mit dem Begriff anfangen können und sich 56% der Befragten zutrauen würden, diesen zu erklären.
Doch das, was sie letztendlich tut, gleicht für viele noch einer Blackbox – also einem von außen undurchsichtigem Vorgang. Um diese Blackbox aufzuschlüsseln und aufzuzeigen, wie eine KI ihre Entscheidungen trifft, kommt sogenannte XAI – eXplainable AI (Erklärbare Künstliche Intelligenz) – zum Einsatz. Diese soll Verständnis schaffen, das Vertrauen in die Systeme stärken und helfen, Fehler erkennen und korrigieren zu können. Diese ist besonders wichtig in Bereichen, in denen eine Nachverfolgbarkeit der Entscheidungen unabdingbar ist, bspw. wenn die KI Voraussagen über zukünftige Handlungen eines Menschen treffen soll.

Doch wie kann eine durch maschinelles Lernen trainierte KI verständlich aufzeigen, wie sie zu einer Prognose gekommen ist? Lösungen bieten hier beispielsweise die LIME – und SHAP -Methoden. Beide können eine Vorhersage anhand ihrer relevantesten Merkmale (sogenannten Features) erklären, wobei LIME dabei lokal und SHAP global agiert. Das bedeutet, dass LIME (Local Interpretable Model-agnostic Explanations; Lokal interpretierbare, modellagnostische Erklärungen) auf einen ausgewählten Punkt angewendet wird und die relevantesten Features bestimmt, indem es diesen mit zufällig-kreierten Punkten im Umfeld vergleicht und damit eine Gewichtung jener Features erhält. Ähnlich agiert SHAP (SHapley Additive exPlanations; Shapley-Zusatz Erklärungen), welches wie LIME modellagnostisch ist (d.h. sich auf sämtliche Modelle anwenden lässt), seinen Ursprung aber in der Spieltheorie hat. Dort ermittelte sie die Relevanz einzelner Spieler:innen einer Gruppe auf eine gemeinsam erzielte Gewinnsumme, indem jene in verschiedener Besetzung miteinander verglichen wird.

In der XAI bedeutet das, dass die Features einer Vorhersage in sämtlichen Konstellationen miteinander verglichen werden, um somit eine Aussage über die Relevanz jedes einzelnen zu treffen. Dies kann dabei lokal (auf den individuellen Ausgangspunkt) oder global (auf das komplette System) angewendet werden. SHAP trifft somit auch Aussagen über ein bestimmtes Feature generell oder dem Modell insgesamt, wohingegen LIME nur auf den Einzelfall bezogen ist. SHAP kann die Ergebnisse außerdem durch verschiedene Graphiken (Plots) visualisieren, deren Auswahl vom Anwendungsfall abhängt.
Ein Force Plot bspw. ermöglicht einen schnellen Einblick, welche Features sich wie stark auf das Ergebnis ausgewirkt haben und besteht nur aus einem Balken, der nach links (negativer Einfluss) oder rechts (positiver Einfluss) ausschlägt. Soll SHAP Aussagen über das Modell selbst treffen, eignen sich mehrdimensionale Plots wie bspw. Der Beeswarm-Plot, welcher sämtliche Vorkommen eines Features anhand dessen positiven und negativen Einflusses wie auch dessen Gewichtung auf das System darstellt. Auch Systeme, die über keine klar-definierten Features verfügen, wie bspw. die OCR (Optical Character Recognition, Optische Zeichen-Erkennung), können durch einen DeepExplainer von SHAP profitieren, indem dieser z.B. ausgibt, warum an einer Stelle eine „4“ und keine „9“ ausgelesen wurde.

Die Einsatzzwecke von XAI sind also so vielseitig wie die der KI selbst und sie stellt ein wichtiges Werkzeug für sämtliche Nutzer:innen dar – sei es, um sich mit einem System vertraut zu machen, herauszufinden, wie es zu einem Fehler kam oder Verständnis für die wichtigsten Features des jeweiligen Anwendungsfalls zu schaffen. Damit kann sie sogar helfen, die eigenen Arbeitsprozesse besser zu verstehen und dem Unternehmen zuvor unbemerkte negative Einflussfaktoren aufzuzeigen.

Jedoch ist es wichtig zu betonen, dass die Erklärungsmethoden nur dann hilfreich sind, wenn sie auch für die jeweilige Nutzer:innen verständlich aufbereitet werden. Um die Bedürfnisse gezielt zu adressieren, sollten Nutzer:innen frühzeitig in den Entwicklungsprozess eingebunden werden, damit ihre individuellen Anforderungen und Präferenzen berücksichtigt werden können. So können Erklärungen angeboten werden, die verschiedene Detailgrade und Perspektiven abdecken – von einfachen, intuitiven Visualisierungen bis hin zu detaillierten, technischen Erläuterungen. Jede:r kann so die für sich passende Erklärungsebene wählen, wodurch eine nutzerzentrierte KI-Interaktion gewährleistet wird. Ein Gewinn für alle Beteiligten!“


Zurück

Das Projekt Zukunftszentrum KI NRW wird im Rahmen des Programms Zukunftszentren durch das Bundesministerium für Arbeit und Soziales und vom Ministerium für Arbeit, Gesundheit und Soziales NRW sowie durch die Europäische Union über den Europäischen Sozialfonds Plus (ESF Plus) gefördert.