Künstliche Intelligenz erklärbar machen

Bild: ©wacomka/stock.adobe.com

Insbesondere bei kritischen Anwendungen wollen Nutzer verstehen, wie eine von künstlicher Intelligenz getroffenen Entscheidung zustande kommt. Nur so sind Verbesserungen möglich, die zunehmend auch die Sicherheit betreffen. Zudem schreibt die europäische Datenschutzgrundverordnung vor, Entscheidungen nachvollziehbar zu machen.

Neun Verfahren verglichen

Rund um dieses Problem ist ein ganzes Forschungsfeld entstanden: die ‚Explainable Artificial Intelligence‘ (xAI), die erklärbare künstliche Intelligenz. Auf dem Markt gibt es unterschiedliche digitale Hilfen, die komplexe KI-Lösungswege erklärbar machen sollen. Experten des Fraunhofer-Instituts für Produktionstechnik und Automatisierung IPA haben neun Erklärungsverfahren – wie LIME, SHAP oder Layer-Wise Relevance Propagation – miteinander verglichen und mithilfe von beispielhaften Anwendungen bewertet. Dabei zählten vor allem drei Kriterien:

  • Stabilität: Bei gleicher Aufgabenstellung soll das Programm stets dieselbe Erklärung liefern. Es darf nicht sein, dass für eine Anomalie in der Produktionsmaschine einmal Sensor A und dann Sensor B verantwortlich gemacht wird. Das würde das Vertrauen in den Algorithmus zerstören und das Ableiten von Handlungsoptionen erschweren.
  • Konsistenz: Gleichzeitig sollten nur geringfügig unterschiedliche Eingabedaten auch ähnliche Erklärungen erhalten.
  • Wiedergabetreue: Wichtig ist auch, dass Erklärungen tatsächlich das Verhalten des KI-Modells abbilden. Es darf beispielsweise nicht passieren, dass die Erklärung für die Verweigerung eines Bankkredits ein zu hohes Alter des Kunden benennt, obwohl eigentlich das zu geringe Einkommen ausschlaggebend war.

Die perfekte Methode gibt es nicht

Laut Studie haben sich alle untersuchten Erklärungsmethoden als brauchbar erwiesen. „Doch es gibt nicht die eine perfekte Methode“, sagt Nina Schaaf, die beim Fraunhofer IPA für die Studie verantwortlich ist. Große Unterschiede gibt es beispielsweise bei der Laufzeit, die ein Verfahren benötigt, so die Studienautoren. Die Auswahl der besten Software ist zudem von der jeweiligen Aufgabenstellung abhängig. „Und schließlich ist immer auch die Zielgruppe einer Erklärung wichtig“, resümiert Schaaf. Zur Studie gelangen Sie hier.

mst/Fraunhofer IPA

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert