Predictive Maintenance und der Black-Box-Effekt

Bei der vorausschauenden Wartung erfolgt ein stetiger Abgleich der durch Sensorik erfassten Daten einer konkreten Maschine mit ihrem digitalen Zwilling, also seiner digitalen Repräsentation. Dieser bildet auf Grundlage der Analyse großer Datenmengen mittels künstlicher Intelligenz durch maschinelles Lernen und Deep Learning für die Beurteilung der Wartungsentscheidung maßgebliche Parameter ab. Nur wenn aufgrund dieser Erfahrungswerte die Voraussetzungen vorliegen, wird die Wartung in Auftrag gegeben.

Freilich kann die Prognoseentscheidung unzutreffend sein und etwa trotz grünen Lichts eine Maschine einen Verschleißschaden erleiden und dadurch die gesamte Produktion lahmlegen. In diesen Fällen stellt sich die Haftungsfrage, die eine genaue Fehleranalyse erfordert. Häufig ist man nun mit einem Spezifikum der künstlichen Intelligenz konfrontiert: Im Rahmen autonom lernender Systeme können künstliche neuronale Netzwerke eingesetzt werden, die auf Grundlage unstrukturierter (Input-)Daten in der Lage sind, selbsttätig Zusammenhänge zu erkennen. Hieraus generiert der Algorithmus in einem Deep-Learning-Prozess Erkenntnisse (Output), die weder die ursprünglichen Daten, noch ihre Gewichtung oder sonstige Schritte des Verarbeitungsprozesses erkennen lassen. In diesem Zusammenhang wird vom Black-Box-Effekt gesprochen.

Der Black-Box-Effekt stellt den Nutzer einer Anwendung künstlicher Intelligenz also mitunter vor erhebliche Beweisprobleme, denn sein Regress gegen den Anbieter wird in der Regel davon abhängen, ob er einen Fehler oder Mangel bzw., soweit erforderlich, Verschulden des Anbieters darlegen kann. Die Schwierigkeiten beginnen dabei bereits damit, dass der Anwender den Ablauf des konkreten Entscheidungsprozesses innerhalb der Software nicht wird nachvollziehen können. Ferner fehlt ihm der Zugang zu den zur Herausbildung des digitalen Zwillings verwendeten Input-Daten und wie diese dessen Ausgestaltung beeinflusst haben. Zudem handelt es sich hierbei üblicherweise nicht um einen mit der Bereitstellung der Anwendung abgeschlossenen Prozess, sondern diese wird vielmehr aufgrund neuerer Daten immer weiter trainiert und entwickelt.

Diesen Herausforderungen kann durch teils technische, teils rechtliche Mittel begegnet werden. So etablieren sich Dienstleister, die sich auf die Entschlüsselung von algorithmischen Vorgängen spezialisieren, allerdings führt der Einsatz solcher Leistungen zu erheblichen Kosten. Andererseits kann der Nutzer vertragliche Regelungen mit dem Anbieter treffen. So können die Anforderungen an die Anwendung konkret beschrieben und dem Anbieter die Verantwortlichkeit dafür auferlegt werden, die Ordnungsmäßigkeit zu beweisen. Ferner kann der Anbieter zu einer umfassenden, beweiskräftigen Dokumentation der Datenverarbeitung verpflichtet werden. Zur Wahl stehen hier (qualifiziert) signierte Logs und Protokolle. Um sich nicht in der Black-Box der KI-Anwendung zu verlieren, bedarf es also besonderer Vorkehrungen. Ob diese freilich durchgesetzt werden können, hängt entscheiden vom Verhandlungsgeschick des Anwenders ab.

Hochachtungsvoll

Torsten Kraul

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert