„Dafür fällt niemandem bei der Fahrt das Lenkrad ab“

Bild: VDI Verein Deutscher Ingenieure e.V.

Prof. Michael Weyrich: Bei technischen Systemen unterscheidet man grundsätzlich zwischen zwei Aspekten der Sicherheit, die durch die englischen Begriffe Security und Safety zum Ausdruck gebracht werden. Bei der Security geht es um die Sicherheit vor Eingriffen Dritter, die versuchen, das System zu manipulieren. Autonome Systeme sind hier besonders gefährdet, da sie in allen Funktionen gesteuert werden, also ein großes Spektrum möglicher Angriffsflächen bieten können, auf das Einfluss genommen werden kann. Dazu gehört das Ausspionieren privater Daten, theoretisch könnte aber auch eine autonome Drohne durch einen Hacker komplett übernommen und ferngesteuert werden. Es fällt nicht schwer, sich auszumalen, was dann alles passieren kann und wie sich z.B. kriminelle Szenarien entwickeln können. Bei der Safety geht es um die Sicherheit des technischen Systems in seiner Außenwirkung auf die Umgebung und den Menschen. Die Schlagzeile „Roboter verletzt Mensch“ ist ein typisches Beispiel für die Problematik der Safety. Komplexer wird dies bei voll-automatisierten oder gar autonomen Systemen, da diese über die jeweilige Funktion und deren Ausführung selbstständig entscheiden können. In der Community wird daher das Thema ‚Safety Of The Intended Functionality‘, also eine Sicherheit der Sollfunktion aktuell sehr intensiv diskutiert. Noch vielschichtiger wird das Thema der Safety, sobald dieser Handlungsrahmen des autonomen Systems erweitert wird. An dieser Stelle diskutieren Gremien hinsichtlich internationaler Standards sowie Ethik-Experten und die Politik nach wie vor noch sehr grundlegend.

Wie lassen sich die Funktionen von autonomen Systemen schützen?

Weyrich: Beim Schutz der Security gilt ein ähnliches Vorgehen wie für alle Systeme, die vor externen Angriffen geschützt werden sollen. Digitale Einfallstore sind zu vermeiden und organisatorischen Tricks vorzubeugen. Spannend wird es bei der Frage, wie die Safety, also die Maschinensicherheit einer Sollfunktionen sichergestellt werden soll, ohne diese im Detail zu spezifizieren. Nehmen Sie nur das Thema des Stau-Assistenten, der Auffahrunfälle auf Staus verhindern soll. Die Grundfunktion ist rasch spezifiziert, die Szenarien sind jedoch sehr vielschichtig. Bei autonom fahrenden Autos geht man heute davon aus, dass bis zu 250 Millionen Kilometer in unterschiedlichsten Fahrsituationen durchfahren werden müssen, damit alle Corner Cases tatsächlich auch durchlaufen werden. Erst wenn ein Fahrzeug diese große Menge an Testfahrten erfolgreich absolviert hat, kann man rückschließen, dass das Verhalten dem eines Menschen entspricht oder sogar besser ist. Es liegt auf der Hand, dass so viele Testfahrten nicht alleine in der realen Welt gefahren werden können, sondern auch in Simulationen durchgeführt werden müssen. Trotzdem ist dieses sogenannte Brute-Force-Verfahren, also das erschöpfende Ausprobieren aller möglichen Fälle, aufgrund der großen Menge der zu fahrenden Kilometer sehr aufwendig.

Bild: ©thodonal/stock.adobe.com

Welche Möglicheiten gibt es?

Weyrich: Vor diesem Hintergrund müssen Alternativen detektiert werden, da es auf der Hand liegt, dass nicht nach jedem kleinen Update ein umfassender Zulassungstest wirtschaftlich darstellbar ist. Das beschriebene Vorgehen mit so vielen Testkilometern entspricht darüber hinaus auch nicht dem heutigen Verhalten. Wenn heute eine Führerscheinprüfung durchgeführt wird, sitzen wir mit einem Fahrprüfer im Auto, der bereits nach kurzer Zeit bescheinigt, ob man eine Fahrerlaubnis erhält oder nicht. Natürlich hat ein solcher Fahrprüfer sehr viel Erfahrung und ein gehöriges Maß an Gespür für den Prüfling und die Fahrsituationen. Für autonome Systeme ist so ein Vorgehen heute noch nicht abzusehen, obwohl wir genau in diese Richtung denken müssen, um überhaupt Sicherheits-Zertifikate vergeben zu können.

Funktioniert das?

Weyrich: Genau hier setzen unsere aktuellen Forschungen an. Wir benötigen Methoden, die man zum Test von autonomen Systemen einsetzen kann, um zu Aussagen zu deren Sicherheit zu gelangen. Ähnlich dem Vorgehen eines Fahrprüfers evaluieren wir mit unserem Testnavigator während des Tests, wie sich das getestete System verhält und ob besondere Detailprüfungen erforderlich sind oder nicht. Damit können wir Testfälle gezielt auswählen und so den Gesamttest schneller und effizienter durchführen, als dies mit dem Brute-Force-Verfahren möglich wäre. Allerdings brauchen wir auch hier eine weiterführende gesellschaftliche Diskussion, denn die Straßenverkehrsordnung lässt viele Situation deutlich zu unkonkret, um darauf Tests von autonomen Fahrzeugen durchführen zu können. Andere Ordnungen für Drohnen oder für spezielle Roboter z.B. in der Produktion existieren noch gar nicht. Darüber hinaus passieren bei autonomen Systemen völlig neuartige Fehler, die z.B. durch Radar, Reflektionen oder Effekte in der Mustererkennung ausgelöst werden. Dies kann dazu führen, dass in einer für den Menschen eindeutigen und einfachen Fahrsituation durch das autonome System trotzdem und plötzlich Fehler auftreten, die der Mensch so nicht erwartet hat und die zunächst unerklärlich erscheinen. Auch hierzu benötigen wir Forschung, um kritische Szenarien für autonome Systeme kennen und testen zu lernen.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert