Sorgt künstliche Intelligenz für mehr Cybersicherheit?

Kostenintensive Entwicklung

Die Entwicklung von Deep Learning ist trotz bereits existierender Deep Learning Frameworks noch sehr zeit- und kostenintensiv. Die komplexen und sich stetig verbessernden Bewertungen in den Hidden Layers sind intransparent und kaum mehr nachvollziehbar. Genau darin liegt der Nachteil von Deep Learning. Auf welcher Grundlage werden die Algorithmen entwickelt? Werden Grundsätze wie die DSGVO oder nationale Standards eingehalten? Deep Learning ist anfällig für falsch-positive Ergebnisse. Aber falsche Interpretationen werden wegen der fehlenden Transparenz nicht mehr als falsch erkannt und führen in der Folge zu unentdeckten Fehlern. Die Undurchsichtigkeit der Berechnungen in den Hidden Layers kann für Angriffe anfällig und für Manipulationen durch Hersteller oder öffentliche Auftraggeber vorbereitet sein oder zumindest dafür genutzt werden. Etwaige Manipulationen sind aber wegen der Komplexität kaum mehr erkennbar.

Wo wird Deep Learning eingesetzt?

Deep Learning kann strukturierte und unstrukturierte Daten interpretieren und verarbeiten. Große Datenmengen stellen kein Problem dar. Im Gegenteil: Je mehr Daten, desto granularer bilden sich Verknüpfungen in den neuronalen Netzen und desto besser werden zukünftige Ergebnisse. Deep Learning wird deshalb bei Bild- und Spracherkennung eingesetzt – wie etwa bei Sprachdiensten wie Siri. Chatbots erkennen trotz unterschiedlicher Sprachkenntnisse und Schreibweisen den Sinn der Fragestellung. Gesichtserkennung oder die Identifizierung von Straßenschildern auch bei unterschiedlichen Wettersituationen und Blickwinkeln sind ebenfalls typische Anwendungsfälle von Deep Learning.

Mehr Cybersicherheit durch KI?

Angriffsmethoden, die ständig weiterentwickelt werden, starke Angreifer (in der simulierten Cybersicherheitsabwehr auch rotes Team genannt), die sich immer häufiger schwächere Gegner (das verteidigende blaue Team) – wie etwa mittelständische Unternehmen – aussuchen, die fortschreitende Digitalisierung mit folglich großen unstrukturierten Datenmengen und New Work sorgen für Stress und Sorgen beim blauen Team. Diese versuchen mit geeigneten Verteidigungsmechanismen ständig, die Infiltration des Unternehmensnetzwerks zu verhindern. Durch künstliche Intelligenz auf beiden Seiten erreicht das ‚Hase und Igel-Spiel‘ das nächste Level. Angreifer haben aber wie immer die Nase vorne, denn auch KI muss Angriffsvektoren erst erkennen lernen. Haben Organisationen jedoch über die Cloud miteinander sprechende und/oder voneinander lernende Systeme etabliert, wird die Lernkurve steiler und die Filter arbeiten granularer. Da automatisierte Abwehrmaßnahmen emotionslos nach Algorithmen arbeiten, verschlimmern sie nicht vor lauter Panik die Lage noch zusätzlich? Schließlich fehlen Intuition und die Sicht auf das Ganze. Deep Learning ist auch bei der Cybersecurity die eigentliche künstliche Intelligenz. Aus Verhaltensänderungen lernt Deep Learning nahezu in Echtzeit und leitet daraus eigenständig Bewertungen und Handlungen ab. Die Hidden Layers, das vielschichtige System innerhalb von Deep Learning, arbeiten jedoch intransparent. Um Alleinstellungsmerkmale bemüht, verraten Hersteller die Intelligenz in den künstlichen neuronalen Netzen nicht. Und dementsprechend können die Ergebnisse und die Anfälligkeit gegen Manipulationen oft nicht interpretiert werden. Teamwork bei der Abwehr von Angriffen und regelmäßige Sicherheitsschulungen der Mitarbeiter bleiben also wichtiger denn je. 60 Prozent aller Angriffe erfolgen durch Innentäter.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert