Europaweite Spielregeln für KI-Systeme kommen

Bild: ©mixmagic/stock.adobe.com

Der AIA ist das weltweit erste Gesetz, das Systeme mit künstlicher Intelligenz in allen Lebensbereichen regulieren soll. Daher findet dieser Prozess auch international große Beachtung. Im Wesentlichen zielt die Gesetzgebung darauf ab, bestehende Grundrechte und Werte der Europäischen Union zu wahren, das Vertrauen in KI-Systeme zu stärken und den Binnenmarkt in Europa abzusichern. Die EU verfolgt bei diesem Gesetz den risikobasierten Ansatz. Der AIA sieht vor, dass KI-Anwendungen in vier Risikoklassen eingeteilt werden: inakzeptables, hohes, begrenztes und minimales Risiko. Für Anwendungen mit inakzeptablem Risiko, wie KI-getriebene Social-Scoring-Systeme, sieht die EU ein generelles Verbot vor. Anwendungen der Klasse mit einem hohen Risiko müssen sich einer Reihe von rechtlichen Verpflichtungen vor der Markteinführung unterziehen, einschließlich einer umfassenden Konformitätsbewertung.

Lösungsvorschlag mitgeliefert

Hierfür enthält der Gesetzesvorschlag eine anwendbare Methodik zur Einstufung von Hochrisiko-KI-Systemen, das heißt jenen Systemen, die erhebliche Gefahren für die Gesundheit und Sicherheit oder die Grundrechte von Personen bergen könnten. Solche KI-Systeme müssen künftig den Auflagen für vertrauenswürdige KI entsprechen und vor Inbetriebnahme einer Konformitätsbewertung unterzogen werden, in der Mindestanforderungen etwa bei Transparenz, Risikomanagement, Robustheit und Cybersicherheit geprüft werden. Die Dokumentationspflichten dazu umfassen seine detaillierte Spezifikation der verwendeten Trainings-, Validierungs- und Testdatensätze. Der AIA sieht außerdem vor, dass unabhängige Behörden die Einhaltung der Regeln überwachen und bei Verstößen Sanktionen verhängen können. Bei Verstößen sind Geldbußen in Höhe von bis zu 30 Millionen Euro oder von bis zu sechs Prozent des gesamten weltweiten Jahresumsatzes des vorangegangenen Geschäftsjahres vorgesehen. (Stand November 2022)

Vertrauen in Produkte schaffen

Erst sechs Prozent der deutschen Unternehmen gaben in einer Umfrage an, KI-gestützte Systeme zu nutzen. Neben vielen weiteren Aspekten ist es wichtig, bei der Einführung von KI-Systemen Datenschutz und IT-Sicherheit, Haftungs- und Verantwortungsfragen sowie ethische Bedenken zu berücksichtigen. Darüber hinaus erwartet die Gesellschaft, dass KI-Systeme auf die Besonderheiten beim Umgang mit personenbezogenen Daten eingestellt sind und Diskriminierungen vermeiden. Hierzu gehört auch die Kommunikation mit Kunden und Verbrauchern über die Verwendung von KI in Produkten. Solche Maßnahmen können zum Vertrauensaufbau bei KI-basierten Produkten beitragen – ein zentraler Faktor beim Aufbau dieses europäischen Wirtschaftszweiges.

Transparente KI-Anbieter

So zielt der AI Act auch darauf ab, künstliche Intelligenz zu einer sicheren und verantwortungsgerechten Technologie zu entwickeln. Die EU-Kommission kommt damit auch der Forderung aus der Wirtschaft nach, einen Rechtsrahmen für den Einsatz solcher Technologien und gleichzeitig Investitionssicherheit zu schaffen. Somit steigt die Wahrscheinlichkeit, dass noch weitere Industrieunternehmen KI-Systeme in ihre Prozesse integrieren und von den Vorteilen profitieren können. Die meisten KI-Appklikationen in der Industrie dürften in eine Kategorie niedrigeren Risikos fallen, da es sich hierbei um Systeme zur Predictive Maintenance oder Systeme ohne Verwendung von personenbezogenen Daten handelt. Hier fallen dann für die Unternehmen lediglich besondere Transparenzpflichten oder die Einhaltung von freiwilligen Verhaltenskodizes an. Die wesentliche Last der Risiko-Klassifizierung und Konformitätsbewertung wird hier auf den Anbieter der KI-Systeme entfallen.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert