EU einigt sich auf AI Act

Advocate.
Advocate.
Advocate.
Advocate.Bild: ©BillionPhotos.com/stock.adobe.com

Die Präsidentin betonte weiter: „Das EU-Gesetz über die Künstliche Intelligenz ist der erste umfassende Rechtsrahmen für künstliche Intelligenz weltweit. Dies ist also ein historischer Moment. Mit dem KI-Gesetz werden die europäischen Werte in eine neue Ära überführt. Durch die Konzentration der Regulierung auf erkennbare Risiken wird die heutige Einigung eine verantwortungsvolle Innovation in Europa fördern. Indem sie die Sicherheit und die Grundrechte von Menschen und Unternehmen garantiert, wird sie die Entwicklung, den Einsatz und die Einführung vertrauenswürdiger KI in der EU unterstützen. Unser KI-Gesetz wird einen wesentlichen Beitrag zur Entwicklung globaler Regeln und Grundsätze für menschenzentrierte KI leisten.“

Unterscheidung nach Risiken

Die neuen Vorschriften werden in allen Mitgliedstaaten auf der Grundlage einer zukunftssicheren Definition von KI unmittelbar und in gleicher Weise angewandt. Sie folgen einem risikobasierten Ansatz, der wie folgt unterteilt wird:

Minimales Risiko: Die große Mehrheit der KI-Systeme fällt in die Kategorie des minimalen Risikos. Anwendungen mit minimalem Risiko wie etwa KI-gestützte Empfehlungssysteme oder Spam-Filter sollen von einem Freipass und fehlenden Verpflichtungen profitieren, da diese Systeme nur ein minimales oder gar kein Risiko für die Rechte oder die Sicherheit der Bürger darstellen. Wie die Kommission mitteilt können sich Unternehmen auf freiwilliger Basis jedoch zu zusätzlichen Verhaltenskodizes für diese KI-Systeme verpflichten.

Hohes Risiko: KI-Systeme, die als risikoreich eingestuft werden, müssen strenge Anforderungen erfüllen, darunter Systeme zur Risikominderung, eine hohe Qualität der Datensätze, die Protokollierung von Aktivitäten, eine ausführliche Dokumentation, klare Benutzerinformationen, menschliche Aufsicht und ein hohes Maß an Robustheit, Genauigkeit und Cybersicherheit. Sogenannte ‚regulatorische Sandkästen‘ sollen verantwortungsvolle Innovationen und die Entwicklung von konformen KI-Systemen erleichtern.

Kritische Infrastrukturen: Beispiele für solche risikoreichen KI-Systeme sind bestimmte kritische Infrastrukturen, etwa in den Bereichen Wasser, Gas und Strom, medizinische Geräte, Systeme zur Bestimmung des Zugangs zu Bildungseinrichtungen oder zur Rekrutierung von Personen oder bestimmte Systeme, die in den Bereichen Strafverfolgung, Grenzkontrolle, Rechtspflege und demokratische Prozesse eingesetzt werden. Darüber hinaus gelten biometrische Identifizierungs-, Kategorisierungs- und Emotionserkennungssysteme ebenfalls als hochriskant.

Unannehmbares Risiko: KI-Systeme, die eine eindeutige Bedrohung für die Grundrechte der Menschen darstellen, werden verboten. Dazu gehören KI-Systeme oder -Anwendungen, die das menschliche Verhalten manipulieren, um den freien Willen des Nutzers zu umgehen, wie etwa Spielzeug mit Sprachassistenz, das gefährliches Verhalten von Minderjährigen fördern kann, ‚Social Scoring‘-Systeme, sowie bestimmte Anwendungen der vorausschauenden Polizeiarbeit. Darüber hinaus sieht der AI Act ein Verbot einiger Anwendungen biometrischer Systeme vor, beispielsweise Systeme zur Erkennung von Emotionen am Arbeitsplatz und einige Systeme zur Kategorisierung von Personen oder zur biometrischen Fernidentifizierung in Echtzeit zu Strafverfolgungszwecken in öffentlich zugänglichen Räumen (mit engen Ausnahmen).

Spezifisches Transparenzrisiko: Beim Einsatz von KI-Systemen wie Chatbots sollten sich die Nutzer bewusst sein, dass sie mit einer Maschine interagieren. Deep Fakes und andere KI-generierte Inhalte müssen als solche gekennzeichnet werden, und die Nutzer müssen informiert werden, wenn biometrische Kategorisierungs- oder Emotionserkennungssysteme verwendet werden. Darüber hinaus müssen die Anbieter ihre Systeme so gestalten, dass synthetische Audio-, Video-, Text- und Bildinhalte in einem maschinenlesbaren Format gekennzeichnet und als künstlich erzeugt oder manipuliert erkannt werden können.

Unternehmen, die sich nicht an die Vorschriften halten, müssen mit Geldstrafen rechnen. Vorgesehen sind Geldbußen zwischen 35Mio.€ oder 7 Prozent des weltweiten Jahresumsatzes (je nachdem, welcher Betrag höher ist) für Verstöße gegen verbotene KI-Anwendungen. Verstöße gegen andere Verpflichtungen werden von der EU mit 15Mio.€ oder 3 Prozent beziffert. Die Strafe für die Bereitstellung falscher Informationen liegt bei 7,5Mio.€ oder 1,5 Prozent des weltweiten Jahresumsatzes. Für KMU und Start-ups sind bei Verstößen laut EU Kommission verhältnismäßigere Obergrenzen für Bußgelder vorgesehen.

KI für allgemeine Zwecke

Mit dem KI-Gesetz führt die EU Kommission zudem spezielle Vorschriften für KI-Modelle für allgemeine Zwecke ein, die für Transparenz entlang der Wertschöpfungskette sorgen sollen. Für sehr leistungsfähige Modelle, die systemische Risiken darstellen könnten, wird es zusätzliche verbindliche Verpflichtungen in Bezug auf das Risikomanagement und die Überwachung schwerwiegender Vorfälle sowie die Durchführung von Modellevaluierungen und Tests mit gegnerischen Systemen geben. Diese neuen Verpflichtungen sollen durch Verhaltenskodizes operationalisiert werden, die von der Industrie, der Wissenschaft, der Zivilgesellschaft und anderen Interessengruppen zusammen mit der Kommission entwickelt werden.

KI-Office

Was die Verwaltung betrifft, so sollen die zuständigen nationalen Marktaufsichtsbehörden die Umsetzung der neuen Vorschriften auf nationaler Ebene überwachen, während die Einrichtung eines neuen europäischen AI-Offices innerhalb der Europäischen Kommission die Koordinierung auf europäischer Ebene sicherstellen soll. Dessen Aufgabe ist es zudem, die Umsetzung und Durchsetzung der neuen Vorschriften für allgemeine KI-Modelle überwachen.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert