Der Europäische Rat hat den AI Act, das erste umfassende Regelwerk für künstliche Intelligenz (KI) weltweit, verabschiedet. Dieses Gesetz zielt darauf ab, die Entwicklung und Nutzung sicherer und vertrauenswürdiger KI-Systeme im EU-Binnenmarkt sowohl von privaten als auch öffentlichen Akteuren zu fördern, während gleichzeitig die Grundrechte der EU-Bürger respektiert und Investitionen sowie Innovationen im Bereich der künstlichen Intelligenz in Europa angeregt werden sollen.
Klassifizierung von KI-Systemen als hochriskant und verbotene KI-Praktiken
Das neue Gesetz kategorisiert verschiedene Arten von künstlicher Intelligenz nach Risiko. KI-Systeme, die nur ein begrenztes Risiko darstellen, unterliegen sehr leichten Transparenzpflichten, während hochriskante KI-Systeme zugelassen werden, aber einer Reihe von Anforderungen und Verpflichtungen unterliegen, um Zugang zum EU-Markt zu erhalten. KI-Systeme, wie beispielsweise kognitive Verhaltensmanipulation und soziales Scoring, werden in der EU verboten, da ihr Risiko als inakzeptabel eingestuft wird. Das Gesetz verbietet auch die Verwendung von KI für prädiktive Polizeiarbeit basierend auf Profiling und Systeme, die biometrische Daten verwenden, um Menschen nach bestimmten Kategorien wie Rasse, Religion oder sexueller Orientierung zu kategorisieren.
Nächste Schritte
Nach der Unterzeichnung durch die Präsidenten des Europäischen Parlaments und des Rates wird der Rechtsakt in den kommenden Tagen im Amtsblatt der EU veröffentlicht und tritt zwanzig Tage nach dieser Veröffentlichung in Kraft. Die neue Verordnung wird zwei Jahre nach ihrem Inkrafttreten anwendbar sein, mit einigen Ausnahmen: Verbote werden nach sechs Monaten wirksam, die Governance-Regeln und die Verpflichtungen für allgemeine KI-Modelle gelten nach 12 Monaten und die Regeln für in regulierte Produkte eingebettete KI-Systeme gelten nach 36 Monaten. Um den Übergang zum neuen Rechtsrahmen zu erleichtern, hat die Kommission den AI Pact ins Leben gerufen, eine freiwillige Initiative, die die künftige Umsetzung unterstützen und KI-Entwickler aus Europa und darüber hinaus einladen soll, die wichtigsten Verpflichtungen des AI Act bereits im Vorfeld einzuhalten.
Hintergrund
Der AI Act ist ein Schlüsselelement der EU-Politik zur Förderung der Entwicklung und Nutzung sicherer und rechtmäßiger KI, die die Grundrechte respektiert. Der Vorschlag für den AI Act wurde im April 2021 von der Kommission eingereicht. Eine vorläufige Einigung zwischen den Mitgesetzgebern wurde am 8. Dezember 2023 erreicht.Der AI Act zielt darauf ab, KI-Entwicklern und -Anwendern klare Anforderungen und Verpflichtungen hinsichtlich bestimmter Verwendungen von KI an die Hand zu geben. Gleichzeitig soll die Verordnung den Verwaltungs- und Finanzaufwand für Unternehmen, insbesondere kleine und mittlere Unternehmen (KMU), verringern.Der AI Act ist Teil eines umfassenderen Pakets politischer Maßnahmen zur Unterstützung der Entwicklung vertrauenswürdiger KI, zu dem auch das KI-Innovationspaket und der koordinierte Plan für KI gehören. Zusammen werden diese Maßnahmen die Sicherheit und die Grundrechte von Menschen und Unternehmen in Bezug auf KI gewährleisten. Sie werden auch die Akzeptanz, die Investitionen und die Innovation im Bereich der KI in der gesamten EU stärken.Der AI Act ist der weltweit erste umfassende Rechtsrahmen für KI. Ziel der neuen Vorschriften ist es, vertrauenswürdige KI in Europa und darüber hinaus zu fördern, indem sichergestellt wird, dass KI-Systeme die Grundrechte, die Sicherheit und die ethischen Grundsätze respektieren und die Risiken sehr leistungsfähiger und wirkungsvoller KI-Modelle angegangen werden.
Warum brauchen wir Regeln für KI?
Der AI Act stellt sicher, dass die Europäer darauf vertrauen können, was KI zu bieten hat. Während die meisten KI-Systeme nur ein begrenztes oder gar kein Risiko darstellen und zur Lösung vieler gesellschaftlicher Herausforderungen beitragen können, schaffen bestimmte KI-Systeme Risiken, die wir angehen müssen, um unerwünschte Ergebnisse zu vermeiden.So ist es beispielsweise oft nicht möglich, herauszufinden, warum ein KI-System eine bestimmte Entscheidung oder Vorhersage getroffen und eine bestimmte Handlung ausgeführt hat. Daher kann es schwierig werden, zu beurteilen, ob jemand unfair benachteiligt wurde, z. B. bei einer Einstellungsentscheidung oder bei einem Antrag auf eine öffentliche Leistung.Obwohl die bestehende Gesetzgebung einen gewissen Schutz bietet, reicht sie nicht aus, um die spezifischen Herausforderungen zu bewältigen, die KI-Systeme mit sich bringen können.Die vorgeschlagenen Regeln werden:
- Risiken angehen, die speziell durch KI-Anwendungen entstehen;
- KI-Praktiken verbieten, die inakzeptable Risiken darstellen;
- eine Liste der Hochrisikoanwendungen erstellen;
- klare Anforderungen an KI-Systeme für Hochrisikoanwendungen festlegen;
- spezifische Verpflichtungen für Anwender und Anbieter von hochriskanten KI-Anwendungen definieren;
- eine Konformitätsbewertung verlangen, bevor ein bestimmtes KI-System in Betrieb genommen oder auf den Markt gebracht wird;
- die Durchsetzung nach der Markteinführung eines bestimmten KI-Systems sicherstellen;
- eine Governance-Struktur auf europäischer und nationaler Ebene etablieren.
Der AI Act ist ein wichtiger Schritt auf dem Weg zu einer verantwortungsvollen und ethischen Entwicklung und Nutzung von KI in Europa. Er schafft einen Rahmen, der Innovation und Wettbewerbsfähigkeit fördert und gleichzeitig die Grundrechte und die Sicherheit der Bürger schützt. Die Auswirkungen des AI Act werden in den kommenden Jahren sorgfältig beobachtet werden müssen, um seine Wirksamkeit bei der Förderung einer sicheren, ethischen und innovativen KI zu bewerten.