Einleitung
Der Artificial Intelligence Act ist ein Vorschlag für ein europäisches Gesetz über künstliche Intelligenz (KI) – das erste Gesetz. Damit soll sichergestellt werden, dass Systeme der künstlichen Intelligenz (KI), die in der EU in Verkehr gebracht und genutzt werden, sicher sind und die geltenden Rechtsvorschriften zu den Grundrechten und Werten der Union einhalten.
Das Gesetz ordnet Anwendungen von KI drei Risikokategorien zu. Erstens werden Anwendungen und Systeme verboten, die ein inakzeptables Risiko darstellen, wie z. B. ein staatlich betriebenes Social Scoring, wie es in China eingesetzt wird. Zweitens unterliegen Anwendungen mit hohem Risiko, wie z. B. ein Tool zum Scannen von Lebensläufen, das eine Rangfolge von Bewerbern erstellt, besonderen rechtlichen Anforderungen.
Anwendungen schließlich, die nicht ausdrücklich verboten oder als risikoreich eingestuft sind, bleiben weitgehend unreguliert.
Inhalt des Entwurfs
Der von der Kommission im April 2021 vorgelegte Verordnungsentwurf ist ein Schlüsselelement der EU-Politik zur Förderung der Entwicklung und Verbreitung von sicherer und rechtmäßiger KI im gesamten Binnenmarkt, die die Grundrechte achtet.
Der Vorschlag folgt einem risikobasierten Ansatz und legt einen einheitlichen, horizontalen Rechtsrahmen für KI fest, der Rechtssicherheit gewährleisten soll. Er fördert Investitionen und Innovationen im Bereich der KI, verbessert die Governance und die wirksame Durchsetzung des bestehenden Rechts in Bezug auf Grundrechte und Sicherheit und erleichtert die Entwicklung eines Binnenmarktes für KI-Anwendungen. Sie geht Hand in Hand mit anderen Initiativen, einschließlich des Koordinierten Plans für Künstliche Intelligenz, der darauf abzielt, Investitionen in KI in Europa zu beschleunigen.
Definition eines KI-Systems
Um sicherzustellen, dass die Definition eines KI-Systems hinreichend klare Kriterien für die Unterscheidung zwischen KI und einfacheren Softwaresystemen liefert, grenzt der Ratstext die Definition auf Systeme ein, die mit Hilfe von Ansätzen des maschinellen Lernens sowie logik- und wissensbasierten Ansätzen entwickelt werden.
Verbotene KI-Praktiken
Was die verbotenen KI-Praktiken betrifft, so dehnt der Text das Verbot des Einsatzes von KI für Social Scoring auf private Akteure aus. Darüber hinaus gilt das Verbot des Einsatzes von KI-Systemen, die die Schwächen einer bestimmten Personengruppe ausnutzen, nun auch für Personen, die aufgrund ihrer sozialen oder wirtschaftlichen Lage gefährdet sind.
Was das Verbot des Einsatzes von biometrischen Fernerkennungssystemen in öffentlich zugänglichen Räumen durch Strafverfolgungsbehörden betrifft, so wird im Text klargestellt, für welche Ziele ein solcher Einsatz für Strafverfolgungszwecke unbedingt erforderlich ist und für welche Strafverfolgungsbehörden daher ausnahmsweise der Einsatz solcher Systeme zulässig sein sollte.
Einstufung von KI-Systemen als hochriskant
Was die Einstufung von KI-Systemen als risikoreich angeht, so fügt der Text eine horizontale Ebene über der Einstufung als risikoreich hinzu, um sicherzustellen, dass KI-Systeme, die wahrscheinlich keine schwerwiegenden Grundrechtsverletzungen oder andere erhebliche Risiken verursachen, nicht erfasst werden.
Anforderungen für AI-Systeme mit hohem Risiko
Viele der Anforderungen an KI-Systeme mit hohem Risiko wurden klarer formuliert und so angepasst, dass sie technisch besser umsetzbar und für die Beteiligten weniger aufwändig zu erfüllen sind, z. B. in Bezug auf die Qualität der Daten oder die technischen Unterlagen, die von KMU erstellt werden sollten, um nachzuweisen, dass ihre KI-Systeme mit hohem Risiko den Anforderungen entsprechen.
Da KI-Systeme über komplexe Wertschöpfungsketten entwickelt und vertrieben werden, enthält der Text Änderungen, die die Verteilung der Verantwortlichkeiten und Rollen der verschiedenen Akteure in diesen Ketten, insbesondere der Anbieter und Nutzer von KI-Systemen, klarstellen. Außerdem wird das Verhältnis zwischen den Zuständigkeiten im Rahmen des KI-Gesetzes und den Zuständigkeiten geklärt, die bereits im Rahmen anderer Rechtsvorschriften bestehen, z. B. der einschlägigen Datenschutzvorschriften der Union oder der sektoralen Rechtsvorschriften, auch in Bezug auf den Finanzdienstleistungssektor.
KI-Systeme für allgemeine Zwecke
Es wurden neue Bestimmungen hinzugefügt, um Situationen zu berücksichtigen, in denen KI-Systeme für viele verschiedene Zwecke eingesetzt werden können (Allzweck-KI) und in denen eine Allzweck-KI-Technologie anschließend in ein anderes Hochrisikosystem integriert wird.
Der Text legt fest, dass bestimmte Anforderungen für hochriskante KI-Systeme in solchen Fällen auch für KI-Systeme für allgemeine Zwecke gelten würden. Anstelle einer direkten Anwendung dieser Anforderungen würde jedoch in einem Durchführungsrechtsakt festgelegt, wie sie in Bezug auf KI-Systeme für allgemeine Zwecke anzuwenden sind, und zwar auf der Grundlage einer Konsultation und einer detaillierten Folgenabschätzung und unter Berücksichtigung der spezifischen Merkmale dieser Systeme und der damit verbundenen Wertschöpfungskette, der technischen Machbarkeit sowie der Markt- und Technologieentwicklungen.
Anwendungsbereich und Bestimmungen über die Strafverfolgungsbehörden
Es wurde ausdrücklich darauf hingewiesen, dass die nationale Sicherheit, die Verteidigung und militärische Zwecke vom Anwendungsbereich des KI-Gesetzes ausgenommen sind. Ebenso wurde klargestellt, dass das KI-Gesetz nicht für KI-Systeme und ihre Ergebnisse gelten sollte, die ausschließlich zu Forschungs- und Entwicklungszwecken eingesetzt werden, und dass die Verpflichtungen von Personen, die KI zu nicht-beruflichen Zwecken nutzen, nicht in den Anwendungsbereich des KI-Gesetzes fallen, mit Ausnahme der Transparenzpflichten.
Unter Berücksichtigung der Besonderheiten der Strafverfolgungsbehörden wurden mehrere Änderungen an den Bestimmungen über die Nutzung von KI-Systemen zu Strafverfolgungszwecken vorgenommen. Diese Änderungen sollen insbesondere – vorbehaltlich angemessener Schutzmaßnahmen – die Notwendigkeit widerspiegeln, die Vertraulichkeit sensibler operativer Daten im Zusammenhang mit ihren Tätigkeiten zu wahren.
Compliance-Rahmen und KI-Vorstand
Um den Rahmen für die Einhaltung des AI-Gesetzes zu vereinfachen, enthält der Text mehrere Klarstellungen und Vereinfachungen der Bestimmungen über die Konformitätsbewertungsverfahren. Der Text ändert auch die Bestimmungen über den Ausschuss für künstliche Intelligenz erheblich, um ihm mehr Autonomie zu verleihen und seine Rolle in der Governance-Architektur des Gesetzes über künstliche Intelligenz zu stärken. Um die Beteiligung der Interessengruppen an allen Fragen im Zusammenhang mit der Umsetzung des AI-Gesetzes, einschließlich der Ausarbeitung von Durchführungs- und delegierten Rechtsakten, zu gewährleisten, wurde eine neue Anforderung hinzugefügt, wonach der Ausschuss eine ständige Untergruppe einsetzen muss, die als Plattform für ein breites Spektrum von Interessengruppen dient.
Was die Sanktionen für Verstöße gegen die Bestimmungen des AI-Gesetzes betrifft, so sieht der Text verhältnismäßigere Obergrenzen für Bußgelder für KMU und Start-ups vor.
Transparenz und andere Bestimmungen zugunsten der Betroffenen
Der Text enthält mehrere Änderungen, die die Transparenz in Bezug auf den Einsatz von risikoreichen KI-Systemen erhöhen. Insbesondere wurden einige Bestimmungen dahingehend aktualisiert, dass bestimmte Nutzer von KI-Systemen mit hohem Risiko, bei denen es sich um öffentliche Einrichtungen handelt, ebenfalls verpflichtet sind, sich in der EU-Datenbank für KI-Systeme mit hohem Risiko zu registrieren.
Darüber hinaus wird in einer neu hinzugefügten Bestimmung die Verpflichtung der Nutzer eines Emotionserkennungssystems hervorgehoben, natürliche Personen zu informieren, wenn sie einem solchen System ausgesetzt sind.
Der Text stellt auch klar, dass eine natürliche oder juristische Person bei der zuständigen Marktaufsichtsbehörde eine Beschwerde über die Nichteinhaltung des KI-Gesetzes einreichen kann und erwarten kann, dass eine solche Beschwerde im Einklang mit den speziellen Verfahren dieser Behörde behandelt wird.
Maßnahmen zur Unterstützung der Innovation
Mit dem Ziel, einen innovationsfreundlicheren Rechtsrahmen zu schaffen und evidenzbasiertes regulatorisches Lernen zu fördern, wurden die Bestimmungen über innovationsfördernde Maßnahmen im Text wesentlich geändert.
Insbesondere wurde klargestellt, dass KI-Sandkästen, die ein kontrolliertes Umfeld für die Entwicklung, Erprobung und Validierung innovativer KI-Systeme schaffen sollen, auch die Erprobung innovativer KI-Systeme unter realen Bedingungen ermöglichen sollten.
Darüber hinaus wurden neue Bestimmungen hinzugefügt, die unbeaufsichtigte Tests von KI-Systemen in der realen Welt unter bestimmten Bedingungen und Sicherheitsvorkehrungen ermöglichen. Um den Verwaltungsaufwand für kleinere Unternehmen zu verringern, enthält der Text eine Liste von Maßnahmen, die zur Unterstützung solcher Betreiber ergriffen werden müssen, und sieht einige begrenzte und klar spezifizierte Ausnahmen vor.
Die nächsten Schritte
Die Verabschiedung der allgemeinen Ausrichtung wird es dem Rat ermöglichen, in Verhandlungen mit dem Europäischen Parlament (“Trilog”) einzutreten, sobald dieses seinen eigenen Standpunkt festgelegt hat, um eine Einigung über die vorgeschlagene Verordnung zu erzielen.