Das erste KI-Gesetz der Welt: Warum es insbesondere Menschen auf der Flucht schützen muss
Einigung für das erste Gesetz zur Regulierung künstlicher Intelligenz
Im Rahmen ihrer Digitalstrategie hat die Europäische Kommission einen Rechtsakt zur Regulierung der künstlichen Intelligenz (englisch: AI Act) vorgeschlagen, um bessere Bedingungen für die Entwicklung und Nutzung von künstlicher Intelligenz (KI) in Europa zu gewährleisten und Gefahren vorzubeugen. Das Ziel der Gesetzgeber war es, die Vorteile und Chancen von KI mit dem Schutz der Grundrechte und der Gefahrenabwehr in Einklang zu bringen.
Nach langen und komplizierten Verhandlungen haben wir als Parlament im Dezember 2023 eine Einigung mit dem Rat der EU (also den Mitgliedstaaten) erzielt. Damit wird die erste Verordnung zur Regulierung von KI überhaupt geschaffen, was ein großer Erfolg ist. Auch wenn viele Anwendungsbereiche der künstlichen Intelligenz noch erforscht werden, ist bereits jetzt klar, dass es in Zukunft weitere Regulierungen braucht. Auch wir Grüne hätten uns weitergehende Regelungen gewünscht, insbesondere mit Fokus auf den Schutz von Grundrechten und vulnerablen Gruppen. Denn beispielsweise besteht weiterhin die Gefahr, dass Vorurteile und Diskriminierung durch KI verstärkt werden. Welche Risiken das digitale Zeitalter und künstliche Intelligenz für die Rechte von Asylsuchenden bedeuten, zeigt Amnesty International auch in einem ausführlichen Bericht auf.
Die Gefahren von Künstlicher Intelligenz am Beispiel der Migrationssteuerungssteuerung
Beim Grenzschutz ist es leider nicht gelungen, die Regulierung von Echtzeitüberwachung und anderen Maßnahmen ebenso einzuschränken, wie in anderen Bereichen. Außerdem besteht beim Einsatz künstlicher Intelligenz die große Gefahr, dass die Rechte marginalisierter Personengruppen, zum Beispiel von Asylsuchenden oder Migrant:innen, verletzt werden. Dies kann beispielsweise durch Profiling, automatisierte “Risikobewertungen” und allgegenwärtige Überwachungspraktiken passieren. EU-Regierungen setzen zunehmend KI-gestützte Überwachungssysteme an den Grenzen ein. Diese Systeme nutzen Algorithmen, um Daten von Kameras, Drohnen und Sensoren zu analysieren und Grenzschutzbeamte bei ihren Entscheidungen in Echtzeit zu unterstützen. Auch in Asylverfahren soll KI eingesetzt werden, etwa bei der Bearbeitung von Asylanträgen. Dabei kann es zu relevanten Fehleinschätzungen und komplizierten, bürokratischen Verfahren kommen. Der AI-Act wird nur begrenzt dazu beitragen, solche Gefahren zu verhindern.
Bestimmte KI-Anwendungen werfen erhebliche ethische und rechtliche Bedenken auf, wie zum Beispiel Lügendetektoren und biometrische Erkennungssysteme. Der AI-Act setzt hier an und reguliert solche Überwachungsmöglichkeiten. Allerdings konnten wir Grünen uns nicht an allen Stellen durchsetzen, sodass beispielsweise weiterhin Missbrauch der Technologie bei der Grenzüberwachung droht. Es gibt derzeit einen deutlichen Mangel an verlässlichen Daten über die Fehleranfälligkeit solcher Technologien, insbesondere bei der Gesichtserkennung. Solche Systeme bergen das Risiko, grundlegende Menschenrechte zu verletzen, wie das Recht auf Privatsphäre und das Nichtzurückweisungsgebot, das verbietet, Menschen in Gebiete zurückzuweisen, in denen ihnen eine unmittelbare Gefahr droht.
Worauf bei der Weiterentwicklung entsprechender Gesetzgebung geachtet werden muss
Für die Weiterentwicklung ist es wichtig, auf wesentliche Schwachstellen des AI Act hinzuweisen, auch wenn es grundsätzlich ein großer Erfolg ist, dass es einen europaweiten Einstieg in die Regulierung von KI gibt. Der im AI Act gefundene Kompromiss besteht darin, bestimmte Formen künstlicher Intelligenz zu verbieten, die als gefährlich eingestuft werden, während andere KI-Funktionen als hochriskant eingestuft werden, die eine strenge Überwachung und die Einhaltung strikter Regulierungsstandards erfordern.
Trotz erheblicher Zugeständnisse, die wir als Grüne machen mussten, wie das fehlende Verbot biometrischer Überwachung, erhebliche Mängel beim Klassifizierungssystem für Hochrisiko-KI und breite Ausnahmen für den Einsatz von KI in der Strafverfolgung, sind wir als Fraktion mit dem Verhandlungsergebnis zufrieden. Die Zukunft wird zeigen, wie robust und zukunftssicher diese Verordnung angesichts der rasanten technologischen Entwicklung um KI sein wird. Vermutlich wird es zeitnah Anpassungen geben müssen.
Zu den wichtigsten Erfolgen für unsere Fraktion gehören:
- Der Anwendungsbereich der KI-Verordnung, der nun auch allgemeine KI umfasst.
- Definitionen von KI-Systemen, die mit internationalen Standards und den OECD-Prinzipien übereinstimmen.
- Verbot von Echtzeit-Fernbiometrie-Identifikation etc. in öffentlich zugänglichen Räumen.
- Kategorisierung von Hochrisiko-KI-Systemen und damit verbundene Verpflichtungen bzw. Einschränkungen.
- Eine grundlegende Grundrechtsfolgenabschätzung vor der Einführung eines Hochrisiko-Systems.
- Verpflichtungen für allgemeine KI-Modelle, einschließlich technischer Dokumentation und Transparenz.
- Umweltverpflichtungen, die einen neuen Schwerpunkt im Gesetz darstellen
- Ein neues „KI-Büro“ der Kommission, das die Bestimmungen für allgemeine KI-Modelle überwacht und durchsetzt.
- Transparenzregeln für Deepfakes und regulatorische Sandkästen, um Start-ups und KMU bei der Entwicklung von KI zu unterstützen, die vollständig mit der Verordnung konform ist.