Die SPD-Bundestagsfraktion positioniert sich zum Umgang mit Technologien der Künstlichen Intelligenz (KI). Dies ist das Positionspapier, das ich gemeinsam mit meinem Kollegen Armand Zorn erarbeitet habe. Es war die Grundlage für die Fraktionsabstimmung am 17. Januar 2023.
Der Artificial Intelligence Act: Regulierung für vertrauenswürdige KI
Künstliche Intelligenz (KI) ist eine Schlüsseltechnologie, die zahlreiche Potenziale für Gesellschaft, Wirtschaft und Wissenschaft bereithält. Gleichzeitig birgt KI jedoch auch Risiken, die Bürger:innen, Verbraucher:innen oder Arbeitnehmer:innen direkt betreffen können. Um Grund- und Persönlichkeitsrechte zu schützen und gleichzeitig die Potenziale der Technologie zu heben, brauchen wir eine geeignete Regulierung Künstlicher Intelligenz.
Wir begrüßen, dass mit dem Artificial Intelligence Act (AIA) gegenwärtig auf EU-Ebene ein Rechtsrahmen entsteht, der erstmalig harmonisierte Standards für vertrauenswürdige, menschenzentrierte KI formuliert – ein starker Gegenentwurf zum chinesischen und dem US-amerikanischen Modell, der europäische Innovation und Souveränität verspricht.[1]
Fundament des Regelwerks ist der sogenannte risikobasierte Ansatz: Er unterteilt KI-Anwendungen nach dem Risiko, das sie für die Gesundheit und Sicherheit oder die Grundrechte von Personen darstellen. Aus der Einstufung ergeben sich für Anbieter:innen[2] und Nutzer:innen[3] jeweils unterschiedliche Anforderungen bei der Entwicklung und der Verwendung von KI-Anwendungen in der EU. Es fallen laut aktuellen Schätzungen nur etwa 5 bis 15 Prozent der Anwendungen in den mit besonderen Auflagen und Pflichten belegten Hochrisikobereich. Für die große Mehrheit der KI-Systeme gelten deutlich geringere Anforderungen.
In der Ausgestaltung des europäischen AIA sind der SPD-Bundestagsfraktion folgende Punkte wichtig:
1) Risikobasierter Ansatz als geeignetes Instrument
Die SPD-Bundestagsfraktion begrüßt den risikobasierten Ansatz, da er Verhältnismäßigkeit wahrt und ausreichend Raum für die Innovationskraft der Unternehmen lässt. Durch die Berücksichtigung von Risiken wird Vertrauen in der Bevölkerung geschaffen. Diese gesellschaftliche Akzeptanz wirkt sich positiv auf die Nutzung von KI und folglich auf die Wettbewerbsfähigkeit des europäischen Standorts aus. Damit kann die EU einen internationalen Goldstandard setzen und KI Made in Europe fördern. Der risikobasierte Ansatz schafft die richtige Balance aus der Stärkung von Innovationen und der Minimierung von Risiken.
2) Innovationspotenziale in der Wirtschaft heben
Wir sind davon überzeugt, dass der AIA einen verlässlichen Rechtsrahmen schafft, der Unternehmen die Rechtssicherheit für ihre Anwendungen und Investitionen gibt. Gerade für KMU und Start-ups sind klare und einfache Regeln wichtig, da sie im Zweifelsfall nicht auf große Teams von Rechtsexpert:innen zurückgreifen können. Des Weiteren ermöglichen Reallabore die Erprobung von neuen KI-Systemen und können so ein wertvolles Instrument sein, um Innovationen von der Forschung in die Anwendung zu bringen.
3) Transparenz herstellen
Bürger:innen werden oft nicht darüber aufgeklärt, dass eine KI entscheidet – selbst dann, wenn diese Entscheidungen weitreichende Folgen für sie und ihre Lebensrealitäten haben. Das muss sich ändern: Um für Klarheit zu sorgen, brauchen wir eine Kennzeichnungspflicht für alle KI-Anwendungen im Hochrisikobereich. Die Forderung nach Transparenz betrifft aber nicht nur die Privatwirtschaft, sondern auch öffentliche Stellen mit Verfügungsgewalten in den Bereichen Sicherheit, Migration, Asyl oder Steuern. Dieser besonderen Verantwortung wollen wir mit einem Register begegnen, das für jede:n zugänglich alle staatlich eingesetzten KI-Anwendungen inklusive ihrer Einsatzzwecke auflistet. Eng begrenzte Ausnahmen darf es nur dann geben, wenn schon durch die Nennung von Anwendung und Einsatzzweck die Arbeitsfähigkeit der Behörden durch Rückschlüsse auf ihre Fähigkeiten negativ beeinträchtigt würde.
4) Nachvollziehbarkeit gewährleisten und Rechtsweg öffnen
Bürger:innen sind erst dann handlungsfähig, wenn eine KI-Entscheidung für sie nachvollziehbar und auch anfechtbar ist. Dazu gehört, zu wissen, welche (Teile von) Entscheidungsprozesse(n) auf welche Art von Künstlicher Intelligenz getroffen werden. Anbieter:innen und Nutzer:innen sollten deshalb in die Pflicht genommen werden, grundsätzlich auf Anfrage sachgerechte und konkrete Informationen bereitzustellen. Wichtig ist uns außerdem, dass die rechtlichen Bedingungen geschaffen werden, dass Betroffene bei einer Fehlentscheidung Beschwerde einlegen und Klage erheben können – individuell, aber auch im Wege des kollektiven Rechtsschutzes mittels Verbandsklage. Hier ist aktuell unklar, inwiefern diese Rechte durch die DSGVO und andere Rechtsnormen hergestellt werden können. Deswegen sollte der AIA an dieser Stelle präzisiert werden und für das Recht auf erneute rechtskonforme Entscheidung ausdrücklich ein Klagerecht vorsehen.
5) Zu unabhängiger Prüfung verpflichten
Unternehmen handeln in erster Instanz nach wirtschaftlichen Interessen. Gerade im Hochrisikobereich brauchen wir deshalb Prüfungen unabhängiger Dritter. Das gilt ebenso für die Überprüfung von KI-Systemen, die beispielsweise in Sicherheitsbehörden zur Anwendung kommen. Nur so können wir sicherstellen, dass Standards eingehalten und die Rechte von Bürger:innen wirksam geschützt werden.
6) Arbeitnehmer:innenrechte schützen und stärken
Alle KI-Systeme, die im Arbeits- und Sozialbereich eingesetzt werden, sollten in den Hochrisikobereich der Regulierung eingestuft werden. Denn: Der Einsatz von KI am Arbeitsplatz kann weitreichende Auswirkungen auf die Sicherheit und das Wohlbefinden von Arbeitnehmer:innen haben. Die Einstufung in den Hochrisikobereich sollte sich nicht auf die in Annex III gelisteten Systeme beschränken, sondern auch Mensch-Maschine-Interaktionen, wie Cobots, algorithmisches Management und weitere Anwendungen umfassen. Darüber hinaus fordert die SPD-Bundestagsfraktion die Einführung einer Öffnungsklausel. Diese Klausel würde den Mitgliedsstaaten die Festlegung spezifischer Regelungen durch nationale Rechtsvorschriften oder Kollektivvereinbarung zur Einführung und Nutzung von KI im Beschäftigungskontext ermöglichen. Dazu gehört vor allem, dass Mitarbeiter:innen effektiv in die Entscheidung und Gestaltung von KI-Anwendungen am Arbeitsplatz einbezogen werden müssen. Dafür ist entscheidend, den Einsatz und die Ausgestaltung von KI-Anwendungen am Arbeitsplatz zum Gegenstand der Mitbestimmung der Kolleg:innen in den Betrieben und Unternehmen zu machen.
7) Verbraucher:innenrechte schützen und stärken
KI-Anwendungen erhalten zunehmend Einzug in Dienstleistungen des Versicherungs- und Finanzwesens, zum Beispiel bei der Vergabe von Krediten an Privatpersonen. Um Verbraucher:innen vor diesen Schäden zu schützen und ihre Rechte zu stärken, muss die Liste der Hochrisiko-Anwendungen um die beiden Bereiche ergänzt werden.
8) Innovationspotenziale in der Polizeiarbeit heben und Diskriminierung ausschließen
Der Einsatz von KI bietet Chancen für die innere Sicherheit, insbesondere zur Entlastung der Mitarbeiter:innen der Sicherheitsbehörden. Bei der Auswertung großer Datenmengen sind sie auf technische Unterstützung durch KI angewiesen. Predictive-Policing-Systeme können die Polizeiarbeit unterstützen, indem sie Prognosen zu zukünftigen Tatgeschehen liefern. Bei Verwendung personenbezogener Daten kann ihr Einsatz aber zur Diskriminierung marginalisierter Gruppen und zur Verstärkung von Vorurteilen führen. Um dem entgegenzuwirken, sollte der Einsatz von Systemen, die mit den genannten Risiken verbunden sind, ohne Ausnahmen verboten werden.
9) Überwachung verhindern
Systeme der biometrischen Echtzeit-Fernidentifizierung gleichen persönliche Merkmale mit Informationen aus Datenbanken ab. Statt einzelner werden hier aber ausnahmslos alle Personen erfasst. Das greift tief in die Grund- und Persönlichkeitsrechte der betroffenen Bürger:innen ein. Daher ist die biometrische Erkennung im öffentlichen Raum durch KI europarechtlich auszuschließen. Gleiches fordern wir für Social-Scoring-Systeme: Sie dokumentieren das Verhalten von Bürger:innen, um daraus Prognosen für zukünftige Verhaltensweisen zu erstellen. Nicht nur verletzt das deren Recht auf Privatsphäre – Bürger:innen droht bei als „unerwünscht“ eingestuftem Verhalten außerdem Benachteiligung.
10) Verletzliche Personengruppen schützen
Kinder, ältere Menschen und Personen mit Behinderung sind im Umgang mit KI einem erhöhten Risiko ausgesetzt. Um sie zu schützen, müssen wir Systeme, die Schwächen ausnutzen oder Methoden der Manipulation einsetzen, verbieten. Dazu gehören auch Emotionserkennungssysteme, die mittels biometrischer Daten wie Mimik oder Stimme Schlüsse auf den emotionalen Zustand oder die Persönlichkeit eines Menschen zu ziehen versuchen – und ausgehend von oftmals verzerrten Ergebnissen zum Beispiel im Bereich des Marketings personalisierte Angebote ausspielen, die für die Betroffenen nachteilig ausfallen.
11) Diskriminierende Algorithmen verhindern
Viele Menschen sind im Umgang mit KI erhöhten Diskriminierungsgefahren ausgesetzt. Denn eine KI kann nur so neutral und objektiv sein, wie die ihr zugrundeliegenden Trainingsdaten. Unreflektierte Trainingsdaten führen deshalb zu einer Reproduktion von intersektionaler (also additiver) Diskriminierung gegen das Geschlecht, die ethnische Herkunft, die sexuelle und geschlechtliche Identität, die Religion oder Weltanschauung, die körperlichen und geistigen Fähigkeiten, das Alter und gegen die soziale Herkunft. Die Gefahr hierfür erhöht sich, wenn KI-Systeme und Anwendungen von weißen, männlich dominierten Teams entwickelt werden. Das Risiko von intersektionaler Diskriminierung muss mittels klarer Risiko- sowie Folgenabschätzungen ausgeschlossen werden.
12) Kritische Infrastruktur schützen und neue Potenziale nutzen
Künstliche Intelligenz kann im Bereich kritischer Infrastrukturen, also insbesondere Stromversorgung, Telekommunikation, Gesundheitsversorgung, aber auch Verkehr und Transport, enorme Potenziale heben und für mehr Sicherheit sorgen. Da es sich jedoch um elementare Systeme handelt, die für die Aufrechterhaltung zentraler Bestandteile in unserer Gesellschaft notwendig sind, sind besondere Regularien unabdinglich. Daher begrüßen wir, dass die Bereiche kritischer Infrastrukturen und Mobilität im Hochrisikobereich eingestuft sind und das Thema Cybersicherheit deutlich adressiert wird.
[1] Der Anwendungsbereich des AIAs umfasst die zivile Nutzung von KI. Die militärische Verwendung wird in einem separaten Rechtsrahmen reguliert.
[2] Ein:e Anbieter:in ist laut AIA „eine natürliche oder juristische Person, Behörde, Einrichtung oder sonstige Stelle, die ein KI-System entwickelt oder entwickeln lässt, um es […] in Verkehr zu bringen oder in Betrieb zu nehmen“.
[3] Eine:n Nutzer:in definiert der AIA als „eine natürliche oder juristische Person, Behörde, Einrichtung oder sonstige Stelle, die ein KI-System in eigener Verantwortung verwendet, es sei denn, das KI-System wird im Rahmen einer persönlichen und nicht beruflichen Tätigkeit verwendet“.
Neueste Kommentare