EU-Parlament einigt sich auf Regulierung von Künstlicher Intelligenz – Schutz der Verbraucher:innen steht im Mittelpunkt

Das EU-Parlament hat sich auf eine gemeinsame Position zur Regulierung von Künstlicher Intelligenz (KI) wie etwa ChatGPT geeinigt. Die Einhaltung der Grundrechte sowie der Schutz der Verbraucher:innen steht dabei im Zentrum. Laut dem Vorschlag sollen KIs in vier Gruppen eingeteilt werden. Von inakzeptablen bis minimalen Risiken. Verboten werden sollen etwa Gesichtserkennungssoftware oder Sozial-Scoring-System, wie sie in China benutzt werden. Es wäre die weltweit erste Regulierung von Künstlicher Intelligenz. 

Künstliche Intelligenz (KI) wird schon heute in vielen Lebensbereichen eingesetzt. Dabei bringt sie enorme Chancen, aber auch Risiken mit sich. Auf der einen Seite schützt sie unseren E-Mail-Account vor Spam und schädlicher Software, erleichtert uns die Suche im Internet oder unterstützt Mediziner:innen bei der Diagnose von Brustkrebs. Auf der anderen Seite kann sie zur Verbreitung von Desinformation, Täuschung und Überwachung eingesetzt werden. 

Das EU-Parlament will jetzt klare Regeln für die Verwendung von KIs. Dadurch sollen die Nutzer:innen und ihre Grundrechte geschützt werden. Weltweit wäre das der erste Versuch, Künstliche Intelligenz zu regulieren. 

Verbot von Überwachung durch Gesichtserkennung und Sozial-Scoring-Systemen

„Künstliche Intelligenz soll dem Menschen dienen, nicht umgekehrt.” sagt Theresa Bielowski, Mitglied im Innenausschuss des EU-Parlaments. Damit spielt sie auf missbräuchliche Anwendungen wie Sozial-Scoring-Systeme und Überwachung an, wie sie etwa in China verwendet werden. Das Regime überwacht dort die Menschen mit Gesichterkennungssoftware. Jeder Schritt, jeder Kauf, jedes Treffen wird erkannt und bewertet. Wer im Sinne des Regimes handelt, wird belohnt. Abweichendes Verhalten wird bestraft. Solche Anwendungen müssen unbedingt in der EU verboten werden, so Bielowski weiter. Ein EU-weites Gesetz wäre dahingehend der erste Schritt. 

Von einer KI erzeugte Bilder, Videos & Texte sollen klar gekennzeichnet werden

Texte, Bilder, Videos und Tonaufnahmen: Schon jetzt ist es kaum mehr möglich zu erkennen, ob Inhalte von einem Menschen oder von einer Künstlichen Intelligenz erstellt wurden. Generative KIs wie ChatGPT (Text) oder Midjourney (Bild) machen es möglich. Sie erzeugen Bilder oder Texte auf der Basis von Textbefehlen, die sich kaum von menschengemachten Inhalten unterscheiden. 

In sogenannte Deepfakes sehen wir zum Beispiel, wie Donald Trump vor einer Einsatztruppe der US-Polizei flieht oder wir hören die Stimme von Arnold Schwarzenegger in einem gefälschten Interview – und das, obwohl es n dieser Form nie stattfand. 

Die Möglichkeiten zur Täuschung, Manipulation und Fälschung sind endlos. Deswegen zielt die Regulierung darauf ab, solche KI-erstellten-Inhalte klar zu kennzeichnen. Künftig sollen Texte, Bilder und Videos, die nicht aus Menschenhand stammen, als solche gekennzeichnet werden und für die Nutzer:innen klar erkenntlich sein. 

„Durch das Gesetz sollen KI-Systeme je nach Risiko kategorisiert werden und dementsprechend verschiedenen Einschränkungen bzw. Transparenzpflichten unterliegen. Gefährliche KIs, zum Beispiel wenn es um die unkontrollierte Verbreitung von Desinformation oder Fake-Inhalten geht, sollen verboten werden, da sie die Demokratie gefährden.“ Andreas Schieder, S&D Delegationsleiter. 

Künstliche Intelligenz soll je nach Risiko in vier Gefahrenklassen eingeteilt werden

KIs werden in vielen Lebensbereichen eingesetzt. Tendenz: steigend. Die Risiken sind dabei nicht bei allen gleich groß. Laut dem Vorschlag des EU-Parlaments sollen sie deshalb in vier Risikogruppen eingeteilt werden. Von inakzeptablen Risiken bis hin zu minimalen Risiken. 

Die vier Risikogruppen:

  1. Inakzeptables Risiko: Etwa Gesichtserkennungssoftware oder Sozial-Scoring-Systeme, wie sie in China zum Einsatz kommen.
  2. Hohes Risiko: Anwendungen in der kritischen Infrastruktur, bei Grenzkontrollen, am Arbeitsmarkt und in der Bildung. 
  3. Limitiertes Risiko: Anwendungen wie Chatbots im Kundenservice. 
  4. Minimales Risiko: Spamfilter oder KI in Videospielen.

KIs, die in die erste Risikogruppe fallen, sollen verboten werden. Außerdem müssen Hersteller die Daten, mit denen sie ihre KIs trainieren, künftig auf Diskriminierungen wie Rassismus oder Sexismus hin überprüfen. Ebenfalls sollen solche KIs einer Risikoanalyse unterzogen werden, um eventuelle negative Einflüsse auf die Gesellschaft, den Menschen und die Demokratie auszuschließen. Zusätzlich soll in Zukunft jede KI Anwendung – bevor sie auf dem Markt kommt – von einer dafür eingerichteten Behörde geprüft werden.

Die Regulierung schreibt auch vor, welche Daten zum Training der KIs verwendet werden dürfen. Denn alte Daten sind oftmals verzerrt. Sie enthalten rassistische wie sexistische Einstellungen und Wertungen. Ein Datenstandard könnte die Fortschreibung von Diskriminierung verhindern, so Bielowski. 

Wie geht es mit dem “Artificial Intelligence Act” jetzt weiter?

Mit der Entscheidung des EU-Parlaments hat der AI-Act eine wichtige Hürde genommen. Denn jetzt beginnt der Trilog. Also die abschließende Verhandlung zwischen EU-Parlament, EU-Rat und der Kommission. Noch heuer könnte es zu einer Einigung kommen. Danach haben die Mitgliedstaaten zwei Jahre Zeit, die Regelung umzusetzen.