Nach zähen Verhandlungen hat sich die EU auf schärfere Regeln für Künstliche Intelligenz (KI) geeinigt. Es seien weltweit die ersten Regeln für KI, teilten Europaparlament und die EU-Staaten in Brüssel mit. Die wichtigsten Fragen und Antworten:
Was ist KI und wie funktioniert sie?
Unter Künstlicher Intelligenz (KI) versteht man den Versuch, menschliches Lernen und Denken auf den Computer zu übertragen. Ziel ist es, komplexe Aufgaben erledigen zu lassen, die normalerweise menschliche Intelligenz erfordern. Generelle Problemlösungsmaschinen (Artificial General Intelligence) sind trotz aller Fortschritte noch nicht in Sicht. Allerdings finden enger definierte KI-Anwendungen in unserer heutigen Welt bereits breite Verwendung: Dazu zählen etwa automatische Übersetzungen, personalisierte Empfehlungen beim Online-Shopping, Gesichtserkennung am Handy, aber auch intelligente Thermostate oder Navis. Auch die Anwendungen der generativen KI wie der Text-Roboter ChatGPT gehören zu den enger definierten KI-Anwendungen.
Warum braucht es ein Gesetz dafür?
KI gilt als Zukunftstechnologie. Experten vermuten, dass die Technologie künftig praktisch alle Aspekte in der Wirtschaft, aber auch im Alltag betreffen könnte und sich zum Beispiel der Arbeitsmarkt dadurch massiv wandeln wird: Manche Jobs werden sich verändern, andere werden vielleicht ganz verschwinden. KI gilt aber auch als Technologie, die Gefahren birgt. So warnte etwa der Chef des ChatGPT-Erfinders OpenAI, Sam Altman, vor Falschinformationen mit Hilfe Künstlicher Intelligenz und sprach sich deshalb für eine Regulierung aus. Fotos oder Videos können durch KI leicht manipuliert werden. Als Problem gilt auch, dass KI teilweise mit verzerrten Datensätzen trainiert wurden und damit Personen diskriminiert werden. Auch der Einsatz in der Kriegsführung wird für möglich gehalten.
Worauf hat sich die EU nun verständigt?
Die nun vorgelegten Vorschriften legen Verpflichtungen für KI auf Grundlage ihrer potenziellen Risiken und Auswirkungen fest. Als besonders riskant werden KI eingestuft, die ein erhebliches Schadenspotenzial etwa für Gesundheit, Demokratie, Umwelt oder Sicherheit haben.
Bestimmte Anwendungen werden komplett verboten, etwa biometrische Kategorisierungssysteme, die sensible Merkmale wie zum Beispiel die sexuelle Orientierung oder religiöse Überzeugungen verwenden. Auch das ungezielte Auslesen von Bildern aus dem Internet oder aus Überwachungsaufnahmen für Gesichtserkennungsdatenbanken soll nicht erlaubt sein. Allerdings wird es Ausnahmen für biometrische Identifizierungen im öffentlichen Raum in Echtzeit geben, etwa bei der Gefahr eines Terroranschlags oder bei der gezielten Suche von Opfern von Menschenhandel. Um diesen Punkt wurde intensiv gerungen, das EU-Parlament wollte eigentlich ein komplettes Verbot.
Ein weiterer Streitpunkt war die Regulierung von sogenannten Basismodellen. Das sind sehr leistungsfähige KI-Modelle, die mit einem breiten Satz an Daten trainiert wurden. Sie können die Grundlage für viele andere Anwendungen sein. Dazu zählt etwa GPT. Deutschland, Frankreich und Italien hatten zuvor gefordert, dass nur konkrete Anwendungen von KI reguliert werden sollten, nicht aber die Basis-Technologie an sich. Nun einigten sich die Unterhändler auf bestimmte Transparenzpflichten für diese Modelle.
Wie fallen die Reaktionen aus?
EU-Kommissionspräsidentin Ursula von der Leyen begrüßte die Einigung und bezeichnete das Gesetz als «weltweites Novum». Svenja Hahn von der FDP zieht eine gemischte Bilanz: «In 38 Stunden Verhandlung über drei Tage konnten wir eine massive Überregulierung von KI-Innovation verhindern und rechtsstaatliche Prinzipien beim Einsatz von KI in der Strafverfolgung verankern. Ich hätte mir mehr Freude an Innovation und noch stärkere Bekenntnisse zu Bürgerrechten gewünscht», sagte sie. Der rechtspolitische Sprecher der CDU, Axel Voss, teilte mit, er sei nicht davon überzeugt, dass dies der richtige Weg sei, um Europa im Bereich der KI wettbewerbsfähig zu machen. «Innovation wird immer noch anderswo stattfinden. Hier haben wir als Europäische Union unsere Chance verpasst.»
Die europäische Verbraucherschutzorganisation Beuc kritisierte, dass sich die EU zu sehr auf den guten Willen der Unternehmen zur Selbstregulierung verlasse. «So werden beispielsweise virtuelle Assistenten oder KI-gesteuerte Spielzeuge nicht ausreichend reguliert, da sie nicht als Hochrisikosysteme gelten. Auch Systeme wie ChatGPT oder Bard werden nicht die notwendigen Leitplanken erhalten, damit die Verbraucher ihnen vertrauen können», hieß es.
Wie geht es nun weiter?
Zunächst müssen EU-Staaten und Europaparlament dem Vorhaben noch offiziell zustimmen. Das gilt aber als Formsache. Gelten soll das Gesetz dann zwei Jahre nach Inkrafttreten.