Nach zähen Verhandlungen hat sich die EU auf schärfere Regeln für Künstliche Intelligenz (KI) geeinigt. Es seien weltweit die ersten Regeln für KI, teilten Europaparlament und die EU-Staaten am Freitagabend in Brüssel mit. Die wichtigsten Fragen und Antworten:
Was ist KI und wie funktioniert sie?
Unter Künstlicher Intelligenz (KI) versteht man den Versuch, menschliches Lernen und Denken auf den Computer zu übertragen. Ziel ist es, komplexe Aufgaben erledigen zu lassen, die normalerweise menschliche Intelligenz erfordern. Generelle Problemlösungsmaschinen (Artificial General Intelligence) sind trotz aller Fortschritte noch nicht in Sicht. Allerdings finden enger definierte KI-Anwendungen in unserer heutigen Welt bereits breite Verwendung: Dazu zählen etwa automatische Übersetzungen, personalisierte Empfehlungen beim Online-Shopping, Gesichtserkennung am Handy, aber auch intelligente Thermostate oder Navis. Auch die Anwendungen der generativen KI wie der Text-Roboter ChatGPT gehören zu den enger definierten KI-Anwendungen.
Warum braucht es ein Gesetz dafür?
KI gilt als Zukunftstechnologie. Experten vermuten, dass die Technologie künftig praktisch alle Aspekte in der Wirtschaft, aber auch im Alltag betreffen könnte und sich zum Beispiel der Arbeitsmarkt dadurch massiv wandeln wird: Manche Jobs werden sich verändern, andere werden vielleicht ganz verschwinden. KI gilt aber auch als Technologie, die Gefahren birgt. So warnte etwa der Chef des ChatGPT-Erfinders OpenAI, Sam Altman, vor Falschinformationen mit Hilfe Künstlicher Intelligenz und sprach sich deshalb für eine Regulierung aus. Fotos oder Videos können durch KI leicht manipuliert werden. Als Problem gilt auch, dass KI teilweise mit verzerrten Datensätzen trainiert wurden und damit Personen diskriminiert werden. Auch der Einsatz in der Kriegsführung wird für möglich gehalten.
Worauf hat sich die EU nun verständigt?
Die nun vorgelegten Vorschriften legen Verpflichtungen für KI auf Grundlage ihrer potenziellen Risiken und Auswirkungen fest. Als besonders riskant werden KI eingestuft, die ein erhebliches Schadenspotenzial etwa für Gesundheit, Demokratie, Umwelt oder Sicherheit haben.
Bestimmte Anwendungen werden komplett verboten, etwa biometrische Kategorisierungssysteme, die sensible Merkmale wie zum Beispiel die sexuelle Orientierung oder religiöse Überzeugungen verwenden. Auch das ungezielte Auslesen von Bildern aus dem Internet oder aus Überwachungsaufnahmen für Gesichtserkennungsdatenbanken soll nicht erlaubt sein. Allerdings wird es Ausnahmen für biometrische Identifizierungen im öffentlichen Raum in Echtzeit geben, etwa bei der Gefahr eines Terroranschlags oder bei der gezielten Suche von Opfern von Menschenhandel. Um diesen Punkt wurde intensiv gerungen, das EU-Parlament wollte eigentlich ein komplettes Verbot.
Ein weiterer Streitpunkt war die Regulierung von sogenannten Basismodellen. Das sind sehr leistungsfähige KI-Modelle, die mit einem breiten Satz an Daten trainiert wurden. Sie können die Grundlage für viele andere Anwendungen sein. Dazu zählt etwa GPT. Deutschland, Frankreich und Italien hatten zuvor gefordert, dass nur konkrete Anwendungen von KI reguliert werden sollten, nicht aber die Basis-Technologie an sich. Nun einigten sich die Unterhändler auf bestimmte Transparenzpflichten für diese Modelle.
Wie fallen die Reaktionen aus?
Je nach Interesse und Blickwinkel ganz unterschiedlich: Kritisiert wird entweder eine zu starke, innovationsfeindliche Regulierung oder nicht ausreichende Beschränkungen von KI-Anwendungen. EU-Kommissionspräsidentin Ursula von der Leyen begrüßte die Einigung und bezeichnete das Gesetz als «weltweites Novum».
Nach Ansicht des Bundesverbands der Deutschen Industrie (BDI) droht Europa bei der Schlüsseltechnologie KI nun ins Hintertreffen zu geraten. «Mit der umfassenden Regulierung von KI-Basismodellen und KI-Anwendungen gefährdet der AI Act die Wettbewerbs- und Innovationsfähigkeit sowohl auf Hersteller- als auch auf Anwenderseite», sagte BDI-Geschäftsführungsmitglied Iris Plöger. Die Regulierung basiere auf unausgereiften Kriterien, die den Unternehmen weniger statt mehr Rechtssicherheit brächten.
Die Bundesverbraucherschutzministerin Steffi Lemke (Grüne) sieht in der KI-Verordnung hingegen einen Schutz für Verbraucher vor den Risiken der neuen Technologie. «In den Verhandlungen haben wir uns besonders dafür eingesetzt, dass KI-Systeme transparent, nachvollziehbar und überprüfbar gestaltet werden. So müssen nun künftig Unternehmen, die den Einsatz von KI-Technologien anbieten, Informationen über die Funktionsweise ihrer Systeme bereitstellen und KI-gestützte Entscheidungen erläutern», berichtete Lemke am Samstag. Bei Verstößen könnten Verbraucherverbände mit Verbandsklagen gerichtlich dagegen vorgehen.
Die europäische Verbraucherschutzorganisation Beuc kritisierte, dass sich die EU zu sehr auf den guten Willen der Unternehmen zur Selbstregulierung verlasse. «So werden beispielsweise virtuelle Assistenten oder KI-gesteuerte Spielzeuge nicht ausreichend reguliert, da sie nicht als Hochrisikosysteme gelten. Auch Systeme wie ChatGPT oder Bard werden nicht die notwendigen Leitplanken erhalten, damit die Verbraucher ihnen vertrauen können», hieß es.
Wie geht es nun weiter?
Zunächst müssen EU-Staaten und Europaparlament dem Vorhaben noch offiziell zustimmen. Das gilt aber als Formsache. Gelten soll das Gesetz dann zwei Jahre nach Inkrafttreten.