In Italien hat die Debatte über die Gefährlichkeit von Deepfakes wieder an Dynamik gewonnen, nachdem die Ministerpräsidentin Giorgia Meloni darauf hingewiesen hatte, dass im Netz falsche Fotos kursieren, auf denen ihr Gesicht auf dem Körper einer in Unterwäsche bekleideten Frau zu sehen ist. Programme, die derartige Bilder erzeugen, werden bald in der gesamten EU verboten sein.
Der Rat der Europäischen Union und das Europäische Parlament haben eine Einigung über eine Reihe von Änderungen am sogenannten AI Act erzielt, dem europäischen Regelwerk zur künstlichen Intelligenz, das im August 2024 in Kraft getreten ist. Die Einigung, die nun formell von beiden Institutionen angenommen werden muss, ist Teil des siebten Pakets zur Normenvereinfachung der EU (dem sogenannten Omnibus VII) und führt zwei wichtige Neuerungen ein: das ausdrückliche Verbot von KI-Systemen, die verwendet werden, um nicht einvernehmliche sexuelle Bilder zu erzeugen (die sogenannten Nudifier) oder Materialien sexuellen Missbrauchs an Minderjährigen, und eine Verschiebung der Fristen für Unternehmen, die sich an die Regeln für Hochrisikosysteme anpassen müssen.
Die Gesetzesänderung
Der AI Act wurde im Mai 2024 nach jahrelangen Verhandlungen verabschiedet und trat im August desselben Jahres in Kraft. Es handelt sich um den weltweit ersten kohärenten Rechtsrahmen für künstliche Intelligenz.
Das Regelwerk enthielt bereits absolute Verbote, etwa biometrische Massenwiederkennung in Echtzeit in öffentlichen Räumen oder Systeme der sozialen Kontrolle, aber es betraf noch nicht die Frage der sexuell motivierten Deepfakes, ein Phänomen, das zu diesem Zeitpunkt noch selten war oder kaum bekannt war. Die Gesetzgeber nutzten daher die Aufforderung der Kommission, den Text zu vereinfachen, um diese Lücke zu schließen.
„Neben den Vereinfachungsmaßnahmen verbieten wir Nudifier-Apps und natürlich die Produktion von material pädophiler Natur mittels KI-Systemen. Auf diese Weise verfügen wir über die notwendigen Instrumente, um einzugreifen, falls Anbieter nicht gegen KI-Systeme vorgehen, die Grundrechte oder die menschliche Würde gefährden“, erklärte der liberale Irische Michael McNamara, einer der Berichterstatter des Textes.
Das Verbot sexueller Deepfakes
Die sogenannten Nudifier sind Anwendungen (oft auch kostenlos online verfügbar), die künstliche Intelligenz nutzen, um Bilder oder Videos zu erzeugen, in denen eine Person nackt oder in sexuell expliziten Posen dargestellt wird, ohne deren Einwilligung. In Italien wurde mit einem im Oktober des vergangenen Jahres in Kraft getretenen Gesetz die Produktion und Verbreitung solcher Bilder verboten. Die EU geht jedoch einen Schritt weiter und verbietet künftig jegliche Programme, die solche Inhalte erzeugen könnten.
Der Vertrag führt einen neuen Artikel in die Verordnung ein, der drei unterschiedliche Verhaltensweisen untersagt: die Einführung auf den europäischen Markt von KI-Systemen, die speziell darauf ausgelegt sind, solche Inhalte zu erzeugen; den Handel mit Systemen, die keine „angemessenen Sicherheitsmaßnahmen“ besitzen, um eine derartige Nutzung zu verhindern; und schließlich für die Nutzer dieser Systeme (die sogenannten Deployers), sie gezielt zu diesem Zweck einzusetzen. Das Verbot gilt für Bilder, Videos und Audioinhalte.
Die gleiche Logik gilt auch für künstlich erzeugte Materialien sexuellen Missbrauchs an Minderjährigen: Der Vertrag verbietet ausdrücklich jedes System, das darauf ausgelegt ist, solche Inhalte zu erzeugen, oder das keine angemessenen Maßnahmen zur Verhinderung ihrer Erzeugung vorsieht.
„Es ist absurd, dass heute nur drei Klicks ausreichen, um Bilder von Frauen und Kindern zu manipulieren und Nacktaufnahmen oder pornografisches Material zu erstellen. Heute beenden wir endgültig diese Art von Gewalt gegen Menschen und Kinder“, erklärte die niederländische Grüne Kim van Sparrentak. Die EU-Abgeordnete versprach, dass „Ausnahmen für die Industrie nicht unsere Sicherheit übertreffen werden“, denn „Künstliche Intelligenz muss immer sicher sein und darf weder Grundrechte diskriminieren noch eine Gefahr für die Menschenwürde darstellen“.
Unternehmen haben bis zum 2. Dezember 2026 Zeit, ihre Systeme an diese Anforderungen anzupassen. Wer sich nicht anpasst, dem drohen Geldstrafen von bis zu 35 Millionen Euro oder bis zu 7 Prozent des weltweiten Jahresumsatzes, je nachdem, welcher Betrag höher ist.
Ein weiteres Jahr für Hochrisikosysteme
Der zweite große Teil der Vereinbarung betrifft den Fahrplan für Systeme, die als „hochriskant“ eingestuft werden, und gewährt Unternehmen mehr Zeit, um eine Reihe neuer Verpflichtungen zu erfüllen: das System in einer europäischen Datenbank zu registrieren, zu dokumentieren, wie es funktioniert und auf welchen Daten es trainiert wurde, nachzuweisen, dass es getestet wurde und dass Risiken kontrollierbar sind, eine menschliche Aufsicht bei der Nutzung sicherzustellen und sich vor unabhängigen Prüfstellen prüfen zu lassen, bevor es auf den Markt kommt.
Der AI Act unterscheidet zwei Typen von Hochrisikosystemen. Der erste Typ ist reine Software: etwa ein Algorithmus, der Lebensläufe für Einstellungen analysiert, ein Gesichtserkennungssystem oder ein Programm, das von Sicherheitskräften verwendet wird. Der zweite Typ ist KI, die in ein physisches Objekt integriert ist: die Software eines Herzschrittmachers, das automatische Bremssystem eines Autos, die intelligenten Sensoren einer Industrieanlage. Für beide Typen verschieben sich die Fristen: Der erste Gruppe muss bis Dezember 2027 konform sein, der zweite bis August 2028. Der Grund für die Verschiebung ist praktisch: Die Einhaltung des Gesetzes erfordert präzise technische Standards (wie lässt sich zertifizieren, dass ein Algorithmus „ausreichend sicher“ ist?) und nationale Behörden, an die sich Unternehmen für Überprüfungen und Kontrollen wenden können. Weder das eine noch das andere ist derzeit bereit.
Das Watermarking bei generativer KI
Eine weitere Änderung betrifft die gegenteilige Maßnahme: Die Pflicht zur Kennzeichnung von Inhalten, die von KI generiert werden (das sogenannte Watermarking), wird vorgezogen, nicht verschoben. Mit der Vereinbarung müssen Systeme generativer KI bis zum 2. Dezember 2026 Techniken zur Kennzeichnung ihrer Inhalte (Fotos, Videos und Texte) anwenden, statt wie ursprünglich von der Kommission vorgesehen am 2. Februar 2027. Watermarking ist ein Werkzeug, das dazu dient, Inhalte künstlicher Herkunft zu erkennen und nachzuverfolgen, wodurch Desinformation und Manipulation reduziert werden soll.
Weniger Bürokratie für KMU
Der Wegfall bestimmter bürokratischer Hürden wird auf kleine und mittlere Unternehmen (KMU) ausgedehnt und gilt künftig auch für die sogenannten „Small Mid-Cap“ (im Englischen Small Mid-Cap, Smc), also Unternehmen, die die KMU-Schwellenwerte überschritten haben, aber noch relativ klein sind. Diese Akteure, die von bestimmten prozessualen Verpflichtungen des AI Act ausgenommen sind, dürfen KI-Systeme mit reduzierter Bürokratie entwickeln und vertreiben. Ziel ist es sicherzustellen, dass die Regulierung Unternehmen mit begrenzten Ressourcen nicht unverhältnismäßig benachteiligt, im Besonderen jenen, die nicht die Ressourcen eines großen Industrie- oder Technologiekonzerns besitzen.