Portrait von Michael Kruse
Michael Kruse
FDP
95 %
57 / 60 Fragen beantwortet
Frage von Florian P. •

Was unternehmen Sie, um das Thema AI-Videos vor dem Hintergrund von Pornografie, Kinderpornografie, Fake-Videos von Menschen etc. aufzugreifen, da OpenAI mit Sora ein realistisches Modell entwickelt?

Sehr geehrter Herr Kruse,
die Firma OpenAI hat mit Sora am 15.2.2024 ein fotorealisitisches Videomodell vorgestellt, welches aus Sprache Videos generiert. Diese AI-Videos sind mit dem bloßen Auge für Laien nicht mehr unterscheidbar von echten Videos. Dies macht mir große Sorgen aus verschiedenen Gründen:
- Revenge Porn von Kindern, Teenagern, sonstigen Personen
- Kinderpornoprafie
- Fake-News mittels AI
- Fake-Videos zum Betrügen von Menschen
- Wahlmanipulation mittels gefälschter PolitikerInnen
Unsere Gesellschaft ist auf diese Technologie in keinster Weise vorbereitet. Schon jetzt schaffen es die Sicherheitsbehörden kaum die Menge an Kinderpornografie zu sichten und Strafverfahren zu zuführen. Gleichzeitig entsteht mit dieser Technologie ein Fake-Video-Tsunami, den wir als Gesellschaft nicht gewachsen sind.
Darüber hinaus stellt sich die Frage, ob AI-Produkte nicht zeitnah sehr hoch besteuert werden müssen, da das Urheberrecht komplett ausgehebelt wird.
Viele Grüße

Portrait von Michael Kruse
Antwort von
FDP

Zum Schutz der Menschen vor den potenziellen Gefahren von KI-generierten Videos und Deepfakes, wie sie durch Technologien von Anbietern wie OpenAI entstehen können, werden maßgebliche regulatorische und technische Schritte unternommen. Eine wesentliche Säule dieser Bemühungen bildet die vorläufige Einigung auf die KI-Verordnung vom Dezember 2023, welche Anbietern sowie Nutzern von KI-Systemen spezifische Verpflichtungen auferlegt. Diese Maßnahmen zielen darauf ab, die Erkennung und Rückverfolgung von KI-generierten Inhalten zu erleichtern und fordern von den Unternehmen die Implementierung von Lösungen, die als "hinreichend zuverlässig, interoperabel, wirksam und robust" gelten, insofern dies technisch realisierbar ist.

Eine der in den Erwägungsgründen der Verordnung besonders hervorgehobenen Techniken ist das "Watermarking", also das Einbetten eines Wasserzeichens in durch generative KI erstellte Inhalte. Diese Methode soll den Inhalt als künstlich generiert kennzeichnen, indem sie eine eindeutige, identifizierbare Signatur erzeugt, die zwar für den Menschen unsichtbar, jedoch algorithmisch nachweisbar und auf das spezifische KI-Modell zurückführbar ist. Solche Wasserzeichentechniken existieren für eine Vielzahl von Inhalten, einschließlich Text, Bild, Video und Audio.

Die Umsetzung des KI-Watermarkings erfolgt in zwei Hauptphasen: der Einfügung des Wasserzeichens während der Trainingsphase des KI-Modells und der späteren Identifizierung dieses Wasserzeichens durch spezialisierte Algorithmen. Diese Identifizierung ermöglicht es, KI-generierte Inhalte sicher zu erkennen. Die Herausforderung besteht darin, Markierungstechniken zu entwickeln, die einerseits standardisiert, leicht zu verwenden und zu erkennen sind, andererseits jedoch für durchschnittliche Nutzerinnen und Nutzer schwer zu manipulieren oder zu entfernen sind.

Die Förderung weiterführender interdisziplinärer Forschung in diesem Bereich durch das Bundesministerium für Bildung und Forschung (BMBF) im Rahmen des Forschungsprogramms "Digital. Sicher. Souverän." ist ein entscheidender Schritt zur Entwicklung solcher fortgeschrittenen Markierungstechnologien. Besonders hervorzuheben sind außerdem die Bestrebungen des Bundesministeriums für Digitales und Verkehr, im Rahmen des G7-Hiroshima-Prozesses die Entwicklung internationale Standards für das AI-Watermarking voranzutreiben.

Was möchten Sie wissen von:
Portrait von Michael Kruse
Michael Kruse
FDP