Sind Sie für eine Abgabe von Unternehmen, wenn diese KI profitorientiert nutzen, die an Übersetzer, Schriftsteller etc. ausgeschüttet wird, deren Arbeit von der KI potenziell genutzt wird?
Sehr geehrte Frau Kassautzki,
sind Sie für eine Abgabe von Unternehmen, wenn diese KI profitorientiert nutzen, die an Übersetzer, Schriftsteller etc. ausgeschüttet wird, deren Arbeit von der KI potenziell genutzt wird?
Sehr geehrte Frau Y,
es wäre einfach, eine solche Abgabe zu fordern und so zu tun, als würde eine solche Maßnahme alle Herausforderungen, die wir zunehmend mit KI und dem Urheberrecht haben lösen. Da wir uns aktuell schon schwer damit tun, multinationale Großkonzerne angemessen zu besteuern, halte ich die Durchsetzung einer KI-Abgabe an Autor*innen für schwer durchsetzbar.
Wir stellen uns aktuell die Frage, ob wir zusätzliche Gesetze brauchen um beispielsweise Künstler*innen und Autor*innen zu schützen oder ob die aktuellen Schutzmaßnahmen wie das Urheberrecht schon ausreichen, nur konsequenter durchgesetzt werden müssen. Ich neige aktuell zu zweiterem:
Die Texte von Autoren, Schriftstellern und Übersetzern bilden die Grundlage vieler großer Sprachmodelle (Large Language models) die KI-Anwendungen zugrunde liegen. Diese trainierten Algorithmen werden auf Datensätzen aus Texten generiert, die urheberrechtlich geschützt sein können.
Gibt eine KI aktuell nicht gemeinfreie Texte oder deren Übersetzung einfach wider, bleibt das Urheberrecht bei den Autoren und die Texte sind somit urheberrechtlich geschützt. Das Problem: Autor*innen müssten diese Fälle finden und einklagen.
Noch schwieriger wird es für Autor*innen nachzuweisen, dass ihre Werke zum Training von Algorithmen genutzt wurden. Experten gehen davon aus, dass bei der Erstellung von Trainingsdatensätzen bereits vielfältige Urheberrechtsverstöße stattfinden, die aber in der Praxis schwer nachzuweisen sind. Hinzu kommt, dass die Text-and-Data-Mining-Schranke die Nutzung von Daten, die rechtmäßg gelesen werden können zu Forschungszwecken erlaubt. Hier wird sich die Frage stellen, wo hört KI-Forschung auf und wo beginnt der kommerzielle Betrieb der Software.
Der vielversprechendste Ansatz zur Vergütung von Schriftsteller*innen, Autor*innen oder Übersetzer*innen liegt meiner Ansicht nach in einer Transaprenzpflicht der Input-Daten. Indem sichergestellt wird, auf welchen Daten ein Modell trainiert wird, können auch potentielle Urheberrechtsverstöße einfacher nachgewiesen werden. Diesen Ansatz verfolgt z.B. der AI Act bereits, allerdings nur bei sehr großen Modellen. Hier wäre eine Ausweitung der Transparenzpflichten in Zukunft wünschenswert.
Aktuell fürchten auf der anderen Seite viele kleinere KI-Unternehmen, dass ein Bezahlmodell dazu führen könnte, dass kleinere Anbieter aus dem Markt gedrängt werden, weil sich nur große Anbieter die Abgaben leisten können, sowohl die Kompensation an die Autor*innen als auch die teuren Rechtsstreitigkeiten. Wir laufen nach diesem Argument Gefahr, eine KI-Entwicklung, die uns potentiell alle betrifft und alle damit verbundenen ethischen Fragen an einige wenige Großkonzerne auszulagern.
Fazit: Diese Diskussion wird uns über Jahre begleiten und sie beginnt gerade erst. Aktuell halte ich es für verfrüht, eine Vergütungspflicht von KI-Anbietern an Autor*innen zu fordern, da man diese nur schwer überprüfen und durchsetzen könnte. Stattdessen sollten wir zunächst auf Transparenzpflichten setzen, wie sie im AI Act vorgesehen sind und in Kombination das aktuelle Urheberrecht konsequent anweden, wie es die New York Times aktuell in ihrer Klage gegen OpenAI vormacht[1]. Urteile wie diese werden in den kommenden Jahren aufzeigen, ob es Gesetzeslücken gibt, die wir dann schließen werden.
Mit freundlichen Grüßen
Anna Kassautzki, MdB
[1] https://www.nytimes.com/2023/12/27/business/media/new-york-times-open-ai-microsoft-lawsuit.html