• Sonntag, November 23, 2025

Die Gema hat in einem bahnbrechenden Prozess gegen OpenAI Recht bekommen und wirft dem KI-Anbieter Urheberrechtsverletzungen bei Liedtexten vor.

Der Hintergrund des Prozesses

Die Gesellschaft für musikalische Aufführungs- und mechanische Vervielfältigungsrechte, kurz Gema, hat OpenAI verklagt. Der Vorwurf: Die KI-Modelle von OpenAI nutzen urheberrechtlich geschützte Liedtexte ohne Erlaubnis für das Training. Das Gericht hat der Gema nun Recht gegeben und festgestellt, dass dies eine klare Verletzung darstellt.

Die Rolle der Juristin

Eine Juristin vom Max-Planck-Institut für Innovation und Wettbewerb in München hat das Urteil kommentiert. Sie betont, dass die Gema sehr überlegt vorgegangen ist. „Die Argumentation war präzise und beruhte auf soliden rechtlichen Grundlagen“, erklärt sie. Besonders hervorhebt sie, dass der Prozess klare Grenzen für den Einsatz von KI in der Kreativbranche setzt.

Auswirkungen auf Musiker

Für Musiker bedeutet dieses Urteil einen wichtigen Schutz ihrer Werke. Bisher konnten KI-Systeme wie ChatGPT Texte generieren, die auf bekannten Liedern basierten, ohne dass die Urheber entschädigt wurden. Nun müssen Unternehmen wie OpenAI Lizenzen erwerben oder ihre Modelle anpassen. Das könnte zu höheren Einnahmen für Komponisten und Texter führen, da Urheberrechte strenger durchgesetzt werden.

Technische und rechtliche Details

Im Kern geht es um das Training von KI-Modellen mit großen Datensätzen, die oft urheberrechtlich geschützte Inhalte enthalten. Das Gericht hat entschieden, dass solches Training eine Vervielfältigung darstellt, die der Zustimmung der Rechteinhaber bedarf. OpenAI argumentierte mit fairem Gebrauch, doch das wurde abgelehnt. Die Juristin warnt, dass ähnliche Fälle in anderen Ländern folgen könnten, was die globale KI-Entwicklung beeinflusst.

Fazit

Am Ende des Tages hat die Gema der KI einen ordentlichen Tritt in den digitalen Hintern verpasst – vielleicht lernt OpenAI ja jetzt, selbst Lieder zu texten, statt sie zu klauen. Oder sie programmiert eine KI, die nur noch Jodeln kann, um sicherzugehen.