Anzeige

Am Puls von Microsoft

Anzeige

Haftung für Urheberrechtsverletzungen durch KI: Microsoft entlarvt seine eigene Marketing-Lüge

DrWindows

Redaktion
Haftung für Urheberrechtsverletzungen durch KI: Microsoft entlarvt seine eigene Marketing-Lüge
von Martin Geuß
Künstliche Intelligenz


Microsofts Marketing verspricht: Wer unsere KI-Dienste benutzt und dadurch wegen einer Urheberrechtsverletzung verklagt wird, den hauen wir da raus. Wenn die Kameras aus sind, klingt das aber ganz anders. Dann sagt Microsoft: Wer wegen der Nutzung von KI in Copyright-Nöte gerät, soll auch dafür haften.

Im September hatte Microsoft das “KI Copyright Commitment” veröffentlicht und seinen Kunden darin versichert, sie könnten völlig unbesorgt auf die generativen KI-Dienste zugreifen. Sollte es je zu einer Auseinandersetzung hinsichtlich einer Urheberrechtsverletzung kommen, etwa weil ein Künstler oder Autor durch ein generiertes Bild oder einen von der KI geschriebener Text seine Rechte verletzt sieht, dann werde Microsoft einspringen.

Ich hatte in meiner Meldung dazu geschrieben, dass ich das für in der Praxis nicht durchführbar halte, denn nicht Microsoft, sondern ein Richter entscheidet darüber, wer für Urheberrechtsverletzungen haftet.

Nun zeigt sich: Das sieht Microsoft ganz genau so.

Gegenüber dem US Copyright Office, der obersten Regierungsbehörde für Urheberrechtsfragen in den USA, gaben mehrere Unternehmen ihre Einschätzung zum Thema KI und Copyright zu Protokoll (via WindowsCentral/CartoonBrew).

Microsofts Stellungnahme, die im Volltext hier heruntergeladen werden kann, hört sich so an:

Wenn eine Person eine KI-Anwendung verwendet, um ausdrucksstarke Werke zu erstellen, ist es möglich, dass KI-generierte Ausgaben das Urheberrecht verletzen, wenn die Ausgabe im Wesentlichen einem früheren Werk ähnelt. Genau wie bei der Verwendung jedes anderen Allzweckwerkzeugs, wie z. B. eines Fotokopierers, einer Kamera, eines Computers oder eines Smartphones, müssen die Benutzer die Verantwortung für die verantwortungsvolle und bestimmungsgemäße Verwendung der Werkzeuge übernehmen. Wenn Nutzer KI-Tools einsetzen, um mutmaßlich rechtsverletzende Werke zu erstellen, sollten Gerichte die gleichen Überlegungen anstellen wie bei jeder anderen Verletzungsanalyse und Faktoren wie wesentliche Ähnlichkeit und faire Nutzung bewerten.

Heißt mit anderen Worten: Landet man wegen der Verwendung generativer KI vor Gericht, wäscht Microsoft seine Hände in Unschuld und nimmt sich komplett aus der Verantwortung.

Es kann auch gar nicht anders laufen, man ist immer für sein Handeln verantwortlich und Unkenntnis schützt bekanntermaßen nicht vor Strafe. Microsofts “Copyright Commitment” ist ein Marketing-Stunt, wenn es hart auf hart kommt, ist jeder auf sich gestellt.


Hinweis: Der Artikel wird möglicherweise nicht vollständig angezeigt, eingebettete Medien sind in dieser Vorschau beispielsweise nicht zu sehen.

Artikel im Blog lesen
 
Anzeige
Wenn Nutzer KI-Tools einsetzen, um mutmaßlich rechtsverletzende Werke zu erstellen, sollten Gerichte die gleichen Überlegungen anstellen wie bei jeder anderen Verletzungsanalyse und Faktoren wie wesentliche Ähnlichkeit und faire Nutzung bewerten.

Das wäre ja noch klar, ist sowie Geldscheine kopieren am Kopierer (ging ja früher mal).
KI Äquivalent: Generier mir eine exakte Kopie eines Picasso Gemäldes aber in Farbton heller als Beispiel.

Aber wichtiger ist ja wenn der User das unbedarft und nicht mutmaßlich macht, und die KI dann was
erzeugt hat das ein Copyright verletzt (weil z.B. fragwürdige Trainingsdaten verwendet wurden). Da ist ja
die Frage ob man sich da als Hersteller so leicht rauswinden kann und alles auf den Benutzer abwälzen kann.
 
Aber wichtiger ist ja wenn der User das unbedarft und nicht mutmaßlich macht, und die KI dann was
erzeugt hat das ein Copyright verletzt (weil z.B. fragwürdige Trainingsdaten verwendet wurden). Da ist ja
die Frage ob man sich da als Hersteller so leicht rauswinden kann und alles auf den Benutzer abwälzen kann.
Na ja, wenn ich mir einen Revolver kaufe und baller damit in der Gegend rum und treffe dann jemanden, kann ich mich nicht rausreden, dass der Hersteller dafür haften müsse.

Aber wenn ChatGPT so schlau ist, wie behauptet wird, müßte ChatGPT die Quelle/n angeben (ev auf Anforderung) und ggf. auf Urheberrechtsverletzung hinweisen. Wenn das nicht erfolgt oder erfolgen kann, sehe ich KI Hersteller sehr wohl in der Verantwortung.
 
Zuletzt bearbeitet:
Na ja, wenn ich mir einen Revolver kaufe und baller damit in der Gegend rum und treffe dann jemanden, kann ich mich nicht rausreden, dass der Hersteller dafür haften müsse.
Naja der Vergleich ist jetzt doch ein bisschen krass.

Aber z.B. folgende Anfrage:

"Erstell mir ein Gedicht über Blumen und Meer das keine Rechte verletzt".

Wenn die KI dann was auswirft, was trotzdem Rechte verletzt, na wer haftet denn dann?

Und so in der Art sollten Benutzer dann auch in Zukunft Ihre Anfragen stellen ;).
 
Also ich alte den Begriff KI gerade in Zusammenhang mit ChatGPT für reichlich überbeansprucht. Das ganze ist doch nichts weiter wie eine Suchmaschine die halt das gefundene irgendwie zusammen fasst. Die Quellen haben letztlich immer einen Ursprung und wenn ich das Gefundene weiter verwende verletze ich immer irgendwelche Urheberrechte.
 
So einfach ist das nicht. Wenn man selbst sucht, sieht man den/die Treffer und kann/muß sie einordnen.
Genau das sieht man bei ChatGPT nicht, da die Ergebnisse ohne jedes "Beiwerk" als Pseudoorginal präsentiert werden.
 
verletze ich immer irgendwelche Urheberrechte

Nicht unbedingt.

Gibt genügend freie Quellen (die per Lizenz freigegeben sind oder z.B. alte Bücher wo das Copyright schon lange
abgelaufen ist). Und wenn eine KI eben wirklich I wäre könnte sie ja nur Wörter oder Satzfragmente aus anderen Texten entnehmen und sinnvolle neu Sätze bzw. längere Themen (Romane) zusammenwürfeln und Geschichten erfinden, die noch nie jemand geschrieben hat. Bei Bildern wäre das noch ziemlich einfacher.
Dass ChatGPT sowas schon kann bezweifel ich.

Veränderte Kochrezepte wären auch so ein Beispiel, einfach andere Mengen und Gewürze dazu und was
Neues wurde kreiert.

Das würde dann unter kein Copyright fallen und keine Rechte verletzen.
 
Die Quellen von OpenAI sind auch nicht bekannt. Es gibt jedoch Spekulationen wonach die "besten" Bibliotheken benutzt wurden 🤪 .
Ist eine spannende Frage mit was eine KI trainiert werden darf ohne spezielle Verträge abzuschließen.
In immer mehr AGBs wird das vermutlich untersagt werden.

OpenAI hasn’t disclosed the datasets that ChatGPT is trained on, but in an older paper two databases are referenced; “Books1” and “Books2”. The first one contains roughly 63,000 titles and the latter around 294,000 titles.

These numbers are meaningless in isolation. However, the authors note that OpenAI must have used pirated resources, as legitimate databases with that many books don’t exist.

“The only ‘internet-based books corpora’ that have ever offered that much material are notorious ‘shadow library’ websites like Library Genesis (aka LibGen), Z-Library (aka Bok), Sci-Hub, and Bibliotik. The books aggregated by these websites have also been available in bulk via torrent systems.”
There is no direct evidence that OpenAI used pirate sites to train ChatGPT. That said, it is no secret that some AI projects have trained on pirated material in the past, as an excellent summary from Search Engine Journal highlights.

The mainstream media has picked up this issue too. The Washington Post previously reported that the “C4 data set,” which Google and Facebook used to train their AI models, included Z-Library and various other pirate sites.
 
Wenn Nutzer KI-Tools einsetzen, um mutmaßlich rechtsverletzende Werke zu erstellen, sollten Gerichte die gleichen Überlegungen anstellen wie bei jeder anderen Verletzungsanalyse und Faktoren wie wesentliche Ähnlichkeit und faire Nutzung bewerten.
Das Zitat sehe ich auch so!
Bei einer wissenschaftlichen Arbeit als Beispiel, kann man auch jede Menge Informationen mit Google zusammentragen, jedoch sind dabei immer auch die Quellenangaben wichtig (die gibt ChatGPT auch an).
Zudem gilt in der Wissenschaft: "Jede wissenschaftliche Arbeit schultert auf Riesen"
Das bedeutet, man kann viel bestehendes in einer wissenschaftlichen Arbeit (mit Quellenangaben) übernehmen, muss aber immer seinen eigenen wissenschaftlichen Beitrag drauf setzen. Es gibt spezielle Bücher, wie man wissenschaftlich arbeitet und gerade in der Wissenschaft wird sehr auf Plagiate geachtet.
 
... insbesondere, weil der Anwender nicht weiß, welche Werke dem Output zugrunde liegen. Oder werden die inzwischen aufgeführt?
Wenn ich ChatGPT verwende, werden am Ende der Antwort immer einige Links zu den Quellen aufgeführt. Oder sollen die Links nur auf weitere, zusätzliche Informationen hinweisen?

Also ist und bleibt eine Spielerei!
Eine Spielerei ist das mit Sicherheit nicht. Die Leistung ist heute schon beeindruckend und wird sich auch weiter steigern. Ob man es gut oder schlecht findet, in absehbarer Zeit wird man sich damit ganz massiv auseinandersetzen müssen.
 
Meine Einschätzung:
Copy-Paste macht der Nutzer und nich Microsoft oder die KI. Die KI liest und zeigt das Ergebnis an. Was daraus der Nutzer aktiv macht, ohne sich zu informieren, macht sich halt strafbar.
 
Vielleicht habe ich das zu strikt beschreiben :)
Kann man sich mit diesen Quellenangaben hinreichend sicher sein, um dem Output kommerziell zu nutzen?
 
Warten wir mal ab, ob sich die KI letztendlich selber verklagt. Dürfte gar nicht so lange dauern, bis sich der erste computergestützte "Urheber" von einem angeblichen "Ki Plagiator" übervorteilt sieht.
Schon heutzutage reicht es, nur ein Semikolon in einer "geschützten" Schriftart verwendet zu haben. Möglicherweise verklagt mich demnächst der Duden, weil ich deren Begriff Semikolon verwendet habe. Wenn nicht der Duden, dann eine KI in deren Auftrag. Macht dann locker dreistellige Summen als Abmahngebür.
Wenn dann Computer noch Finanzagenten rekrutieren, die denen Konten eröffnen - Mann die Welt wird durch KI immer dümmer. Braucht man wie ein offenes Knie.
 
Wenn das nicht erfolgt oder erfolgen kann, sehe ich KI Hersteller sehr wohl in der Verantwortung.
Das entscheidest aber nicht du, sondern wird sowieso zeitnah durch Gerichte geregelt und spätestens dann wird dieser professionelle Daten- und Wissensdiebstahl stark reduziert.
Denn keiner dieser Firmen will ein offenes Schleusentor haben, wo relativ einfach, durch Abmahnungen und Urheberrechtsklagen, stetig Geld abfließt.
 
Anzeige
Oben