Anzeige

Am Puls von Microsoft

Anzeige

KI: Die Klage der New York Times gegen Microsoft und OpenAI ist gut und wichtig

Also auch alle Suchmaschinen?
Guter Einwand. Wenn man es konsequent zu Ende denkt, dann müsste es für "herkömmliche" Suchmaschinen ebenfalls gelten. Zumindest da, wo in den Suchergebnissen eine Vorschau angezeigt wird, die in nicht wenigen Fällen die eigentliche Frage schon beantwortet.
Bisher war das für Webseiteninhaber unter dem Strich immer ein guter Deal, denn man bekam auf diese Weise viele Besucher, die man sonst niemals bekommen hätte.
Die chatbasierte Suchmaschine dreht das aber endgültig ins Gegenteil, denn die ist vollständig darauf ausgerichtet, dass man sie nicht mehr verlässt. Microsoft ist in diesem Punkt viel gefährlicher als Google, denn die müssen auf nichts Rücksicht nehmen. Google wiederum ist existenziell abhängig von den Werbeeinnahmen mit AdSense. Wenn der Traffic der Webseiten einbricht, die AdSense verwenden, dann schadet das Google. Die müssen also mit einem so radikalen Umbau der Websuche sehr viel vorsichtiger umgehen.
Das ist ja der Grund, warum Microsoft so große Hoffnungen in das neue Bing gesetzt hat: Man hoffte, die Leute finden diese neue Form der Suche supercool, und Google kann gar nicht mitziehen, weil sie damit ihr eigenes Geschäft beschädigen.
 
Anzeige
unter dem Strich immer ein guter Deal,
Also wie immer: Es geht nur ums Geld
Microsoft ist in diesem Punkt viel gefährlicher als Google, denn die müssen auf nichts Rücksicht nehmen.
Google hat sich in der Vergangenheit jedoch immer als wesentlich geschickter herausgestellt und wird auch diese Probleme lösen. Vielleicht müssen sie das gar nicht, wenn sich die Klage und eine Entscheidung gegen Microsoft & Co entwickelt. Microsoft mag ja einige gute Ideen (gehabt) haben, doch die Umsetzung war oftmals mehr als suboptimal. Was die "Gefahr" für Google betrifft: Man könnte sich schließlich immer noch mit dem "Gegner" arrangieren. Hier ist so viel Potenzial vorhanden, dass es für zwei Futtertröge locker reicht.
 
Auch für das Zitieren von öffentlich zugänglichen Artikeln gibt es Regeln:
Doch das Gesetz schränkt das Recht ein, und zwar mit der Formulierung „sofern die Nutzung in ihrem Umfang durch den besonderen Zweck gerechtfertigt ist“ (Paragraf 51 Urheberrechtsgesetz: Zitate).

Man darf also nicht einfach jedes Stück Text in jeder Länge in einen eigenen Text einbauen: Der Ausschnitt muss einen Zweck erfüllen, indem er zum Beispiel den Inhalt des neuen Textes erläutert.
 
Account anmelden und los geht´s.
Der Bot ist angemeldeter Teilnehmer
Anständige Journalisten bereiten teils Artikel (z.B. YouTube Beiträge) mit Inhalten aus einer hinter Paywall versteckten Recherche auf, zeigen diese allerdings nie in der Kamera, genau aus Gründen des Urheberrechts.

Diese Diebe in automatisierter Form der "ach so schlauen K.I." schert das einen Dreck.
 
Das sie Ergebnisse liefert, die normal hinter einer Paywall wären, finde ich natürlich nicht richtig.

Im Prinzip hast du die Antwort doch schon selbst geliefert und die Problematik richtig aufgezeigt, um die es eigentlich geht.

Da gibt es Webseite XYZ, die irgendein Thema ausführlich aufbereitet. Dafür hat der Autor dort eine Menge Zeit und auch Geld für die Infrastruktur investiert. Dafür schaltet er z.B. Werbung auf seiner Internetseite, um seine Kosten zu decken.

Wenn Du nun mit einer Standardsuchmaschine nach diesem Thema suchst, bekommst du in der Suchmaschine lediglich einige kurze Stichwörter oder allenfalls kurze Abschnitte als Ergebnis präsentiert. Wenn du zum eigentlichen Inhalt willst, musst Du dem Link folgen. Der eigentlich Autor generiert so also eine gewisse Anzahl an Besuchern, für die er über Werbung dann Geld einnimmt.

ChatGPT und Co. liefern aber nicht nur kurze Stichwörter, sondern erzeugt dir aus den Inhalten der Seite einen eigenen Artikel, der dir alle Inhalte liefert. Mag sein, dass die eigentliche Seite auch noch verlinkt ist. Aber da der erzeugte Artikel schon alle Inhalte liefert, hast Du gar keinen Grund dem Link zur Seite zu folgen.

Die Seite XYZ hat am Ende also viel weniger Besucher als vorher und damit auch viel geringere Werbeeinnahmen. Und genau darum geht es in der Klage. Es muss am Ende zumindest so sein, dass ChatGPT für die Nutzung der Inhalte der Webseiten von denen die eigentlichen Inhalte stammen, in irgendeiner Form entlohnt werden. Sonst wird am Ende keiner mehr Inhalte produzieren.
 
Die Seite XYZ hat am Ende also viel weniger Besucher als vorher und damit auch viel geringere Werbeeinnahmen. Und genau darum geht es in der Klage. Es muss am Ende zumindest so sein, dass ChatGPT für die Nutzung der Inhalte der Webseiten von denen die eigentlichen Inhalte stammen, in irgendeiner Form entlohnt werden. Sonst wird am Ende keiner mehr Inhalte produzieren.
Und da beißt sich Katze in den Schwanz. ChatGPT & Co generieren keine originären Texte, sondern saugen aus dem vorhandenen Material und bauen darauf, dass menschliche Autoren Neues erzeugen. Wenn das aber ausbleibt stagniert das Ganze und es wird immer wieder nur noch derselbe Brei angerührt.
 
Die einzige Intelligenz, die hinter der KI steckt, sind die Programmierer und wenn die in ihren Algorithmus Schreiben, dass andersfarbige Menschen Schlechter als Weise und Menschen die in benachteiligenden Siedlungen schlechter sind, dann ist diese KI Rassistisch und Rassismus darf es in der heutigen Zeit nicht mehr geben.

und wenn unrecht zu Recht wird, wird Widerstand zur Pflicht!
 
und wenn unrecht zu Recht wird, wird Widerstand zur Pflicht!
Jawohl, Viva la Revolution ... 😁
viva-la-revolution-unisex-crewneck-sweatshirt.jpg
 
Ein bissl übertrieben oder?
Weiterhin müsste die Manipulation nicht über einen Algorithmus, sondern über die Lerndaten erfolgen.
 
Das habe ich auch schon überlegt, doch ist das Angebot der Suchmaschine, nämlich einen Link zu einer Webseite anzuzeigen, überhaupt als Urheberrechtsverletzung zu werten? Genau dafür bezahlen doch die "Betroffenen" – um gefunden zu werden.
Womit wir letztlich wieder bei genau der unsäglichen Debatte wären, die wir schon vor Ewigkeiten über das Leistungsschutzrecht geführt haben. Nichts anderes ist das nämlich unterm Strich. Damals ging das um die Frage, wie viel Text Google überhaupt in einem Link anzeigen darf, ohne dass es vergütet werden muss, und bei Microsoft und OpenAI geht es im Grunde darum, wie viele Inhalte in welcher Form und mit welcher Vergütung zum Training von Künstlicher Intelligenz verwendet werden können. Das ist stark vereinfacht ausgedrückt, aber so grob kommt das hin.

Der Unterschied zwischen dem Leistungsschutzrecht und der Debatte um Künstliche Intelligenz liegt aber in der Rolle der Nachrichtenmedien, was das ungleich kritischer macht. Microsoft hatte bei Microsoft Start ja damals schon einen größeren Vorstoß bei KI gemacht, aber das ist fast nichts gegen das, was Axel Springer machen möchte. Am 8. Dezember kam erst die Nachricht, dass sie mit UPDAY eine ihrer kleinen Marken nehmen und damit ein voll KI-basiertes und -generiertes Nachrichtenportal testen wollen. Nur ein paar Tage später haben Axel Springer und OpenAI ihre globale Partnerschaft verkündet, womit Springer nicht nur finanziell wie Microsoft viele Millionen Euro in die KI-Entwicklung stecken wird, sondern ChatGPT dockt ganz direkt an die großen Springer-Marken wie Welt, Bild und Politico an und OpenAI unterstützt dafür deutlich stärker Projekte im KI-Journalismus, die Springer vorantreibt.

Lasst das mal auf euch wirken. Worum es der New York Times geht und was letztlich Microsoft und OpenAI machen bei dem, was Bing Chat oder Copilot ausspucken, das ist das Eine. Worum es Springer geht, ist richtiger und weitgehend autonomer KI-Journalismus, daraus hat Döpfner mit dem Umbau von Springer zum reinen Digitalkonzern auch nie einen so großen Hehl gemacht. Er fährt schon seit einigen Jahren ein radikales Sparprogramm, peilt das Ende der Printmedien an und staucht die TV-Aktivitäten auch immer mehr ein. Bild TV wird ja am kommenden Sonntag eingestellt, N24 Doku läuft vorerst so weiter, aber bei Welt als Nachrichtensender müssen sie auch umbauen und sparen.

Der Punkt ist: Wenn es bei UPDAY funktionieren sollte, wird es nur eine Frage der Zeit sein, bis es mit Bild, Welt, Politico oder Business Insider auch die wirklichen Riesen im Springer-Portfolio erreichen wird. Was für einen Charakter Bild jetzt schon hat, wissen wir, aber wenn Bild immer stärker von KI durchflutet wird, wird das ein Paradebeispiel, warum wir den AI Act in der Europäischen Union brauchen und warum eine Regulierung von KI unheimlich wichtig wird.
 
Zuletzt bearbeitet:
ot:

Edit: Kann mir jemand erklären, warum ein Link einmal in normaler Schrift und ein anderes Mal fett dargestellt wird? Intern/extern etwa?
Das ist wohl in diesem Forum so eingestellt, dass Links auf eigene Postings oder Artikel fett dargestellt werden. Der Link wird in einem anderen Forum mit derselben Forensoftware nicht fett dargestellt.

( in der Vorschau getestet )
 
@Kevin Kozuszek liest du irgendwas aus dem Axel-Springer-Verlags Sortiment, also ich nicht und wenn diese Zeitschriften das Blaue vom Himmel lügen, was sie eigentlich schon immer tun ist mir das auch egal und dadurch wird es auch nicht besser.
Schön für dich, ich lese von dem Unternehmen auch keine Publikationen, aber darum geht es am Ende hier ja nicht.

Wir haben bei Microsoft zum Beispiel beim Twitter-Bot Tay gesehen, was bei einem Training von KI alles in die falsche Richtung laufen kann. Damals waren das aktive Twitter-Nutzer, aber ChatGPT würde in ungleich höherem Maße von den Springer-Medien gefüttert und trainiert werden. Außerdem geht es gerade bei ChatGPT auch zunehmend in die Richtung, dass zum Beispiel Schüler und Studenten die KI zum Anfertigen von Hausarbeiten verwenden, manche Selbstständige die KI für verschiedene Sachen in ihre Berufstätigkeit einbinden oder manche Universitäten schaffen die Abschlussarbeit in der bisherigen Form ab, weil die wegen OpenAI nicht mehr wirklich überprüfbar sind.

Die Probleme mit Falschinformationen oder der Revolverpresse sind jetzt schon groß genug, wir müssen jetzt nicht unbedingt dafür sorgen, dass sich das durch KI noch verschärft. Damit will ich nicht gegen die Pressefreiheit schießen, die ist ein extrem hohes Gut. Aber Inhalte, mit denen man KI trainiert, sind keine Veröffentlichungen, und Meldungen, die ausschließlich von KI verfasst werden, müssen, wenn die Pressefreiheit stark bleiben soll, immer nochmal von einem echten Menschen mit Quellen und allem, was dazu gehört, überprüft werden. Ansonsten kann die KI vor dem Hintergrund, wie und mit welchen Texten sie trainiert wurde, jeden erdenklichen Mist in die Welt setzen und das noch mit Deepfakes und dergleichen aufhübschen, ohne dass es eine menschliche Überprüfung und ein entsprechendes Lektorat gibt. Das darf nicht sein, das wäre brandgefährlich.
 
Ansonsten kann die KI vor dem Hintergrund, wie und mit welchen Texten sie trainiert wurde, jeden erdenklichen Mist in die Welt setzen und das noch mit Deepfakes und dergleichen aufhübschen, ohne dass es eine menschliche Überprüfung und ein entsprechendes Lektorat gibt. Das darf nicht sein, das wäre brandgefährlich.
[ironie]und kann sogar in die Zukunft schauen womit die Presse in der bisherigen Form obsolet wird
 
Anzeige
Oben