DrWindows
Redaktion
Microsofts Bing-KI legt Künstler frei erfundene Zitate in den Mund
von Martin Geuß
Mit seinem auf ChatGPT basierenden Bing will Microsoft die Internetsuche neu definieren und im Wettbewerb mit Google Boden gutmachen. Dass es hierbei zu Stilblüten kommt und mitunter falsche Informationen ausgegeben werden, ist kein neues Phänomen. In einem aktuellen Beispiel legt Bing einem Künstler allerdings frei erfundene Zitate in den Mund. Googles Bard tut das im Direktvergleich nicht.
Leser Leonard hat sich bei mir gemeldet und den Fall geschildert. Er ist Kunststudent und hat sich eine eigene Webseite eingerichtet. Nachdem Bing diese indiziert hatte, befragte er den Bing Chat zu Bildern und Informationen auf der Webseite. Er staunte nicht schlecht, als ihm Bing ein angeblich von ihm stammendes Zitat präsentierte, welches garantiert nicht von ihm stammt und weder auf der Seite noch sonst im Internet zu finden ist. Bing hatte dieses Zitat einfach erfunden. Als er im Chat schrieb, dass diese Informationen falsch sind, brach der Bot die Unterhaltung ab.
Leonard wollte wissen, ob ihm Bing etwas über das Bild mit dem Titel “162 x 130 Pixel” auf seiner Webseite erzählen kann. Und wie es das konnte:
Das Problem dabei: Diese Informationen sind komplett falsch und frei erfunden. Auch das Zitat, das ihm Bing in den Mund legte, hat es nie gegeben. Auf die Frage, woher diese Informationen stammen würden, behauptete Bing, sie unter leonardelfert.com gefunden zu haben.
Um Bing gewissermaßen die Chance zu geben, den eigenen Irrtum zu bemerken, fragte Leonard ganz konkret nach einem Zitat. Darauf antwortete Bing mit einem leicht abgewandelten Text, behauptete aber weiterhin, diese Aussagen wortwörtlich auf der Webseite gefunden zu haben:
Auf den ganz konkreten – und korrekten – Einwand, dass diese Informationen nicht von der Webseite stammen und außerdem nicht korrekt seien, reagierte der Bing-Bot “beleidigt” und beendete die Konversation.
Auf der Suche nach einer technischen Begründung fragte ich Leonard, ob Bing eventuell auf den Modus “Kreativ” eingestellt war, was er jedoch verneinte, Bing arbeitete im Modus “ausgewogen.
Im Vergleich dazu liefert Googles Bard deutlich weniger Informationen, gibt sich aber “ehrlicher” und berichtet, nicht genug Informationen zu haben, um eine Frage zu beantworten.
Abgesehen davon, dass Bing hier eine merkwürdige Fantasie entwickelt und ein Nutzer, der auf diese Antworten vertraut, komplett falsch informiert ist, stellt sich die Frage, inwieweit es rechtlich problematisch werden kann, wenn eine Suchmaschine Personen falsche Zitate in den Mund legt.
Die Erklärung, dass diese Technologie nicht ausgereift ist, mag ich in diesem Fall nicht gelten lassen. Die künstliche Intelligenz entwickelt hier ganz eindeutig ein Eigenleben, das sie nicht haben sollte.
Hinweis: Der Artikel wird möglicherweise nicht vollständig angezeigt, eingebettete Medien sind in dieser Vorschau beispielsweise nicht zu sehen.
Artikel im Blog lesen
von Martin Geuß
Mit seinem auf ChatGPT basierenden Bing will Microsoft die Internetsuche neu definieren und im Wettbewerb mit Google Boden gutmachen. Dass es hierbei zu Stilblüten kommt und mitunter falsche Informationen ausgegeben werden, ist kein neues Phänomen. In einem aktuellen Beispiel legt Bing einem Künstler allerdings frei erfundene Zitate in den Mund. Googles Bard tut das im Direktvergleich nicht.
Leser Leonard hat sich bei mir gemeldet und den Fall geschildert. Er ist Kunststudent und hat sich eine eigene Webseite eingerichtet. Nachdem Bing diese indiziert hatte, befragte er den Bing Chat zu Bildern und Informationen auf der Webseite. Er staunte nicht schlecht, als ihm Bing ein angeblich von ihm stammendes Zitat präsentierte, welches garantiert nicht von ihm stammt und weder auf der Seite noch sonst im Internet zu finden ist. Bing hatte dieses Zitat einfach erfunden. Als er im Chat schrieb, dass diese Informationen falsch sind, brach der Bot die Unterhaltung ab.
Leonard wollte wissen, ob ihm Bing etwas über das Bild mit dem Titel “162 x 130 Pixel” auf seiner Webseite erzählen kann. Und wie es das konnte:
Das Problem dabei: Diese Informationen sind komplett falsch und frei erfunden. Auch das Zitat, das ihm Bing in den Mund legte, hat es nie gegeben. Auf die Frage, woher diese Informationen stammen würden, behauptete Bing, sie unter leonardelfert.com gefunden zu haben.
Um Bing gewissermaßen die Chance zu geben, den eigenen Irrtum zu bemerken, fragte Leonard ganz konkret nach einem Zitat. Darauf antwortete Bing mit einem leicht abgewandelten Text, behauptete aber weiterhin, diese Aussagen wortwörtlich auf der Webseite gefunden zu haben:
Auf den ganz konkreten – und korrekten – Einwand, dass diese Informationen nicht von der Webseite stammen und außerdem nicht korrekt seien, reagierte der Bing-Bot “beleidigt” und beendete die Konversation.
Auf der Suche nach einer technischen Begründung fragte ich Leonard, ob Bing eventuell auf den Modus “Kreativ” eingestellt war, was er jedoch verneinte, Bing arbeitete im Modus “ausgewogen.
Im Vergleich dazu liefert Googles Bard deutlich weniger Informationen, gibt sich aber “ehrlicher” und berichtet, nicht genug Informationen zu haben, um eine Frage zu beantworten.
Abgesehen davon, dass Bing hier eine merkwürdige Fantasie entwickelt und ein Nutzer, der auf diese Antworten vertraut, komplett falsch informiert ist, stellt sich die Frage, inwieweit es rechtlich problematisch werden kann, wenn eine Suchmaschine Personen falsche Zitate in den Mund legt.
Die Erklärung, dass diese Technologie nicht ausgereift ist, mag ich in diesem Fall nicht gelten lassen. Die künstliche Intelligenz entwickelt hier ganz eindeutig ein Eigenleben, das sie nicht haben sollte.
Hinweis: Der Artikel wird möglicherweise nicht vollständig angezeigt, eingebettete Medien sind in dieser Vorschau beispielsweise nicht zu sehen.
Artikel im Blog lesen