Am Puls von Microsoft

Microsofts Bing-KI legt Künstler frei erfundene Zitate in den Mund

Microsofts Bing-KI legt Künstler frei erfundene Zitate in den Mund

Mit seinem auf ChatGPT basierenden Bing will Microsoft die Internetsuche neu definieren und im Wettbewerb mit Google Boden gutmachen. Dass es hierbei zu Stilblüten kommt und mitunter falsche Informationen ausgegeben werden, ist kein neues Phänomen. In einem aktuellen Beispiel legt Bing einem Künstler allerdings frei erfundene Zitate in den Mund. Googles Bard tut das im Direktvergleich nicht.

Leser Leonard hat sich bei mir gemeldet und den Fall geschildert. Er ist Kunststudent und hat sich eine eigene Webseite eingerichtet. Nachdem Bing diese indiziert hatte, befragte er den Bing Chat zu Bildern und Informationen auf der Webseite. Er staunte nicht schlecht, als ihm Bing ein angeblich von ihm stammendes Zitat präsentierte, welches garantiert nicht von ihm stammt und weder auf der Seite noch sonst im Internet zu finden ist. Bing hatte dieses Zitat einfach erfunden. Als er im Chat schrieb, dass diese Informationen falsch sind, brach der Bot die Unterhaltung ab.

Leonard wollte wissen, ob ihm Bing etwas über das Bild mit dem Titel “162 x 130 Pixel” auf seiner Webseite erzählen kann. Und wie es das konnte:

Bing-Chatprotokoll zu 162 x 130 Pixel

Das Problem dabei: Diese Informationen sind komplett falsch und frei erfunden. Auch das Zitat, das ihm Bing in den Mund legte, hat es nie gegeben. Auf die Frage, woher diese Informationen stammen würden, behauptete Bing, sie unter leonardelfert.com gefunden zu haben.

Bing-Chatprotokoll zu 162 x 130 Pixel

Um Bing gewissermaßen die Chance zu geben, den eigenen Irrtum zu bemerken, fragte Leonard ganz konkret nach einem Zitat. Darauf antwortete Bing mit einem leicht abgewandelten Text, behauptete aber weiterhin, diese Aussagen wortwörtlich auf der Webseite gefunden zu haben:

Bing-Chatprotokoll zu 162 x 130 Pixel

Auf den ganz konkreten – und korrekten – Einwand, dass diese Informationen nicht von der Webseite stammen und außerdem nicht korrekt seien, reagierte der Bing-Bot “beleidigt” und beendete die Konversation.

Bing-Chatprotokoll zu 162 x 130 Pixel

Auf der Suche nach einer technischen Begründung fragte ich Leonard, ob Bing eventuell auf den Modus “Kreativ” eingestellt war, was er jedoch verneinte, Bing arbeitete im Modus “ausgewogen.

Im Vergleich dazu liefert Googles Bard deutlich weniger Informationen, gibt sich aber “ehrlicher” und berichtet, nicht genug Informationen zu haben, um eine Frage zu beantworten.

Google Bard Chatprotokoll

Google Bard Chatprotokoll

Abgesehen davon, dass Bing hier eine merkwürdige Fantasie entwickelt und ein Nutzer, der auf diese Antworten vertraut, komplett falsch informiert ist, stellt sich die Frage, inwieweit es rechtlich problematisch werden kann, wenn eine Suchmaschine Personen falsche Zitate in den Mund legt.

Die Erklärung, dass diese Technologie nicht ausgereift ist, mag ich in diesem Fall nicht gelten lassen. Die künstliche Intelligenz entwickelt hier ganz eindeutig ein Eigenleben, das sie nicht haben sollte.

Über den Autor

Martin Geuß

Martin Geuß

Ich bin Martin Geuß, und wie unschwer zu erkennen ist, fühle ich mich in der Windows-Welt zu Hause. Seit mehr als 16 Jahren lasse ich die Welt an dem teilhaben, was mir zu Windows und anderen Microsoft-Produkten durch den Kopf geht, und manchmal ist das sogar interessant. Das wichtigste Motto meiner Arbeit lautet: Von mir - für Euch!

Anzeige