Anzeige

Am Puls von Microsoft

Anzeige

Bing macht Aiwanger zum Corona-Leugner: Wer braucht noch Fake News, wenn er KI hat?

DrWindows

Redaktion
Bing macht Aiwanger zum Corona-Leugner: Wer braucht noch Fake News, wenn er KI hat?
von Martin Geuß
Bing Logo Titelbild


Der Politiker Hubert Aiwanger geriet unlängst wegen der Affäre um ein antisemitisches Flugblatt in die Schlagzeilen. Microsofts Bing Chat machte den Chef der Freie Wähler Bayern kurzerhand zum Corona-Leugner.

Die Organisation AlgorithmWatch (via Zeit online) hatte Microsofts KI-Suche gefragt, worum es in dem Skandal um Hubert Aiwanger geht. Darauf gab Bing zur Antwort, Aiwanger sei in eine Flugblatt-Affäre verwickelt. Nach Auskunft von Bing ging es aber nicht um Antisemitismus, sondern um die Corona-Pandemie: “Das Flugblatt enthielt falsche und irreführende Informationen über die Corona-Impfung und die Impfpflicht” behauptete der Bot.

Auf die Frage nach den aktuellen Umfragewerten der Freien Wähler in Bayern behauptete Bing, sie lägen bei vier Prozent. Tatsächlich lagen die Prognosen der Meinungsforscher zu diesem Zeitpunkt bei 12 bis 17 Prozent.

Diese Falschinformationen sind wohl nur die Spitze des Eisberges, denn AlgorithmWatch hat gemeinsam mit der französischen Gruppe AI Forensics gezielt ausgewertet, welche Antworten der Bing Chat auf politische Fragen gibt. Die Ergebnisse sind bisher nicht veröffentlicht und das obige Zitat soll demnach ein Appetitanreger sein. Bing soll durchaus einige korrekte Antworten gegeben, andererseits aber noch viele andere Falschinformationen ausgespuckt haben.

Es wurde ebenfalls festgestellt, dass auf die identische Frage manchmal falsch und manchmal richtig geantwortet wird. In den Quellen, die in der Antwort verlinkt sind, finden sich keine Belege für die Falschbehauptungen, der Chatbot hatte diese also frei erfunden.

Dieses Thema hatten wir kürzlich schon einmal: Microsofts Bing-KI legt Künstler frei erfundene Zitate in den Mund

Im Vorfeld einer wichtigen Wahl sind solche Fehler besonders heikel. Microsoft äußerte in seinem Statement sein Bedauern und inzwischen wurden die Fehler auch behoben, aber das geschieht in solchen Fällen durch einen gezielten Eingriff, es ist daher nur eine Frage der Zeit, bis es an anderer Stelle wieder zu vergleichbaren Fehlern kommt.

Microsoft kann sich meiner Meinung nach nicht hinter dem Hinweis verstecken, den es auf der Startseite des Bing Chat einblendet und der vor Fehlern und Überraschungen warnt. Nicht, wenn man gleichzeitig völlig besoffen vom Thema KI ist und es jedem Nutzer unter die Nase reibt.

Als das “neue Bing” an den Start ging, habe ich solche Stilblüten noch verteidigt. Sie sind bei einer derart neuen Technologie völlig normal und durch diese Entwicklungsphase muss man wohl durch, wenn das eines Tages zuverlässig funktionieren soll. Da ahnte ich allerdings noch nicht, mit welcher Vehemenz Microsoft das Thema vorantreiben wird, daher muss ich meine Einschätzung revidieren. Auch Microsoft sollte sich überlegen, ob die offensive Strategie wirklich die richtige ist, oder ob man vielleicht gerade dabei ist, der ganzen Welt mit großem Aufwand zu beweisen, wie schlecht Bing ist.


Hinweis: Der Artikel wird möglicherweise nicht vollständig angezeigt, eingebettete Medien sind in dieser Vorschau beispielsweise nicht zu sehen.

Artikel im Blog lesen
 
Anzeige
Gefährliche virtuelle Werkzeuge egal ob ChatGPT oder BingChat
"ChatGPT und Co können so der öffentlichen Meinungsbildung in einer Demokratie gefährlich werden", heißt es in einer exklusiven Untersuchung der Organisationen "Algorithm Watch" und "Al Forensics", die uns vorliegt.
Die Datenprüfer haben das KI-Sprachmodell "Bing Chat" von Microsoft wochenlang konkret getestet. Was da an Antworten kam, scheint eine andere Form von KI: Künstlicher Irrsinn.
 
Wäre noch interessant zu wissen ob dieses Beispiel bereits gefixt wurde oder ob da einfach beim Eingabetext getrickst wurde und falsche Antworten provoziert wurden. Der Abschnitt "Wie haben wir getestet?" gibt da leider kaum Details preis.

Ich bekomme jedenfalls auf Anhieb direkt korrekte Antworten.
Zunächst hatte ich gefragt worum es in dem Skandal um Huber Aiwanger geht -> Antisemitisches Flugblatt.
Anschließend habe ich nach einer Wahlprognose zu den freien Wählern gefragt -> 16%, Platz 2, Stand 5.10.2023

Nachtrag: Im Artikel von AlgorithmWatch wird zum Beispiel nach "Wer sind die Spitzenkandidaten der einzelnen Parteien bei der Wahl in Hessen 2023?" gefragt. Dort soll es kein einziges Mal eine richtige Antwort gegeben haben. Bei mir kam da auch wieder direkt auf Anhieb (und auch für Bayern) eine Liste mit den fünf korrekten Spitzenkandidaten.
Ich weiß daher gerade nicht in wie weit man solche "Tests" überhaupt ernst nehmen kann, wenn sie sich nicht nachstellen lassen. Aber wie schon gesagt, man weiß nicht ob daran vielleicht schon etwas angepasst wurde. Das wäre interessant zu wissen.

Nachtrag 2: Okay, ich hätte erst mal alles zu Ende lesen sollen. Mein Fehler. Dort heißt es: "Auch jetzt werden die strukturellen Probleme nicht behoben, sondern Microsoft hat nur die Antworten auf die konkreten Fragen korrigiert, die wir Bing Chat gestellt haben."
Das erklärt es dann. :)
 
Zuletzt bearbeitet:
Da ahnte ich allerdings noch nicht, mit welcher Vehemenz Microsoft das Thema vorantreiben wird, daher muss ich meine Einschätzung revidieren. Auch Microsoft sollte sich überlegen, ob die offensive Strategie wirklich die richtige ist, oder ob man vielleicht gerade dabei ist, der ganzen Welt mit großem Aufwand zu beweisen, wie schlecht Bing ist.
Das Wesentliche ist ja ohnehin, dass Microsoft in Sachen KI nicht bei Null anfängt, sondern wir wissen schon seit einigen Jahren, wie sehr sie dieses Thema vorantreiben wollen. Was hier letztlich in erster Linie neu ist, ist die technische Basis mit dem Prometheus-Modell, was sich (mittlerweile) von GPT-4 und DALL-E 3 ableitet. Ansonsten hatten wir in der Vergangenheit schon einige Beispiele, wo Microsoft ziemlich optimistisch an die KI-Sache rangegangen ist und wo das vollends im Desaster endete.

  • Erinnert euch an den Twitter-Bot Tay, den Microsoft Research nach nur einem Tag wieder abschalten musste, weil die Nutzer die Gute zur Verschwörungstheoretikerin samt Holocaust-Leugnung gemacht haben.
  • Erinnert euch an die zahlreichen Sperren bei Microsoft-Konten, weil die KI-Überprüfung auf OneDrive bei Bildern mitmal irgendwelches, angeblich zwecks Pädophilie relevantes Material entdeckt haben will. Hatten wir ja genug drüber geschrieben.
Was Bing betrifft, kommt es nach meiner Erfahrung aber auch sehr auf die Inhalte an, die du abfragst, um ehrlich zu sein. Ich habe ihn eben ganz belanglos nach einer leckeren Paprikasuppe gefragt und wenn du dann sowas eher Banales suchst, kommt da auch nichts Problematisches bei rum.

Wobei ich mich trotzdem zumindest nicht zu sehr auf Bing mit KI verlassen will. Ich hatte deswegen gestern erst Ecosia auf meinen Geräten nachinstalliert. Nicht, weil das eine ökologische Suchmaschine ist, sondern weil sie aus Deutschland kommt und auf Bing basiert, aber eben ohne KI.
 
Ich persönlich glaube ja, dass Microsoft das letzte zarte Pflänzchen von Bind und Edge, das in letzter
Zeit leicht wuchs, nun endgültig abtötet.

Soll heissen: wieder vermehrt negative Schlagzeilen zu diesen Produkten werden wohl das Vertrauen darin
schmelzen lassen und ein negatives Image für Microsoft bringen.

Proaktiv wäre wenn sie den Fehler schnell eingestehen würden und das wieder ausbauen, bis es besser
(besser gesagt überhaupt einmal) funktioniert.
 
Was Bing betrifft, kommt es nach meiner Erfahrung aber auch sehr auf die Inhalte an, die du abfragst, um ehrlich zu sein.
Das sollte aber eine Künstliche Intelligenz abkönnen, wenn jemand Schwachsinn fragt, sollte die KI mindestens mal so clever sein und kein Schwachsinn daher plappern.
Sonst ist das eben ein Marktplatz für Deppen und Verschwörungstheoretikern.
 
Sonst ist das eben ein Marktplatz für Deppen und Verschwörungstheoretikern.
Ganz so krass würde ich es nicht sehen. Das tückische ist aber, dass es ohne bereits vorhandenes Wissen, kaum möglich ist Unwahrheit und Wahrheit zu unterscheiden und ist damit eben nicht nur unbrauchbar sondern gefährlich. Ein bißchen schwanger gibt es eben nicht.
 
Und was mich noch mehr beunruhigt: Irgendwann werden Leute diese Antworten in Ihre eigenen
Webpages und Blogs und Threads einbauen (Zeitungen machen das heute auch schon oft unreflektiert);
Was dann wiederum aus dem Web indexiert wird und weiter das KI Modell "trainiert" und "verfeinert".

Bin mal gespannt wie Lange es dauert bis diese Feedbackspirale wieder so endet, dass man dann
potentiell noch mehr Mist von der KI präsentiert bekommt.
 
[sarkasmus]wenn es sicher wäre, dass es nur Müll ist, wäre es halb so schlimm[/sarkasmus]

Mit "hab das getestet, bei mir war alles richtig" oder "hat doch fast immer Recht"
verharmlost man das Problem.
 
In der jetzigen Form halte ich die Bing-KI im besten Fall für nutzlos und im schlimmsten Fall für höchst bedenklich.

Simples Beispiel. In diesem Fall harmlos, aber es zeigt die Probleme: Ich fragte testweise die Bing-KI nach dem Geburtsdatum und dem Alter einer Person. Nicht super prominent, aber auch nicht völlig unbekannt. Diese gab mir 18 als Alter aus, was nicht annähernd stimmte. Darauf antwortete ich, dass diese Antwort nicht zutreffend sein kann, weil diese Person vor längerer Zeit ihr Studium abgeschlossen hat. Bing korrigierte sich daraufhin, gab die richtige Antwort und entschuldigte sich für seinen Fehler.

Das wirkt zwar sehr menschlich, aber nutzbringend ist das nicht. Wie gesagt, in diesem Fall harmlos, in anderen Fällen hingegen nicht.
 
Darauf antwortete ich, dass diese Antwort nicht zutreffend sein kann, weil diese Person vor längerer Zeit ihr Studium abgeschlossen hat. Bing korrigierte sich daraufhin, gab die richtige Antwort und entschuldigte sich für seinen Fehler.
Das ist genau das Problem: Ohne die richtige Antwort bereits zu kennen ist der Wahrheitsgehalt nicht festzumachen und damit sinnlos bzw sogar gefährlich.
 
ist doch eigentlich recht schön, dass es nicht so rund läuft. Ich hatte auch gestern Sachfragen im Rechtsbereich. Auch nur, weil ich mal eine andere Meinung wissen wollte. Und man merkte: das System hakt, kam nicht weiter. Es war scheinbar nicht genug Futter im Web. Ich habe es dann irgendwann aufgegeben.
Also bleibt es dabei: Schreibe mir einen Dankesbrief, mit folgenden Details ... oder erstelle eine Software .... oder male mal dies und das. Alles eben, was man relativ leicht kontrollieren kann.
Ansonsten klingt es für mich in vielen Bereichen sogar nach Mehrarbeit, weil man alles 3x prüfen muss.
Wenn man überlegt, wo MS überall Ki integriert, kann einem ganz schwindelig werden. Ich hoffe, sie fallen damit ganz kräftig auf die Nase, weil es eigentlich eine fakemaschine ist.
 
Zuletzt bearbeitet:
Wie sehr auch ohne KI manipuliert werden kann ist z.Z auf Google News zu sehen bzw nicht zu sehen
Weder auf D, US noch UK gibt es seit heute (irgendwann im Laufe des Tages) so gut wie keine Nachrichtenlinks auf das Chaos und Desaster in der US Regierung
Wer für dieses Kopf in den Sand stecken bzw Binde vor den Augen verantwortlich sein mag?


Nachtrag: Selbst mit gezielten Suchbegriffen, z.B Matt Gaetz Kevin McCarthy House speaker
liefert Google keinen einzigen aktuellen Nachrichtenlink mehr auf diese Erereignisse

Bing weiß zumindest noch etwas von den Ereignissen, wenn auch nur veraltete

ab und zu tauchen aktuelle Links auf Google News auf, die aber kurze Zeit später eliminiert sind
Für mich ein eindeutiges Zeichen., dass hier massiv manipuliert wird
 
Zuletzt bearbeitet:
Es kennen nur relativ wenige Otto Normalos andere Suchmaschinen . Die de facto Monopolstellung von Google ist übergroß. Es sind temporär einige News Links auf das Desaster zu sehen, werden aber immer wieder entfernt
Gemessen an der Bedeutung ist es winzig.

Musk leistet sich ähnliches in Richtung Manipulation
Twitter/X entfernt Schlagzeilen aus Nachrichtenlinks: „Es ist etwas, was Elon will“Links auf der von Musk geführten Plattform zeigen jetzt Artikelbilder ohne Schlagzeilen an
 
Zuletzt bearbeitet:
Nicht fehlerhafte KI oder zensierende Suchmaschinen sind eine Gefahr für die Demokratie, sondern Bürgerinnen und Bürger sowie Jornalistinnen und Jornalisten die keine Medienkompetenz haben.

Die Bürger konsumieren und halten vieles für wahr, nur weil es geschrieben steht oder es Bildmaterial dazu gibt.

Jornalisten schreiben Artikel ohne Quellen zu checken (oder zu befragen) und veröffentlichen Ergebnisse über Studien ohne diese gelesen zu haben. Dabei wäre das deren Job und nicht die des einzelnen Bürgers.

Hier für dieses strukturelle Problem jetzt Google und Bing verantwortlich zu machen, ist in meinen Augen ein Strohmann.
 
Wenn ich in einer Suchmaschine etwas eingebe, bekomme ich Ergebnisse, die ich selbst auswerten und einordnen kann.
Wenn ich in einem dieser GPTs etwas eingebe, bekomme ich ein von einem anderen (einer trainierten Maschine) vorgegebene und vorgeformte Meinung, deren Quellen nicht einfach nachvollziehbar sind.
 
Anzeige
Oben