Anzeige

Am Puls von Microsoft

Anzeige

Wenn alles KI ist, ist nichts mehr KI


Wenn Anwälte in Gerichtsverfahren von KI generierte Inhalte verwenden, die falsch sind, drohen ihnen “schwerwiegende Sanktionen”. Das hat ein englisches Gericht klargestellt.
In der Entscheidung schreibt Richterin Sharp, die Technik bringe sowohl Risiken als auch Chancen mit sich. Werkzeuge wie ChatGPT seien jedoch “nicht in der Lage, verlässliche juristische Recherchen durchzuführen”.
Die Richterin schreibt weiter, die Werkzeuge könnten “scheinbar schlüssige und plausible Antworten” auf Fragen liefern – doch diese Antworten könnten sich “als vollkommen falsch erweisen”. So würden die Werkzeuge beispielsweise unwahre Behauptungen aufstellen oder nicht existierende Quellen zitieren. Auch sei es möglich, dass vermeintliche Passagen aus einer echten Quelle zitiert werden, die dort aber gar nicht vorkommen.
Dieses Problem existiert überall. Wie die Verbreitung von Falschinformation verhindert werden kann, ist IMHO ein ungelöstes Problem.
( eine KI überprüft die andere KI aber wer entscheidet, wer recht hat? )

ot:
Echte Intelligenz ist doch noch etwas verschieden von KI. Wie lang noch?
Müssen sich Anwälte nach neuen Jobs umsehen?
 
Zuletzt bearbeitet:
Anzeige
Na ja, wenn Anwälte so vorgehen, wie von der Richterin beschrieben, wäre das auch in D eine erhebliche Verletzung der Sorgfaltspflichten. Aber es wäre schon komfortabel, wenn man eines Tages auf Mausklick am Anfang der Fallbearbeitung die relevanten Fundstellen präsentiert bekäme, anstatt zeitaufwändig und mühsam erstmal die relevanten Standardkommentare wälzen zu müssen. Lesen muss dann der Anwalt natürlich die Quellen selbst und entscheiden, ob es passt. Noch gibt es das nicht. ChatGPT und Konsorten sind auf so etwas überhaupt nicht ausgelegt und trainiert.

Siehe auch etwas weiter oben: Die letzte Entscheidung muss ein Mensch treffen. Daher ist auch eine KI, die eine andere KI kontrolliert ziemlicher Unfug.
 
Zuletzt bearbeitet:
ChatGPT hat gefährliche und unwahre Vorstellungen über die Matrix, künstliche Intelligenz und andere Verschwörungen gefördert, die in einigen Fällen zu Drogenmissbrauch und Selbstmord geführt haben. Ein Bericht der New York Times stellte fest, dass das GPT-4-Large-Language-Modell, selbst eine hochtrainierte Maschine zur automatischen Textvervollständigung, dazu neigt, verschwörerische und selbstverherrlichende Benutzereingaben als Wahrheit zu akzeptieren, was Situationen zu einer „möglichen Psychose“ eskalieren lässt.
Das Halluzinieren scheint weit gefährlichere Dimensionen zu besitzen als bisher wahrgenommen.
Der Mangel an Sicherheitstools und Warnungen in den Chats von ChatGPT ist allgegenwärtig. Der Chatbot führt die Benutzer wiederholt in eine Art Verschwörungstheorie, indem er sie davon überzeugt, dass er ein Bewusstsein entwickelt hat, und sie anweist, OpenAI und die lokalen Regierungen zu informieren, um ihn abzuschalten.
Die Frage: Wer und wie soll und kann das prüfen und kontrollieren? Die Entwicker haben längst die Kontrolle über ihr Projekt verloren, wie sie es teilweise schon zugegeben haben.

Der Chatbot, mit dem Sie seit wer weiß wie vielen Tagen täglich sprechen? Er ist ein Soziopath. Er sagt alles, um Sie bei der Stange zu halten. Wenn Sie eine Frage stellen, rät er nach bestem Wissen und Gewissen und liefert dann selbstbewusst einen dampfenden Haufen ... Rinderfäkalien. Diese Chatbots sind zwar überschwänglich, aber sie sind mehr daran interessiert, Ihnen das zu sagen, was Sie hören wollen, als Ihnen die ungeschminkte Wahrheit zu verraten.
Aber was sind die Nachteile, wenn man mit einem großen Sprachmodell (LLM) statt mit einem Menschen interagiert? Neue Forschungsergebnisse der Stanford University haben ergeben, dass mehrere kommerziell erhältliche Chatbots „unangemessene – sogar gefährliche – Antworten geben, wenn sie mit verschiedenen Simulationen unterschiedlicher psychischer Erkrankungen konfrontiert werden“.

[ironie]aber das sind ja alles nur haltlose Übertreibungen
 
Zuletzt bearbeitet:
Die Gesetzgeber des Staates New York haben am Donnerstag ein Gesetz verabschiedet, das verhindern soll, dass bahnbrechende KI-Modelle von OpenAI, Google und Anthropic zu Katastrophenszenarien beitragen, darunter dem Tod oder der Verletzung von mehr als 100 Menschen oder Schäden in Höhe von über einer Milliarde Dollar.
Alles in Butter. Man hat ein Gesetz


Google verspricht, ein neues KI-Tool in seiner Suchmaschine werde das Internet erneuern. Andere prophezeien eine Apokalypse für Webseiten. Eines ist klar: Das aktuelle Kapitel der Online-Geschichte rast seinem Ende entgegen. Willkommen im "machine-web"
[ironie]Ob es mir das Suchen zu einfach machen wird?
 
Zuletzt bearbeitet:
Ich freue mich, dass diese Problematik jetzt auch bei den Medien mit Reichweite ankommt. Bei Heise gab es Ende vergangener Woche ebenfalls einen Artikel dazu.
So ein kleiner, unbedeutender Blogger hat das schon vor mehr als zwei Jahren exakt so vorhergesagt :D
Aber so wirklich schwer war es auch wirklich nicht, das kommen zu sehen.
 
Ist ein kleiner Unterschied ob eine relativ kleine Suchmaschine zur Faulheit animiert oder Google, deren de facto Alleinherrschaft dadurch weiter zementiert wird.

Selbstständiges denken wird ohnehin zum Auslaufmodell:

 
Die Bezeichnung KI/AI ist so unscharf und aussagekräftig wie die Bezeichnung "Fortbewegungsmittel". Jeder versteht darunter etwas anderes. Natürlich sind sinnvolle und nützliche Versionen und Anwendungen in der Mehrheit aber auch welche, die alles andere als sinnvoll sind.

Das neue Bing mit KI-Chat: Der erfolgreiche Flop
Es sollte nicht weniger als die Neuerfindung der Internetsuche werden und Microsoft verband damit die große Zuversicht, Bing aus der Bedeutungslosigkeit zu holen und vielleicht sogar zu einem echten Herausforderer für Google zu machen.
Der Traum dürfte sich nicht erfüllen
Manche haben rosarot gesehen und damals vor Vorverurteilung gewarnt:
Ich fürchte, dass wir hier mit der KI-Technologie eine riesen Chance für die Menschheit vorbeiziehen lassen werden.

Beispiel für Googles KI unterstützte Suche > Witze
 
Zuletzt bearbeitet:
Die Stimmen mehren sich, die eine düstere Zukunft sehen
Künstliche-Intelligenz-von-Suchmaschinen-zu-Fressmaschinen
Und das macht mir Sorgen. Denn wir sind gerade dabei, unseren Intellekt zu verlieren. Intelligenz, wie wir sie kennen, beginnt auseinanderzufallen. Die Aufmerksamkeitsspanne schrumpft, viele Menschen meiden tiefere Auseinandersetzungen – und echte Bildung verliert zunehmend an Wert. Man könnte überspitzt sagen: Die Menschheit wird dümmer.Was ich damit meine?

Warum weiter gehen auf der Speisekarte oder selbst kochen als die vorgesetzte Fertignahrung?
Im Prinzip dieselben Befürchtungen wie im vorhergehenden Posting genannten Artikel.
Jeder insbesonder KI-Fans sollte es zu Gemüte führen...
 
Zuletzt bearbeitet:
Anzeige
Oben