Anzeige

Am Puls von Microsoft

Anzeige

Wenn alles KI ist, ist nichts mehr KI

Aus über den Tellerrand:

Die anfängliche Euphorie ist einer gewissen Skepsis gewichen:
  • Nur zwölf Prozent der Befragten, die mit ChatGPT vertraut sind, stimmen zu, dass die von ChatGPT bereitgestellten Informationen korrekt sind.
  • 81 Prozent zeigen sich besorgt über mögliche Sicherheitsrisiken für sie oder ihr Unternehmen.
  • 63 Prozent misstrauen Informationen von ChatGPT.
  • 52 Prozent fordern, dass die Weiterentwicklung von ChatGPT pausiert wird, um Gesetze und Vorschriften zu erlassen, die ChatGPT und generative KI in ein regulatorisches Gerüst einbetten.
Die Skepsis ist IMHO berechtigt, da weder betreffend den Datenquellen noch wie sie ver/bearbeiten werden mit offenen Karten gespielt wird.
 
Anzeige
Doch wie bei einem Praktikanten gilt: Wenn es wirklich wichtig ist, muss hinterher immer noch ein Mensch mit Erfahrung das Ergebnis kontrollieren.
der es kontrolliert, muß mehr Ahnung haben als der Praktikant, was in der Euphorie oft ausgeblendet wird.

Die Verantwortung trägt der Mensch, nicht das Programm und nicht der Programmierer. Ein Mensch kann und darf es nicht darauf abwälzen "Das hat die KI gesagt" und das gilt insbesondere wenn falsche oder fehlerhafte Daten herangezogen werden.
 
Zuletzt bearbeitet:
Ich erinnere an den "Hype Cycle" im Artikel. Vielleicht sind wir ja auch schon ein Stückchen weiter, als ich dachte.
 
Es wird ab jetzt immer häufiger vorkommen, daß KI auf die geschwafelten Fakten von KI hereinfällt und die Automaten gegenseitig abkopieren. Was an Wahrheit am Schluß übrigbleibt, kann die beste Trollfabrik nicht unterbieten.
 
Tatsächlich war schon lange klar, dass die KI Zugriff auf Artikel hat, die hinter Bezahlschranken stehen.
bei der Knete hört die Freundschaft auf
Halluzinationen und Fehler trüben die ZusammenfassungenBei Tests in der Redaktion ist allerdings aufgefallen, dass die Zusammenfassungen, die Bing und ChatGPT liefern, nicht unbedingt dem entsprachen, was in den Artikeln auch tatsächlich steht. Beispielsweise wurden Argumente falsch wiedergegeben oder aber Argumente sowie weitere Inhalte einfach dazu ausgedacht – wie die aktuellen Sprachmodelle eben ganz klassisch halluzinieren.
kommt davon wenn man zuviel trinkt...
 
Das Tor zu neuen KI-Welt steht jetzt (gegen Eintrittsgebühr) offen
Ab heute Nachmittag können alle bestehenden OpenAI-API-Entwickler „mit einer Historie erfolgreicher Zahlungen“ auf GPT-4 zugreifen. Das Unternehmen plant, bis Ende dieses Monats den Zugang für neue Entwickler zu öffnen und danach „abhängig von der Rechenverfügbarkeit“ mit der Erhöhung der Verfügbarkeitsgrenzen zu beginnen.

GPT-4 API general availability and deprecation of older models in the Completions API

zum Thema künstlicher Sammelwut:
Was ChatGPT über Nutzer an Daten sammelt ...
Im Artikel gibt Bitdefender dann auch Hinweise, was man keinesfalls mit ChatGPT oder anderen Bots teilen sollte, um die Privatsphäre zu schützen. Dazu gehören:
Persönlich identifizierbare Informationen: Namen, Adressen und Details, die Sie oder Dritte identifizieren könnten
Gesundheitsdaten (Fragen zu Krankheiten, Behandlungen)
Persönliche Dokumente oder Dokumente, die persönliche Daten enthalten
Der Untergang der Menschheit steht bevor:
Informationssplitter aus der KI-Welt: Fails von Algorithmen, Warnungen und Microsofts "way of AI"
Die ChatGPT-Entwickler warnen, dass "KI die Menschheit bedrohen könne"
 
Zuletzt bearbeitet:
Ich erinnere an den "Hype Cycle" im Artikel. Vielleicht sind wir ja auch schon ein Stückchen weiter, als ich dachte.
Mit der Veröffentlichung von ChatGPT im November 2022 startete OpenAI den KI-Hype, der Chat-Dienst gewann zunehmend an Reichweite – bis zum Juni. Im letzten Monat sind die Nutzungszahlen erstmals um knapp 10 Prozent gesunken, berichtet die Washington Post.
Spieltrieb und Neugierde ebben eben ab und der zu erwartetete Ärger steht auch ins Haus
Trainingsdaten: Autoren verklagen Meta und OpenAI wegen Copyright-Verletzung

OpenAI und Meta sollen für ihre KI-Sprachmodelle Trainingsdaten genutzt haben, die urheberrechtlich geschützt sind. Nun klagen Autoren.

und der Klage werden vermutlich weitere folgen
 
Zuletzt bearbeitet:

Top-Technologiefirmen unterzeichnen die Zusage des Weißen Hauses, KI-generierte Bilder zu identifizieren Google und der ChatGPT-Hersteller OpenAI stimmten den freiwilligen Sicherheitsverpflichtungen zu, was Teil der Steigerung des Interesses der Biden-Regierung an diesem Bereich ist, während sie eine auf KI ausgerichtete Durchführungsverordnung vorbereitet
Dann ist ja alles in trockenen Tüchern und wir können uns beruhigt im Sessel zurücklehnen.
 
Zuletzt bearbeitet:
Ja, ganz bestimmt :D.
Ist ja nicht so, dass man den entsprechenden Bereich des Bildes leicht abschneiden könnte.
Vielleicht gibt es ja auch KI-Software, die diesen Hinweis entfernt.
 
Man kann oder müßte die Infos dazu, unlöschbar in die EXIF packen.
Wege wird es immer geben eine Identifikation möglich zu machen. Allein am Interesse wird es mangeln. 😏
 
ot:
Gehört mehr in die Kategorie Wiederkäuer. Schluckt alles runter und würgt es dann wieder hoch..


[ironie?]Wie wäre es ihm/ihr/es hier mit den Fragen und Aufgaben aus dem Support zu beauftragen? Da KI ja alles weiß, müßten die Probleme in einem Bruchteil der Zeit gelöst werden. Die Mitarbeit hier würde sich auf Lesen beschränken. Schließlich kann man immer dazu lernen...
 
Im Darknet und in Telegram-Kanälen wird FraudGPT angeboten: ein unmoderierter Chatbot, der für kriminelle Zwecke trainiert wurde. Die eigentliche Herkunft von FraudGPT ist unklar, dafür seine Einsatzzwecke umso deutlicher: Der Chatbot kann Phishing-Mails schreiben, Cracking-Tools entwickeln und hilft, Opfer zu finden, die besonders leicht übers Ohr zu hauen sind. Dabei sieht FraudGPT aus wie eine dunkle Version des bekannten ChatGPT. Nur dass dieser Prompts ablehnen würde, in denen nach einem Text für betrügerische SMS oder Mails gefragt wird.
Mit Gesetzen allein wird man das kaum bekämpfen können
 
Anzeige
Oben