DrWindows
Redaktion
Bing zündet den GPT-4-Turbo und malt noch schönere Bilder
von Martin Geuß
Mit neuen Algorithmen sollen sowohl die KI-basierte Suche in Bing als auch der Bildgenerator schnellere und bessere Ergebnisse liefern. Mit “Deep Search” kündigt Microsoft außerdem eine neue Funktion an, die komplexe Recherchen erledigen soll.
Praktisch alle Funktionen von Microsofts Copiloten basieren auf Technologien von OpenAI. Dazu gehört auch GPT-4 Turbo, eine Aktualisierung für den Algorithmus, die schnellere Antwortzeiten verspricht oder in der gleichen Zeit detailliertere Anfragen beantworten kann. Die automatische Erzeugung von Programmcode ist damit ebenfalls möglich. GPT-4 Turbo befindet sich laut Microsoft bereits mit zufällig ausgewählten Nutzern im Testbetrieb und soll in den kommenden Wochen auf breiter Front eingeführt werden.
Schon jetzt können alle Nutzer des Bing Image Creator auf das neue DALL-E 3 Modell zugreifen, welches die Bildqualität der erzeugten Grafiken deutlich verbessern soll. Die Befehle, mit denen man den Bildgenerator füttert, sollen zudem besser verstanden werden, damit das Ergebnis möglichst nahe an dem liegt, was man sich vorgestellt hat.
Ein Beispiel:

Eine weitere Neuerung, an der Microsoft derzeit arbeitet, nennt sich “Multimodal with Search Grounding”. Dahinter verbirgt sich eine verbesserte Technologie bei der Interpretation von Bildinhalten. Bing wird damit in die Lage versetzt, nicht nur den Inhalt eines Bildes zu erkennen, sondern diesen Inhalt mit Suchergebnissen aus dem Web zu verknüpfen. Als Beispiel wird das Bild eines Space Shuttle beim Starten erwähnt, das Bing nicht nur als solches erkennt, sondern es auch namentlich identifiziert und mitteilt, an welchem Tag der Start erfolgte. Wenn man die Fehler bedenkt, die der Bing Copilot bei der Verknüpfung von einfachen Text-Inhalten aus dem Web macht, ist hierbei sicherlich erhöhte Vorsicht geboten.
Der Copilot in Microsoft Edge soll zudem in die Lage versetzt werden, eine inhaltliche Zusammenfassung von Videos zu generieren und Fragen zum Inhalt zu beantworten.
Entwicklern will der Copilot in Zukunft unter die Arme greifen, in dem Code nicht nur generiert und ausgewertet, sondern direkt in einer Sandbox ausgeführt wird, um ihn live zu testen.
Last but not least kündigt Microsoft noch “Deep Search” an. Mit dieser Funktion generiert Bing die Suchanfrage sozusagen selbst. Die Idee dahinter ist, auf Basis der eingegebenen Stichworte zu identifizieren, nach welchen Informationen gesucht wird, und daraus eine Anfrage an GPT-4 zu formulieren, die möglichst ausführliche Ergebnisse zurückliefert.
Deep Search ist rechenintensiv, eine Anfrage benötigt bis zu 30 Sekunden. Das ist mutmaßlich einer der Gründe, warum diese Funktion vorerst nur einigen zufällig ausgewählten Testpersonen angeboten wird.
Hinweis: Der Artikel wird möglicherweise nicht vollständig angezeigt, eingebettete Medien sind in dieser Vorschau beispielsweise nicht zu sehen.
Artikel im Blog lesen
von Martin Geuß

Mit neuen Algorithmen sollen sowohl die KI-basierte Suche in Bing als auch der Bildgenerator schnellere und bessere Ergebnisse liefern. Mit “Deep Search” kündigt Microsoft außerdem eine neue Funktion an, die komplexe Recherchen erledigen soll.
Praktisch alle Funktionen von Microsofts Copiloten basieren auf Technologien von OpenAI. Dazu gehört auch GPT-4 Turbo, eine Aktualisierung für den Algorithmus, die schnellere Antwortzeiten verspricht oder in der gleichen Zeit detailliertere Anfragen beantworten kann. Die automatische Erzeugung von Programmcode ist damit ebenfalls möglich. GPT-4 Turbo befindet sich laut Microsoft bereits mit zufällig ausgewählten Nutzern im Testbetrieb und soll in den kommenden Wochen auf breiter Front eingeführt werden.
Schon jetzt können alle Nutzer des Bing Image Creator auf das neue DALL-E 3 Modell zugreifen, welches die Bildqualität der erzeugten Grafiken deutlich verbessern soll. Die Befehle, mit denen man den Bildgenerator füttert, sollen zudem besser verstanden werden, damit das Ergebnis möglichst nahe an dem liegt, was man sich vorgestellt hat.
Ein Beispiel:

Eine weitere Neuerung, an der Microsoft derzeit arbeitet, nennt sich “Multimodal with Search Grounding”. Dahinter verbirgt sich eine verbesserte Technologie bei der Interpretation von Bildinhalten. Bing wird damit in die Lage versetzt, nicht nur den Inhalt eines Bildes zu erkennen, sondern diesen Inhalt mit Suchergebnissen aus dem Web zu verknüpfen. Als Beispiel wird das Bild eines Space Shuttle beim Starten erwähnt, das Bing nicht nur als solches erkennt, sondern es auch namentlich identifiziert und mitteilt, an welchem Tag der Start erfolgte. Wenn man die Fehler bedenkt, die der Bing Copilot bei der Verknüpfung von einfachen Text-Inhalten aus dem Web macht, ist hierbei sicherlich erhöhte Vorsicht geboten.
Der Copilot in Microsoft Edge soll zudem in die Lage versetzt werden, eine inhaltliche Zusammenfassung von Videos zu generieren und Fragen zum Inhalt zu beantworten.
Entwicklern will der Copilot in Zukunft unter die Arme greifen, in dem Code nicht nur generiert und ausgewertet, sondern direkt in einer Sandbox ausgeführt wird, um ihn live zu testen.
Last but not least kündigt Microsoft noch “Deep Search” an. Mit dieser Funktion generiert Bing die Suchanfrage sozusagen selbst. Die Idee dahinter ist, auf Basis der eingegebenen Stichworte zu identifizieren, nach welchen Informationen gesucht wird, und daraus eine Anfrage an GPT-4 zu formulieren, die möglichst ausführliche Ergebnisse zurückliefert.
Deep Search ist rechenintensiv, eine Anfrage benötigt bis zu 30 Sekunden. Das ist mutmaßlich einer der Gründe, warum diese Funktion vorerst nur einigen zufällig ausgewählten Testpersonen angeboten wird.
Hinweis: Der Artikel wird möglicherweise nicht vollständig angezeigt, eingebettete Medien sind in dieser Vorschau beispielsweise nicht zu sehen.
Artikel im Blog lesen