Am Puls von Microsoft

Generative KI: Microsoft will die Schutzschilde hochfahren und setzt auf Aufklärung

Generative KI: Microsoft will die Schutzschilde hochfahren und setzt auf Aufklärung

Mit gleich zwei ausführlichen Blogposts unterstreicht Microsoft seine Bemühungen, die Nutzung von generativer KI sicherer zu machen und vor Missbrauch zu schützen. Der Zeitpunkt dieser öffentlichen Beteuerungen dürfte alles andere als zufällig sein.

Kürzlich sorgten pornografische Deepfakes von Taylor Swift für Aufsehen. Deren Ersteller behaupteten, unter anderem den Microsoft Designer dafür benutzt zu haben. Das Dementi von Microsoft folgte auf dem Fuß: Sicherheitsmaßnahmen würden derartigen Missbrauch verhindern, man habe keinerlei Anzeichen für eine Überwindung dieser Schutzfunktionen finden können, werde aber dennoch zusätzliche Maßnahmen in Angriff nehmen.

In Zweifel gezogen wurde dieses Dementi durch öffentlich gemachte Anschuldigungen des Microsoft-Mitarbeiters Shane Jones. Er gab an, intern auf entsprechende Schwachstellen hingewiesen zu haben, man habe ihn aber mehr oder weniger ignoriert.

Vor einigen Tagen hat Microsoft stillschweigend eine Funktion aus dem Designer entfernt. Das Pinselwerkzeug, mit dem Objekte nachbearbeitet werden können, steht nicht mehr zur Verfügung. Es ist pure Spekulation, hier einen Zusammenhang zu vermuten, ein leichtes Augenbrauenlupfen kann man sich aber dennoch nicht verkneifen.

In einem Artikel mit dem Titel “Wie wir unsere generativen KI-Produkte für Verbraucher sicherer machen” beschreibt Office-Managerin Sumit Chauhan einen dreistufigen Ansatz, mit dem die Sicherheit gewährleistet und Missbrauch verhindert werden soll.

Schon bei der Entwicklung werde gezielt nach Sicherheitslücken geforscht. Man habe ein eigenes “Team Red”, dessen Aufgabe es ist, die KI-Systeme anzugreifen und sie etwa durch manipulative Eingaben dazu zu bewegen, Dinge zu tun, die sie eigentlich nicht ausführen sollen.

Der zweite Baustein ist das konsequente Monitoring der im Einsatz befindlichen Systeme, um etwa Missbrauchsversuche frühzeitig zu erkennen. Da aber immer etwas passieren kann, habe man als dritte Säule der Absicherung Prozesse aufgesetzt, die im Fall der Fälle ein rasches Eingreifen ermöglichen.

Ohne das jetzt abwerten zu wollen: Im Grunde wird hier das kleine Einmaleins der Softwareentwicklung beschrieben. Es ist sicherlich kein Zufall, dass der Abschnitt über den Umgang mit entdeckten Problemen der längste ist, nach dem ein Mitarbeiter öffentlich behauptet hat, dass genau diese Prozesse nicht funktionieren würden.

Im zweiten gestern veröffentlichten Blogpost meldet sich Microsofts oberster Justiziar Brad Smith zu Wort, der ebenfalls die technischen Investitionen hervorhebt, mit denen ein Missbrauch von generativer KI verhindert werden soll. Er schreibt zudem, dass man neue Gesetze und neue Möglichkeiten für die Ermittlungsbehörden schaffen muss, um Nutzer vor dem Missbrauch generativer KI zu schützen. Microsoft stehe bereit, um diese Prozesse mitzugestalten.

Last but not least schreibt Smith, dass es eine aufgeklärte Öffentlichkeit braucht, welche die Risiken kennt und nicht alles glaubt, was im Internet steht. Oder mit anderen Worten: Wir sind verloren.

Über den Autor

Martin Geuß

Martin Geuß

Ich bin Martin Geuß, und wie unschwer zu erkennen ist, fühle ich mich in der Windows-Welt zu Hause. Seit mehr als 17 Jahren lasse ich die Welt an dem teilhaben, was mir zu Windows und anderen Microsoft-Produkten durch den Kopf geht, und manchmal ist das sogar interessant. Das wichtigste Motto meiner Arbeit lautet: Von mir - für Euch!

Anzeige