Am Puls von Microsoft

Deepfake-Pornos mit dem Microsoft Designer: Microsoft-Mitarbeiter erhebt schwere Vorwürfe

Deepfake-Pornos mit dem Microsoft Designer: Microsoft-Mitarbeiter erhebt schwere Vorwürfe

In der vergangenen Woche sorgten per KI generierte Porno-Bilder von Taylor Swift für reichlich Medienrummel. Es wurde kolportiert, der Microsoft Designer wurde für die Erstellung dieser Bilder verwendet. Das Dementi aus Redmond folgte prompt, jetzt meldet sich ein Microsoft-Mitarbeiter zu Wort und erhebt schwere Vorwürfe gegen seinen Arbeitgeber: Er habe auf die Sicherheitsrisiken hingewiesen, sei aber mundtot gemacht worden.

Shane Jones, laut seines LinkedIn-Profils ein leitender Software-Entwickler in Microsofts KI-Team, hat sich jetzt sogar an den Generalstaatsanwalt des Bundesstaats Washington sowie an mehrere Kongressabgeordnete gewendet. Er fordert eine öffentliche Untersuchung der Vorfälle.

Die Vorwürfe sind schwerwiegend: Bereits Anfang Dezember habe er eine Sicherheitslücke in Microsoft Designer bzw. in DALL-E 3 entdeckt, welche die Umgehung der Schutzfunktionen erlaubt, mit denen das Erstellen von Deepfakes und insbesondere pornografische Darstellungen eigentlich vermieden werden soll. Er habe sowohl Microsoft als auch OpenAI darüber informiert und empfohlen, DALL-E 3 möglichst komplett vom Netz zu nehmen, bis die Probleme behoben sind. Man habe ihn allerdings nicht ernst genommen und sogleich versucht, ihn mundtot zu machen.

Das Magazin Geekwire, das über den Fall berichtet, erhielt dazu von Microsoft eine Stellungnahme: Man habe sich verpflichtet, auf die Bedenken der Mitarbeiter einzugehen und “robuste interne Meldekanäle eingerichtet”, um alle Probleme ordnungsgemäß zu untersuchen und zu beheben, bevor wir sie öffentlich gemacht werden. Diese Vorgehensweise habe man dem Mitarbeiter nahegelegt. Man habe die gemeldeten Probleme außerdem untersucht und festgestellt, dass kein Risiko bestehe.

Die Antwort seines Arbeitgebers sei “bezeichnend”, sagt Jones. Er habe am 1. Dezember seine Vorgesetzten über die von ihm entdeckten Schwachpunkte informiert, diese empfahlen ihm, eine Meldung an das interne Sicherheitsteam zu machen, was er auch tat. Noch am selben Tag erhielt er die Rückmeldung, dass kein Sicherheitsrisiko bestehe und der Fall geschlossen werde.

Man empfahl ihm zudem, sich an OpenAI zu wenden. Das tat Jones ebenfalls, erhielt von dort aber keinerlei Rückmeldung.

Jones wollte sich damit jedoch nicht abfinden. Gegenüber Geekwire sagt er: “Als ich weiter zu den Risiken recherchierte, die mit dieser speziellen Schwachstelle verbunden waren, wurde mir das in DALL-E 3 vorhandene Potenzial zur Erzeugung gewalttätiger und verstörender Bilder erst so richtig bewusst. Basierend auf meinem Verständnis, wie das Modell trainiert wurde, und den Sicherheitslücken, die ich entdeckt habe, bin ich zu dem Schluss gekommen, dass DALL-E 3 eine Gefahr für die öffentliche Sicherheit darstellt und nicht öffentlich genutzt werden sollte, bis OpenAI die mit diesem Modell verbundenen Risiken angehen konnte.

Am 14. Dezember appellierte Jones mit einem Beitrag auf LinkedIn öffentlich an den Vorstand von OpenAI, sich der Sicherheitsprobleme anzunehmen. Postwendend forderte die Rechtsabteilung von Microsoft ihn auf, den Beitrag wieder zu löschen, was er dann auch tat.

“Im Laufe des folgenden Monats bat ich wiederholt um eine Erklärung, warum mir gesagt wurde, ich solle meinen Beitrag löschen”, schreibt er. “Ich bot auch an, Informationen zu teilen, die bei der Behebung der spezifischen Schwachstelle, die ich entdeckt hatte, helfen könnten, und Ideen zu liefern, um die KI-Bilderzeugungstechnologie sicherer zu machen. Die Rechtsabteilung von Microsoft hat immer noch nicht geantwortet oder direkt mit mir kommuniziert.”

In seinem Schreiben vom 30. Januar an den Generalstaatsanwalt und drei Politiker schreibt Jones:

“Künstliche Intelligenz schreitet in einem noch nie dagewesenen Tempo voran. Ich verstehe, dass es einige Zeit dauern wird, bis Gesetze erlassen werden, um die öffentliche Sicherheit von KI zu gewährleisten. Gleichzeitig müssen wir die Unternehmen für die Sicherheit ihrer Produkte und ihre Verantwortung, bekannte Risiken der Öffentlichkeit offenzulegen, zur Rechenschaft ziehen. Besorgte Mitarbeiter, wie ich, sollten sich nicht einschüchtern lassen, damit sie schweigen.”

Es steht hier zwar Aussage gegen Aussage, die Darstellungen von Jones passen aber perfekt in das Bild, das wir von Microsoft beim Umgang mit dem Thema KI haben. Redmond wirkt derart “besoffen” von der Idee, die KI-Revolution anzuführen, dass man sich leider nur zu gut vorstellen kann, wie mit Risiken und Bedenken umgegangen wird.

Über den Autor

Martin Geuß

Martin Geuß

Ich bin Martin Geuß, und wie unschwer zu erkennen ist, fühle ich mich in der Windows-Welt zu Hause. Seit mehr als 16 Jahren lasse ich die Welt an dem teilhaben, was mir zu Windows und anderen Microsoft-Produkten durch den Kopf geht, und manchmal ist das sogar interessant. Das wichtigste Motto meiner Arbeit lautet: Von mir - für Euch!

Anzeige