Mit KI gegen Kinderpornografie: Microsoft und das Land NRW arbeiten zusammen

Mit KI gegen Kinderpornografie: Microsoft und das Land NRW arbeiten zusammen

Für dieses Thema benötige ich eine etwas längere Einleitung: Kinderpornografie ist ein wahrhaft ekelhaftes Thema. Zum Einen, weil Kindesmissbrauch eines der widerlichsten Verbrechen überhaupt ist, zum Anderen aber auch, weil es gerne als Totschlagargument oder zu „Marketing-Zwecken“ benutzt wird, wodurch die Opfer irgendwie ein zweites Mal missbraucht werden. Ich fasse das Thema daher grundsätzlich ungern an, in diesem konkreten Zusammenhang finde ich es aber auch aus technischer Sicht interessant.

Worum geht’s? Microsoft und das Justizministerium des Landes Nordrhein-Westfalen erarbeiten gemeinsam eine Lösung, mit der kinderpornografisches Material mit KI-Unterstützung schneller ausgewertet werden soll. Dabei geht es im Wesentlichen um zwei Dinge: Einerseits will man schneller werden, denn in der Praxis kommt es tatsächlich vor, dass Verdächtige davon kommen, weil man beschlagnahmte Computer und Festplatten zurückgeben muss. Grund: Es fehlen die Ressourcen, um das Beweismaterial innerhalb der gesetzlichen Fristen zu untersuchen. Der zweite Punkt ist jener, dass die Sichtung des Materials für die Beamten eine ungeheure psychische Belastung ist, was man nur allzu leicht nachvollziehen kann.

Mit seiner Cloud-Plattform Azure will Microsoft das erste Problem vollständig lösen und das zweite auf ein Minimum reduzieren. Das ist der Punkt, an dem es aus technischer Sicht interessant wird. Selbstverständlich kann potenziell kinderpornografisches Material nicht einfach in die Cloud hochgeladen werden, denn die Vorschriften im Umgang mit diesen Daten sind logischerweise extrem streng.

Microsoft hat daher eine Technologie entwickelt, welche die Bilder „abstrahiert und dekonstruiert“. Dabei werden sie in Fragmente umgewandelt, die für das menschliche Auge keine erkennbaren Inhalte enthalten. Selbst wenn es einem Dritten gelänge, den Datenverkehr mitzuschneiden, würde er nur völlig unbrauchbare Dateien enthalten.

dekonstruierte bilddatei

Nur die KI in der Azure-Cloud kann die ursprünglichen Informationen noch aus den dekonstruierten Dateien lesen und so eine erste Einstufung vornehmen, ob es sich um strafrechtlich relevantes Material handelt oder nicht. Am Ende entscheidet natürlich dennoch ein Mensch darüber, ob eine Straftat vorliegt und Anklage erhoben wird. Die Sichtung der Daten bleibt den Beamten also nicht komplett erspart, sie müssen sich aber nicht mehr durch tausende von Dateien wühlen.

Microsoft Pilotprojekt Kinderpornografie

Bisher wurde die Technologie offenbar nur mit unbedenklichen Bildern getestet. Im nächsten Schritt soll nun ein Test mit echten Daten erfolgen, um die Algorithmen und damit die Treffergenauigkeit zu verbessern.

Artikel im Forum diskutieren (5)
Über den Autor
Martin Geuß
  • Martin Geuß auf Facebook
  • Martin Geuß auf Twitter
Ich bin Martin Geuß, und wie unschwer zu erkennen ist, fühle ich mich in der Windows-Welt zu Hause. Seit mehr als zwölf Jahren lasse ich die Welt an dem teilhaben, was mir zu Windows und anderen Microsoft-Produkten durch den Kopf geht, und manchmal ist das sogar interessant. Das wichtigste Motto meiner Arbeit lautet: Von mir - für Euch!
Nach oben