Mit KI gegen Kinderpornografie: Microsoft und das Land NRW arbeiten zusammen

Mit KI gegen Kinderpornografie: Microsoft und das Land NRW arbeiten zusammen

Für dieses Thema benötige ich eine etwas längere Einleitung: Kinderpornografie ist ein wahrhaft ekelhaftes Thema. Zum Einen, weil Kindesmissbrauch eines der widerlichsten Verbrechen überhaupt ist, zum Anderen aber auch, weil es gerne als Totschlagargument oder zu „Marketing-Zwecken“ benutzt wird, wodurch die Opfer irgendwie ein zweites Mal missbraucht werden. Ich fasse das Thema daher grundsätzlich ungern an, in diesem konkreten Zusammenhang finde ich es aber auch aus technischer Sicht interessant.

Worum geht’s? Microsoft und das Justizministerium des Landes Nordrhein-Westfalen erarbeiten gemeinsam eine Lösung, mit der kinderpornografisches Material mit KI-Unterstützung schneller ausgewertet werden soll. Dabei geht es im Wesentlichen um zwei Dinge: Einerseits will man schneller werden, denn in der Praxis kommt es tatsächlich vor, dass Verdächtige davon kommen, weil man beschlagnahmte Computer und Festplatten zurückgeben muss. Grund: Es fehlen die Ressourcen, um das Beweismaterial innerhalb der gesetzlichen Fristen zu untersuchen. Der zweite Punkt ist jener, dass die Sichtung des Materials für die Beamten eine ungeheure psychische Belastung ist, was man nur allzu leicht nachvollziehen kann.

Mit seiner Cloud-Plattform Azure will Microsoft das erste Problem vollständig lösen und das zweite auf ein Minimum reduzieren. Das ist der Punkt, an dem es aus technischer Sicht interessant wird. Selbstverständlich kann potenziell kinderpornografisches Material nicht einfach in die Cloud hochgeladen werden, denn die Vorschriften im Umgang mit diesen Daten sind logischerweise extrem streng.

Microsoft hat daher eine Technologie entwickelt, welche die Bilder „abstrahiert und dekonstruiert“. Dabei werden sie in Fragmente umgewandelt, die für das menschliche Auge keine erkennbaren Inhalte enthalten. Selbst wenn es einem Dritten gelänge, den Datenverkehr mitzuschneiden, würde er nur völlig unbrauchbare Dateien enthalten.

dekonstruierte bilddatei

Nur die KI in der Azure-Cloud kann die ursprünglichen Informationen noch aus den dekonstruierten Dateien lesen und so eine erste Einstufung vornehmen, ob es sich um strafrechtlich relevantes Material handelt oder nicht. Am Ende entscheidet natürlich dennoch ein Mensch darüber, ob eine Straftat vorliegt und Anklage erhoben wird. Die Sichtung der Daten bleibt den Beamten also nicht komplett erspart, sie müssen sich aber nicht mehr durch tausende von Dateien wühlen.

Microsoft Pilotprojekt Kinderpornografie

Bisher wurde die Technologie offenbar nur mit unbedenklichen Bildern getestet. Im nächsten Schritt soll nun ein Test mit echten Daten erfolgen, um die Algorithmen und damit die Treffergenauigkeit zu verbessern.

Über den Autor
Martin Geuß
  • Martin Geuß auf Facebook
  • Martin Geuß auf Twitter
Ich bin Martin Geuß, und wie unschwer zu erkennen ist, fühle ich mich in der Windows-Welt zu Hause. Seit mehr als elf Jahren lasse ich die Welt an dem teilhaben, was mir zu Windows und anderen Microsoft-Produkten durch den Kopf geht, und manchmal ist das sogar interessant. Das wichtigste Motto meiner Arbeit lautet: Von mir - für Euch!

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.



Kommentare
  1. Das ist doch mal eine durchweg positive Sache. Auch schön zu sehen, dass staatliche Institutionen Hand in Hand mit Microsoft arbeiten, und sich nicht aus politischen Gründen mal wieder genieren.
    Die armen Microsoft Mitarbeiter die sich den Schrott angucken müssen um zu überprüfen ob die ki richtig arbeitet... :-(
    Ich bin mir sicher, dass dazu niemand gezwungen wird. Ansonsten könnte man ja auch argumentieren, dass Rechtsmediziner total arme Menschen sind, wenn sie jeden Tag sehen müssen, was sie nun mal sehen müssen. Genauso wie man dort Abstand braucht, braucht man auch bei dieser Sache Abstand. Und die Einstellung, dass das alles für die gute Sache ist.
    Ein widerliches Thema, das dennoch unbedingt angegangen werden muss. Wer so etwas macht, gehört zum Abschaum unserer Gesellschaft. Um so etwas aufzuklären, muss es Ausnahmen im Datenschutz geben. Nur meine Meinung!
    Vielen Dank an Microsoft!
    Generell muss man überlegen, ob das mit dem Datenschutz in die richtige Richtung geht. Exekutivorgane können nicht immer darauf warten, dass 4 Gerichte den Zugriff durchwinken. Leider ist Realität, dass manche Sachen einfach gar nicht mehr gehen. Und die Allgemeinheit, die sich Datenschutz noch und nöcher wünscht, ist dann gleichzeitig erbost darüber, dass sie nicht ausreichend vor Straftätern geschützt werden. Eine ziemlich unbefriedigende Situation, zumindest für mich.
Nach oben