KI sucht nach Kindesmissbrauch

Eine Künstliche Intelligenz von Google soll dabei helfen den Kindesmissbrauch besser zu ahnden.

Wenn es um den Missbrauch von Kindern geht, kommt das Personal schnell an seine Grenzen. Die verstörenden Bilder und Videos müssen gesichtet werden, um Anhaltspunkte zu finden. Dabei geht es um die Täter, die Opfer und die Umgebung.

Der IT-Konzern Google hat nun eine Künstliche Intelligenz entwickelt, die den Fahndern bei der Arbeit helfen soll. Die Bereitstellung durch den Konzern erfolgt kostenlos und entsprechende Institutionen, wie Non Governmental Organisations (NGOs), können sich für die Nutzung bewerben.

Damit will man nicht nur die Arbeit derjenigen erleichtern, die sich das ansehen müssen, sondern deren Arbeit auch erheblich beschleunigen. Denn die Künstliche Intelligenz ist schneller bei der Sichtung des entsprechenden Bild- und Videomaterials. Zudem ist die Künstliche Intelligenz in der Lage sehr viel des Materials zu durchsuchen, ohne dass sich ein Mensch das ansehen muss.

Letztlich muss aber der Mensch die Entscheidung treffen, ob das Material kriminell ist oder nicht. Denn die Künstliche Intelligenz bewertet die Bilder und Videos nach einer Wahrscheinlichkeit. Ob es sich dabei dann tatsächlich um illegales Material handelt, muss dann eben von Menschen beurteilt werden.

Bisher musste man sich auf eine Software verlassen, die Bilder mit einer Datenbank abglich. Dabei generierte sie sogenannte Hash-Tags. Der Abgleich war aber nur möglich, wenn bereits Ähnliches vorhanden war. Die Künstliche Intelligenz aus dem Hause Google erkennt aber auch neue Zusammenhänge und ermöglicht damit eine weitaus höhere Trefferquote bei der Auswertung. Google geht von einer Erkennung von 700 Prozent gegenüber der alten Methode aus.

Die Künstliche Intelligenz wurde unter anderem in Zusammenarbeit mit der NGO Internet Watch Foundation entwickelt. Firmen und NGOs, die ein Interesse an der Künstlichen Intelligenz haben, können sich bei Google für die Nutzung bewerben.

Quelle

,

Comments are closed.