
Wegweisende Technologie:
Apple: Mit Fotoabgleich gegen Kinderpornografie
Um der zunehmenden Verbreitung von Kinderpornografie entgegenzuwirken, stellt Apple neue Funktionen vor, die helfen sollen, Kinder zu schützen, Eltern zu warnen und Täter zu überführen.

Foto: Apple
Die Verbreitung von kinderpornografischen Bildern über Smartphones nimmt immer mehr zu. Nun hat Apple angekündigt, stärker gegen Kinderpornografie und deren Verbreitung vorgehen zu wollen und führt mehrere Funktionen ein, die dazu beitragen sollen, Kindesmissbrauch zu erkennen.
So soll zum Einen mittels maschinellem Lernen in der iMessage-App beim Empfangen und Versenden sensibler Inhalte gewarnt werden. Bilder werden unscharf dargestellt, Eltern benachrichtigt. Private Kommunikation hingegen soll für Apple unlesbar bleiben.
Fotoscan auf Nutzergeräten
Auch sollen neue Verschlüsselungs-Anwendungen die Verbreitung von Material über sexuellen Kindesmissbrauch im Internet begrenzen. Der Konzern will von Herbst an zunächst Fotos auf Geräten von US-Nutzern bei Nutzung des Online-Speicherdienstes iCloud mit einer Liste von bekanntem kinderpornografischen Material abgleichen lassen. So will Apple den Strafverfolgungsbehörden Informationen über Sammlungen kritischer Inhalte liefern.
Bei dem komplexen Verfahren vergleicht das System Bilder auf dem Gerät mit bekannten kinderpornografischen Bildern einer Datenbank, die vom National Center for Missing and Exploited Children (NCMEC) und anderen Kinderschutzorganisationen zur Verfügung gestellt wird. Die Informationen werden mithilfe von Hashes verschlüsselt und somit unlesbar auf den Geräten der Nutzer gespeichert.
Identische und visuell ähnliche Bilder ergeben denselben Hash, während Bilder, die sich voneinander unterscheiden, unterschiedliche Hashes erzeugen. Ein Beispiel: Ein Bild, das leicht beschnitten, in der Größe verändert oder von Farbe in Schwarz-Weiß umgewandelt wurde, wird identisch mit seinem Original behandelt und hat denselben Hash:
Wenn ein bestimmter Schwellenwert an kritischen Bildern überschritten wird, kann Apple den Inhalt einer Prüfung unterziehen. Das Konto des Nutzers wird daraufhin deaktiviert und ein Bericht an das NCMEC gesendet. Das Verfahren funktioniert nach Branchenangaben fast fehlerfrei für Fotos - greift aber noch nicht bei Videos.
Während die Funktion nur für Apple-Kunden mit US-Accounts aktiviert wird, ist die Datei mit den Hashes fester Teil des Betriebssystems und soll auf alle iPhones geladen werden, auf denen eine dieser Systemversion installiert wird. Vor einer internationalen Einführung Funktion müssen noch rechtliche Voraussetzungen geklärt werden.
Siri und Suchfunktion sollen auch helfen
Siri und die Suchfunktion werden außerdem künftig eingreifen, wenn Nutzer versuchen, nach eindeutigen Themen zu suchen. Zudem sollen sie Hilfestellungen geben, die Nutzer über das Thema sexueller Kindesmissbrauch aufklären und an entsprechende Stellen verweisen, die Unterstützung für Betroffene anbieten. Diese Funktionen sollen im Laufe dieses Jahres mit den Updates für iOS 15, iPadOS 15, watchOS 8 und macOS Monterey eingeführt werden.