Kampf gegen Kinderpornografie: Apple möchte Geräte auf Missbrauchsfotos scannen
Ab Herbst 2021 möchte Apple anhand eines komplexen Verfahrens mit Bildabgleichen per „Hashes“ die Fotos von US-Nutzern, die den hauseigenen Online-Speicherdienstes iCloud für Fotos verwenden, mit einer Liste von bekanntem kinderpornografischem Material abgleichen. Sogenannte „Hashes“ sind eine Art digitaler Fingerabdruck eines Bildes, die mit den Fotos der Nutzer verglichen werden sollen.
Solche Hashes von bereits bekannten kinderpornografischen Inhalten sollen auf die Apple-Geräte geladen und dann mit den Fotos der Nutzer abgeglichen werden. Mit diesem Verfahren lässt sich unter den Bildern der Nutzer eine etwaige Kopie des jeweiligen Fotos erkennen. Das Original kann aus dem Foto jedoch nicht wiederhergestellt werden.
Apple überprüft Fotos auf kinderpornografisches Material
Sobald das Verfahren zu einer Übereinstimmung führt, sollen verdächtige Fotos mit einem Zertifikat versehen werden. Mithilfe dieses Zertifikats kann Apple die betreffenden Bilder nach dem Hochladen in die iCloud ausnahmsweise öffnen und einer Prüfung unterziehen. Das System soll jedoch erst bei einer bestimmten Anzahl von Treffern anschlagen.
Sofern bei der Überprüfung durch Apple tatsächlich kinderpornografisches Material entdeckt wird, meldet der Konzern den Fund an die amerikanische Nichtregierungsorganisation NCMEC (National Center for Missing & Exploited Children). Diese Organisation kann daraufhin ihrerseits die zuständigen Behörden verständigen.
Neue Inhalte können nicht entdeckt werden
Die Nutzer, bei denen der Abgleich kinderpornografisches Material aufgedeckt hat, werden über den Fund nicht benachrichtigt. Allerdings wird infolgedessen das Konto des jeweiligen Nutzers gesperrt. Die Missbrauchsfotos, die zum Abgleich mit den Fotos der Nutzer verwendet werden sollen, werden von einer Kinderschutzorganisation zur Verfügung gestellt.
Da für den Abgleich jedoch nur bereits bestehendes kinderpornografisches Material verwendet wird, kann die Technologie nicht zur Aufdeckung von neuen Abbildungen verwendet werden, die sexuellen Missbrauch an Kindern zeigen. Es kann nur gegen die Fotos vorgegangen werden, die bei dem Abgleich mit einer Datenbank aus bestehenden Missbrauchsbildern erkannt werden.
Experten befürchten Zweckentfremdung des Systems
Außerdem kritisieren Bürgerrechtler und IT-Sicherheitsforscher, dass überhaupt die Möglichkeit zum Abgleich von Dateien auf den Geräten geschaffen wird. Er könne passieren, dass ein solches System zweckentfremdet wird und auch Hashes für andere Inhalte auf die Geräte geschleust werden. Beispielsweise hätten autoritäre Regierungen die Möglichkeit, von Apple die Aufnahme anderer Inhalte als Hashes in die Datenbank zu fordern und damit politische Überwachung zu betreiben.
Apple weist diese Kritik zurück und verteidigt die geplanten Maßnahmen gegen Kinderpornografie. Das Verfahren sei so konzipiert, dass nicht heimlich Hashes zu anderen Inhalten auf die Geräte gelangen könnten. Außerdem würde Apple jegliche Versuche von Regierungen, das Verfahren für die Suche nach anderen Inhalten zu nutzen, abweisen. Eine Massenüberwachung sei durch die neue Technologie nicht zu befürchten.