Technologische Neuigkeiten, Bewertungen und Tipps!

Entwickler Reverse-Engineers Apple’s CSAM-Erkennungssystem, findet schwerwiegende Fehler darin

Entwickler Reverse-Engineers Apple's CSAM-Erkennungssystem, findet schwerwiegende Fehler darin 1

Apple kündigte Anfang dieses Monats das neue CSAM-Erkennungssystem an. Seit der Ankündigung des Features hat CSAM nicht nur von Sicherheitsforschern, sondern sogar von vielen Gegenreaktionen erfahren Apple’s eigene Mitarbeiter rufen es aus. Jetzt hat ein unabhängiger Entwickler CSAM zurückentwickelt und einige schwerwiegende Fehler darin gefunden.

Der Entwickler Asuhariet Ygvar hat Code für eine rekonstruierte Python-Version von NeuralHash auf Github veröffentlicht. Überraschenderweise behauptet der Entwickler, den Code aus iOS 14.3 extrahiert zu haben, obwohl Apple die behaupten, dass die CSAM-Erkennung in zukünftigen Versionen in iOS verfügbar sein wird.

Ygvar hat auf Github eine detaillierte Anleitung zum Extrahieren von NeuralMatch-Dateien von macOS oder iOS veröffentlicht. Nachdem er das umgekehrt codierte System auf Reddit enthüllt hatte, veröffentlichte er einen Kommentar mit den Worten:

„Frühe Tests haben gezeigt, dass es die Größenanpassung und Komprimierung von Bildern tolerieren kann, aber kein Zuschneiden oder Rotationen. Ich hoffe, dies wird uns helfen, den NeuralHash-Algorithmus besser zu verstehen und seine potenziellen Probleme zu kennen, bevor er auf allen iOS-Geräten aktiviert wird.“

Sobald der Code auf Github verfügbar war, begannen Entwickler auf der ganzen Welt, Fehler darin zu finden. Aber bevor wir erklären, was der Fehler ist, müssen Sie wissen, wie iOS CSAM-Inhalte erkennt. iOS unterteilt ein Foto in eine Reihe von Hashes. Anschließend werden diese Hashes mit den Hashes des Fotos in der Datenbank des National Center for Missing and Exploited Children (NCMEC) abgeglichen. Wenn die Hashes übereinstimmen, wird ein Flag gesetzt.

Eine Warnung wird ausgelöst, wenn mehr als 30 Flags ausgelöst werden, wonach ein menschlicher Prüfer sieht, was die Flag ausgelöst hat. Apple sagt, wenn eine Person für schuldig befunden wird, kann sie Maßnahmen ergreifen.

Entwickler haben das festgestellt Apple’s System generiert möglicherweise denselben Satz von Hashes für zwei völlig unterschiedliche Fotos, was ein erheblicher Fehler in der zugrunde liegenden Kryptographie wäre Apple’s neues System. Wenn jemand irgendwie Zugriff auf die Datenbank der NCMEC-CSAM-Fotos erhält, könnte das System so umgebaut werden, dass es denselben Hash für ein Nicht-CSAM-Foto generiert. Dies würde 30 kollidierende Bilder erfordern, um einen falsch positiven Auslöser zu erzeugen, und wird höchstwahrscheinlich nicht passieren, würde aber dennoch menschliches Eingreifen erfordern.

AppleDie Kindersicherheitsfunktionen von s sind seit der Ankündigung umstritten. Einige sagen, dass es für das Unternehmen in Ordnung ist, Kindesmissbrauch auf den Fotos zu überprüfen, während andere sagen, dass es eine Verletzung ihrer Privatsphäre ist. Wie fühlst du dich? Apple Durchsuchen Sie die iCloud-Fotobibliothek nach CSAM? Glauben Sie, dass dies eine Verletzung Ihrer Privatsphäre ist? Schreiben Sie einen Kommentar und teilen Sie uns Ihre Meinung mit!

Table of Contents