Craig Federighi versucht, die „Verwirrung“ zu beseitigen Apple’s umstrittene Kindersicherheitsfunktion

Craig Federighi versucht, die „Verwirrung“ zu beseitigen Apple's umstrittene Kindersicherheitsfunktion 1

Letzte Woche Apple kündigte bald eine neue Funktion an, die Fotos in iCloud auf Material zum sexuellen Missbrauch von Kindern (CSAM) scannt. Apple ein internes Memo gesendet, das den Mitarbeitern versichert, dass die CSAM-Funktion sicher ist. Jetzt AppleDer Senior Vice President von Craig Federighi hat in einem neuen Interview mit die Luft gereinigt Das Wall Street Journal. Federighi hat Datenschutzmechanismen enthüllt, die in die neue Funktion integriert sind, um Verwirrung zu vermeiden.

Federighi gab dem Interview einen Ton an, indem er das akzeptierte Apple hatte die Ankündigung von letzter Woche falsch gehandhabt. Die neuen Funktionen beziehen sich auf das Aussortieren expliziter Inhalte in iMessage und das Scannen von iCloud-Fotos auf CSAM.

Es ist wirklich klar, dass viele Nachrichten in Bezug auf das Verständnis der Dinge ziemlich durcheinander geraten sind. Wir wünschen uns, dass dies für alle etwas klarer geworden wäre, denn wir fühlen uns sehr positiv und stark bei dem, was wir tun.

Apple VP fügte hinzu, dass es vielleicht keine gute Idee sei, beide Features zusammen anzukündigen. Er sagt, dass die Leute beide Funktionen verbunden haben und natürlich Bedenken hinsichtlich der Privatsphäre hatten. Sicherheitsforscher und Datenschutzbeauftragte äußerten Bedenken darüber, wie Regierungen und andere Parteien an personenbezogene Daten gelangen könnten. Federighi sagt, dass die Daten “mehreren Ebenen der Überprüfbarkeit” unterzogen werden.

Die Funktion benachrichtigt die Autorität nur, wenn 30 oder mehr Bilder in der iPhone-Bibliothek mit CSAM-Inhalten übereinstimmen. Next Up, Apple prüft die Warnung und bestätigt, ob die Bilder echt sind oder nur ein Fehlalarm. Er fügt hinzu, dass der gesamte Matching-Prozess lokal ist und Daten nicht an die Server von iCloud gesendet werden. Apple wird eine Datenbank mit Bildern von mehreren Kinderschutzorganisationen verwenden, und der Prozess würde einen unabhängigen Prüfer einbeziehen.

Unsere Stellungnahme

Apple’s Erklärung scheint die Verwirrung nur wenig zu beseitigen. Wir haben gesehen wie Apple Auftragnehmer hörten schließlich stundenlange private Gespräche, während sie Siri-Gespräche in der Vergangenheit bewerteten. Darüber hinaus ist die Funktion nicht wasserdicht, da jemand, der sich für CSAM interessiert, die Verwendung von iCloud einstellen wird. Bist du zufrieden mit Apple’s Erklärung für die CSAM-Funktion? Teile deine Gedanken.

[via WSJ]

Verwandt

Back to top button