Apple News

Säkerhetsforskare uttrycker larm över Apples planer på att skanna iCloud-bilder, men övningar är redan utbredda

Torsdag 5 augusti 2021 14:04 PDT av Juli Clover

Äpple meddelade idag det med lanseringen av iOS 15 och iPad 15 kommer den att börja skanna iCloud-foton i USA för att leta efter känt material för sexuella övergrepp mot barn (CSAM), med planer på att rapportera fynden till National Center for Missing and Exploited Children (NCMEC).





Barnsäkerhetsfunktion
Innan Apple detaljerade sina planer läckte nyheter om CSAM-initiativet, och säkerhetsforskare har redan börjat uttrycka oro över hur Apples nya bildskanningsprotokoll skulle kunna användas i framtiden, vilket noteras av Ekonomiska tider .

Apple använder ett 'NeuralHash'-system för att jämföra kända CSAM-bilder med foton på en användares iPhone innan de laddas upp till iCloud . Om det finns en matchning laddas det fotot upp med en kryptografisk säkerhetskupong och vid en viss tröskel utlöses en granskning för att kontrollera om personen har CSAM på sina enheter.



apple watch serie 7 blodtryck

För närvarande använder Apple sin bildskannings- och matchningsteknik för att leta efter barnmisshandel, men forskare oroar sig för att den i framtiden skulle kunna anpassas för att skanna efter andra typer av bilder som är mer oroande, som skyltar mot regeringen på protester.

I en serie tweets, Johns Hopkins kryptografi forskare Matthew Green sa att CSAM-skanning är en 'riktigt dålig idé' eftersom det i framtiden kan utökas till att skanna krypterade foton från början till ände snarare än bara innehåll som laddas upp till ‌iCloud‌. För barn, Apple är implementera en separat skanningsfunktion som letar efter sexuellt explicit innehåll direkt i iMessages, som är krypterade från ände till ände.

Green tog också upp oro över hasharna som Apple planerar att använda eftersom det potentiellt kan bli 'kollisioner', där någon skickar en ofarlig fil som delar en hash med CSAM och kan resultera i en falsk flagga.

Apple å sin sida säger att dess skanningsteknik har en 'extremt hög nivå av noggrannhet' för att säkerställa att konton inte är felaktigt flaggade, och rapporter granskas manuellt innan en persons ‌iCloud‌ kontot är inaktiverat och en rapport skickas till NCMEC.

Green tror att Apples implementering kommer att pressa andra teknikföretag att ta till sig liknande tekniker. 'Det här kommer att bryta dammen', skrev han. 'Regeringar kommer att kräva det av alla.' Han jämförde tekniken med 'verktyg som repressiva regimer har utplacerat.'


Säkerhetsforskaren Alec Muffett, som tidigare arbetade på Facebook, sa att Apples beslut att implementera denna typ av bildskanning var ett 'stort och regressivt steg för individuell integritet.' 'Apple går tillbaka till privatlivet för att möjliggöra 1984', sa han.

Ross Anderson, professor i säkerhetsteknik vid University of Cambridge sa att det var en 'absolut skrämmande idé' som kan leda till 'distribuerad bulkövervakning' av enheter.

Som många har påpekat på Twitter gör flera teknikföretag redan bildskanning för CSAM. Google, Twitter, Microsoft, Facebook och andra använder bildhashningsmetoder för att leta efter och rapportera kända bilder av barnmisshandel.


Det är också värt att notera att Apple var det redan skannar en del innehåll för bilder av övergrepp mot barn innan lanseringen av det nya CSAM-initiativet. År 2020 sa Apples integritetschef Jane Horvath att Apple använde screeningteknik för att leta efter olagliga bilder och sedan inaktiverar konton om bevis på CSAM upptäcks.

ska jag köpa en ipad mini

Apple 2019 uppdaterat sin integritetspolicy att notera att det skulle skanna uppladdat innehåll efter 'potentiellt olagligt innehåll, inklusive material för sexuellt utnyttjande av barn', så dagens meddelanden är inte helt nya.

Obs: På grund av diskussionens politiska eller sociala karaktär om detta ämne, finns diskussionstråden i vår Politiska nyheter forum. Alla forummedlemmar och webbplatsbesökare är välkomna att läsa och följa tråden, men inlägg är begränsat till forummedlemmar med minst 100 inlägg.

Etiketter: Apples integritet , Apples barnsäkerhetsfunktioner