Apple News

Global Coalition of Policy Groups uppmanar Apple att överge 'Plan att bygga övervakningsmöjligheter i iPhones'

Torsdag 19 augusti 2021 02:23 PDT av Tim Hardwick

En internationell koalition av mer än 90 policy- och rättighetsgrupper publicerade ett öppet brev på torsdagen uppmanade Apple att överge sina planer på att 'bygga in övervakningsmöjligheter i iPhones, iPads och andra produkter' - en hänvisning till företagets avsikt att skanna användarnas iCloud-fotobibliotek efter bilder av sexuella övergrepp mot barn (via Reuters ).





Barnsäkerhetsfunktion gul

'Även om dessa funktioner är avsedda att skydda barn och minska spridningen av material för sexuella övergrepp mot barn (CSAM), är vi oroliga för att de kommer att användas för att censurera skyddat tal, hota integriteten och säkerheten för människor runt om i världen och ha katastrofala konsekvenser för många barn”, skriver grupperna i brevet.



Vissa undertecknare av brevet, organiserat av det USA-baserade ideella Center for Democracy & Technology (CDT), är oroade över att Apples CSAM-skanningssystem på enheten skulle kunna undergrävas i länder med olika rättssystem för att söka efter politiskt eller annat känsligt innehåll.

'När den här bakdörrsfunktionen är inbyggd kan regeringar tvinga Apple att utöka meddelanden till andra konton och att upptäcka bilder som är stötande av andra skäl än att de är sexuellt explicita', står det i brevet.

I brevet uppmanas även Apple att överge planerade ändringar av iMessage i familjekonton, som skulle försöka identifiera och sudda ut nakenhet i barns meddelanden, så att de bara kan se det om föräldrarna meddelas. Undertecknarna hävdar att steget inte bara kan äventyra barn i intoleranta hem eller de som söker utbildningsmaterial, det skulle också bryta end-to-end-kryptering för iMessage.

Vissa undertecknare kommer från länder där det redan pågår häftiga juridiska strider om digital kryptering och integritetsrättigheter, som Brasilien, där WhatsApp upprepade gånger har blockerats för att ha misslyckats med att dekryptera meddelanden i brottsutredningar. Andra undertecknare är baserade i Indien, Mexiko, Tyskland, Argentina, Ghana och Tanzania. Grupper som också har skrivit på inkluderar American Civil Liberties Union, Electronic Frontier Foundation, Access Now, Privacy International och Tor Project.

Apples plan att upptäcka kända CSAM-bilder lagrade i iCloud-foton har varit särskilt kontroversiellt och har föranlett oro från säkerhetsforskare, akademiker, integritetsgrupper och andra om att systemet potentiellt missbrukas av regeringar som en form av massövervakning. Företaget har försökt ta itu med oro genom att publicera bilagor och a FAQ-sida förklara hur bilddetekteringssystemet kommer att fungera och argumentera för att risken för falska upptäckter är låg.

Apple har också sagt att de skulle vägra krav på att utöka bilddetekteringssystemet utöver bilder på barn som flaggats av erkända databaser med material om sexuella övergrepp mot barn, även om som Reuters påpekar, har det inte sagt att det skulle dra sig ur en marknad snarare än att lyda ett domstolsbeslut.

Etiketter: Apples integritet , Apples barnsäkerhetsfunktioner