Apple News

Apple-anställda som internt tar upp oro över CSAM-detektionsplaner

Fredagen den 13 augusti 2021 12:43 PDT av Sami Fathi

Apple-anställda går nu med i kören av individer som uttrycker oro över Apples planer på att skanna iPhone användarnas fotobibliotek för CSAM eller material om sexuella övergrepp mot barn, enligt uppgift internt talade om hur tekniken skulle kunna användas för att skanna användarnas foton efter andra typer av innehåll, enligt en rapport från Reuters .





apple park drone juni 2018 2
Enligt Reuters , har ett ospecificerat antal Apple-anställda tagit till interna Slack-kanaler för att väcka oro över CSAM-detektering. Specifikt är anställda oroade över att regeringar kan tvinga Apple att använda tekniken för censur genom att hitta annat innehåll än CSAM. Vissa anställda är oroliga för att Apple skadar sitt branschledande integritetsrykte.

Apple-anställda har översvämmat en Apple intern Slack-kanal med mer än 800 meddelanden om planen som tillkännagavs för en vecka sedan, berättade arbetare som bad att inte bli identifierade till Reuters. Många uttryckte oro för att funktionen skulle kunna utnyttjas av repressiva regeringar som letade efter annat material för censur eller arresteringar, enligt arbetare som såg den dagar långa tråden.



Tidigare säkerhetsförändringar hos Apple har också väckt oro bland anställda, men volymen och varaktigheten av den nya debatten är överraskande, sa arbetarna. Vissa affischer oroar sig för att Apple skadar sitt ledande rykte för att skydda integriteten.

Apple-anställda i roller som hänför sig till användarsäkerhet tros inte ha varit en del av den interna protesten, enligt rapporten.

Ända sedan dess tillkännagivande förra veckan , Apple har bombarderats med kritik över sina CSAM-detektionsplaner, som fortfarande förväntas rulla ut med iOS 15 och iPadOS 15 i höst. Oron kretsar främst kring hur tekniken skulle kunna utgöra en hal backe för framtida implementeringar av förtryckande regeringar och regimer.

hur länge håller applecare för iphone

Apple har bestämt stött tillbaka tanken på att tekniken på enheten som används för att upptäcka CSAM-material skulle kunna användas för vilket annat syfte som helst. I en publicerat FAQ-dokument , säger företaget att det häftigt kommer att vägra alla sådana krav från regeringar.

Kan regeringar tvinga Apple att lägga till icke-CSAM-bilder till hashlistan?
Apple kommer att avslå alla sådana krav. Apples CSAM-detekteringsförmåga är byggd enbart för att upptäcka kända CSAM-bilder lagrade i iCloud Photos som har identifierats av experter på NCMEC och andra barnsäkerhetsgrupper. Vi har ställts inför krav på att bygga och implementera regeringsbemyndigade förändringar som försämrar användarnas integritet tidigare och har bestämt vägrat dessa krav. Vi kommer att fortsätta att vägra dem i framtiden. Låt oss vara tydliga, den här tekniken är begränsad till att upptäcka CSAM lagrad i iCloud och vi kommer inte att gå med på någon regerings begäran om att utöka den. Dessutom genomför Apple mänsklig granskning innan en rapport görs till NCMEC. I ett fall där systemet flaggar foton som inte matchar kända CSAM-bilder, skulle kontot inte inaktiveras och ingen rapport skulle lämnas till NCMEC.

Ett öppet brev Att kritisera Apple och uppmana företaget att omedelbart stoppa sin plan att distribuera CSAM-detektion har fått mer än 7 000 signaturer i skrivande stund. Chefen för WhatsApp har också vägs in i debatten .

Etiketter: Apples integritet , Apples barnsäkerhetsfunktioner