Apple News

Universitetsforskare som byggde ett CSAM-skanningssystem uppmanar Apple att inte använda den 'farliga' tekniken

Fredagen den 20 augusti 2021 06:48 PDT av Sami Fathi

Respekterade universitetsforskare slår larm över tekniken bakom Apples planer på att skanna iPhone användarnas fotobibliotek för CSAM, eller material för sexuella övergrepp på barn, som kallar tekniken 'farlig'.





Apples privatliv
Jonanath Mayer, biträdande professor i datavetenskap och offentliga angelägenheter vid Princeton University, samt Anunay Kulshrestha, forskare vid Princeton University Center for Information Technology Policy, båda skrev en op-ed för Washington Post , som beskriver deras erfarenheter av att bygga bilddetekteringsteknik.

Forskarna startade ett projekt för två år sedan för att identifiera CSAM i end-to-end-krypterade onlinetjänster. Forskarna noterar att med tanke på deras område, de 'vet värdet av end-to-end-kryptering, som skyddar data från tredje parts tillgång.' Den oro, säger de, är det som skrämmer dem över att CSAM 'sprider sig på krypterade plattformar.'



hur man ringer facetime-ljudsamtal

Mayer och Kulshrestha sa att de ville hitta en medelväg för situationen: bygga ett system som onlineplattformar kan använda för att hitta CSAM och skydda end-to-end-kryptering. Forskarna noterar att experter på området tvivlade på möjligheten till ett sådant system, men de lyckades bygga det och upptäckte i processen ett betydande problem.

Vi försökte utforska en möjlig mellanväg, där onlinetjänster kunde identifiera skadligt innehåll samtidigt som man annars bevarar end-to-end-kryptering. Konceptet var okomplicerat: Om någon delade material som matchade en databas med känt skadligt innehåll, skulle tjänsten varnas. Om en person delade oskyldigt innehåll skulle tjänsten inte lära sig något. Människor kunde inte läsa databasen eller ta reda på om innehållet matchade, eftersom den informationen kunde avslöja brottsbekämpande metoder och hjälpa brottslingar att undvika upptäckt.

Kunniga observatörer hävdade att ett system som vårt var långt ifrån genomförbart. Efter många tjuvstarter byggde vi en fungerande prototyp. Men vi stötte på ett uppenbart problem.

Sedan Apples tillkännagivande av funktionen har företaget bombarderats med oro att systemet bakom att upptäcka CSAM skulle kunna användas för att upptäcka andra former av foton på begäran av förtryckande regeringar. Apple har starkt stött tillbaka mot en sådan möjlighet och sagt att de kommer att avslå alla sådana förfrågningar från regeringar.

Ändå är oro över de framtida konsekvenserna av tekniken som används för CSAM-detektering utbredd. Mayer och Kulshrestha sa att deras oro över hur regeringar kunde använda systemet för att upptäcka annat innehåll än CSAM gjorde att de 'stördes'.

hur kan jag överföra apple cash till min bank

En utländsk regering skulle till exempel kunna tvinga en tjänst till människor som delar missgynnade politiska tal. Det är ingen hypotetisk: WeChat, den populära kinesiska meddelandeappen, använder redan innehållsmatchning för att identifiera oliktänkande material. Indien antog regler i år som kan kräva förhandsgranskning av innehåll som är kritiskt till regeringens politik. Ryssland bötfällde nyligen Google, Facebook och Twitter för att de inte tagit bort pro-demokratiskt protestmaterial.

Vi upptäckte andra brister. Innehållsmatchningsprocessen kan ha falska positiva resultat, och illvilliga användare kan spela systemet för att utsätta oskyldiga användare för granskning.

Vi var så störda att vi tog ett steg som vi inte sett tidigare i datavetenskaplig litteratur: Vi varnade för vår egen systemdesign och uppmanade till ytterligare forskning om hur vi kan mildra de allvarliga nackdelarna....

Apple har fortsatt att ta itu med användarnas oro över sina planer, publicera ytterligare dokument och en FAQ-sida . Apple fortsätter att tro att dess CSAM-detektionssystem, som kommer att ske på en användares enhet, överensstämmer med dess långvariga integritetsvärden.

Taggar: Apples integritet , WashingtonPost.com , Apples barnsäkerhetsfunktioner