Apple News

Facebooks tidigare säkerhetschef diskuterar kontroverser kring Apples planerade barnsäkerhetsfunktioner

Tisdagen den 10 augusti 2021 06:50 PDT av Hartley Charlton

Mitt i den pågående kontroversen kring Apples planer på att implementera nya barnsäkerhetsfunktioner som skulle involvera att skanna meddelanden och användarnas fotobibliotek, har Facebooks tidigare säkerhetschef, Alex Stamos, vägt in i debatten med kritik från flera inblandade parter och förslag för framtiden.





Barnsäkerhetsfunktion
I en omfattande Twitter-tråd , sa Stamos att det finns 'inga enkla svar' i debatten kring barnskydd kontra personlig integritet.

vad är skillnaden mellan ipad pro och ipad air

Stamos uttryckte sin frustration över det sätt på vilket Apple hanterade tillkännagivandet av de nya funktionerna och kritiserats företaget för att de inte engagerat sig i bredare branschdiskussioner kring säkerhets- och integritetsaspekterna av end-to-end-kryptering under de senaste åren.



Apple var inbjuden men avböjde att delta i dessa diskussioner, och med detta tillkännagivande gick de bara in i balanseringsdebatten och knuffade alla ut i de yttersta hörnen utan offentligt samråd eller debatt.

Likaså, sa Stamos att han var besviken på olika icke-statliga organisationer, som t.ex Electronic Frontier Foundation (EFF) och National Center for Missing & Exploited Children (NCMEC), för att de lämnat lite utrymme för diskussion i sina offentliga uttalanden. NCMEC, till exempel, kallade Apple-anställda som ifrågasatte integritetskonsekvenserna av de nya funktionerna 'minoritetens skrikande röster.' 'Apples offentliga drag har drivit dem att förespråka sina aktier till det extrema,' förklarade Stamos.

Stamos uppmanade s säkerhetsforskare och aktivister som var förvånade över Apples tillkännagivande om att ägna mer uppmärksamhet åt den globala regleringsmiljön och spekulerade i att Storbritanniens lagförslag om onlinesäkerhet och EU:s Digital Services Act var avgörande för Apples drag för att implementera de nya barnsäkerhetsfunktionerna.

Ett av de grundläggande problemen med Apples tillvägagångssätt är att de verkar desperata efter att undvika att bygga en verklig förtroende- och säkerhetsfunktion för sina kommunikationsprodukter. Det finns ingen mekanism för att rapportera spam, dödshot, hatretorik, NCII eller någon annan form av övergrepp på iMessage.

han sa också att Apple inte har tillräckliga funktioner för tillit och säkerhet, och uppmuntrade Apple för att skapa ett rapporteringssystem i iMessage, rulla ut ML på klientsidan för att uppmana användare att rapportera något kränkande och bemanna ett barnsäkerhetsteam för att undersöka de värsta rapporterna.

Istället får vi ett ML-system som endast riktar sig till (under) 13-åringar (inte den största gruppen av sextorsion/vårdande mål enligt min erfarenhet), som ger barn ett val som de inte är rustade att göra och meddelar föräldrar istället för Apple T&S.

Stamos sa att han inte förstod varför Apple söker efter CSAM lokalt såvida inte iCloud backup-kryptering är på gång, och varnade för att Apple kan ha 'förgiftat' åsikter mot klassificerare på klientsidan.

vem kan se mitt kontaktkort på iphone

Jag förstår inte heller varför Apple trycker in CSAM-skanningen för iCloud i enheten, om det inte är en förberedelse för riktig kryptering av iCloud-säkerhetskopior. Ett rimligt mål bör vara att skanna delade iCloud-album, som kan implementeras på serversidan.

Hur som helst, att komma ut ur porten med genomsökning av lokala foton utan samtycke och skapa ML på klientsidan som inte ger en massa verkligt förebyggande av skador, betyder att Apple kanske bara har förgiftat brunnen mot all användning av klienten -sidoklassificerare för att skydda användare.

Ändå, Stamos markerad att Facebook fångade 4,5 miljoner användare som publicerade bilder på barnmisshandel, och att detta sannolikt bara är en del av det totala antalet lagöverträdare, genom att skanna efter bilder med kända matchningar för CSAM.

Taggar: Facebook , Apples barnsäkerhetsfunktioner