Apple har raderat alla referenser till CSAM från sin hemsida – den kontroversiella funktion där Apple planerat att scanna de bilder som ska skicka upp till iCloud, lokalt i användarens enhet.
Child Sexual Abuse Material (CSAM) är en databas med digitala fingeravtryck över bilder som föreställer övergrepp riktade mot barn. Tidigare i år så tillkännagav Apple att de hade för avsikt att införa en scanning av bilder som skulle laddas upp till iCloud. Bilder som skulle skickas till iCloud skulle scannas efter CSAMs fingeravtryck. Detta för att stoppa att barnporrhärva lagrades i iCloud.
Hård kritik
Funktionen och planerna har fått mycket hård kritik – inte minst sedan Apples lösning innebär att scanningen görs lokalt, i enheten. Efter en hård debatt så beslöt Apple till slut att skjuta på lanseringen. Apple skulle först lyssna på kritikerna och utvärdera scanningen efter CSAMs fingeravtryck hette det.
Nu har alltså alla texter som nämner CSAM och den aktuella funktionen redigerats och det finns inga spår kvar av den tänkta funktionen.
Skrotad
Det faktum att alla texter nu har redigerats och att CSAM inte nämna överhuvudtaget längre kan tyda på att Apple valt att skrota funktionen helt och hållet. Scanningen har mätts av hård kritik även internt, inom Apple, liksom extremerna och en av de hårdaste kritikerna EFF har beklagat att Apple övergett sinom annars så hårda linje att skydda individen och individens information.
Ändringen av innehållet på den aktuella sidan kan också innebär att Apple kommer med en scanning, CSAM, men att den kommer att fungera på ett helt annat sätt än som det var tänkt ursprungligen.
0 kommentarer