The Verge har kommit över intern information, inifrån Apple, som bekräftar att Apple har haft information om att iCloud används för att distribuera barnporr.
Redan när Apple gick ut med informationen om att CSAM skulle implementeras så skrev jag att det var sannolikt så att Apple har fått indikationer, tydliga sådana om att iCloud används för att distribuera barnporr.
Det kan vara så att Apple själva har fått indikationer på hur stort och omfattande problemet med spridning av bilder och videor är. Glöm inte heller bort att Apple upprepade gånger deklarerat att en del i Apples grundläggande värderingar är att Apples tjänster ska vara vara säkra för barn. Det går att kritisera Apple för alldeles för rigida regler runt App Store för att ta ett exempel men Apple vill ha det så för att alla föräldrar ska veta att Apple försöker skapa och upprätthålla en säker miljö ur flera aspekter runt App Store.
Siffrorna som skaver när det gäller Apples scanning av bilder
Omfattande
Enligt Apple så är distributionen omfattande.
”The spotlight at Facebook etc is all on trust and safety (fake accounts, etc). In privacy they suck. Our priorities are the inverse. Which is why we are the greatest platform for distributing child porn, etc.”
Orden är Eric Friedmans, chef inom Apple, och orden kommer från ett mail som skickats inom Apple och som ingår i alla de mail som begärts ut och som lagrats hos domstolen i målet och tvisten mellan Apple och Epic Games.
Logisk – vad skulle kunna få Apple att utveckla en implementera CSAM – fullt medvetna om den debatt som beslutet skulle medföra. Apple har hela tiden insett att det skulle bli diskussion om beslutet att införa CSAM. I en vågskålen den debatten och i den andra indikationer på att iCloud används för att distribuera stora mängder barnporr.
Av två onda saker så valde Apple det mindre onda.
0 kommentarer