CSAM är barnporr. Det är dokumenterade övergrepp mot barn, minderåriga, och det är sådant material som Apple har sökt efter i mail via iCloud sedan 2019 och som Apple nu kommer att söka efter i bilder som ska lagras i Apples molntjänst iCloud (i USA).
I diskussionen så har olika tekniska termer använts vilket gör att det är lagt att förlora fokus på vad saken egentligen gäller – övergrepp riktade mot barn, sexuella övergrepp. Child Sexual Abuse Material (CSAM) är digitala fingeravtryck för bilder som föreställer, dokumenterar, övergrepp – barnporr.
Tekniken gör det möjligt att scanna en bild utan att behöva analysera innehållet, vad bilden föreställer, för att kunna avgöra att det är en bild som kan misstänkas för att vara barnporr. Apple har meddelat att scanning efter CSAM kommer att göras i USA med start efter det att de nya versionerna av Apples operativsystem lanseras senare i höst.
Nu kommer uppgifter om att Apple redan använder tekniken och har gjort det sedan 2019. Folk går i taket, debattens vågor går höga och Apples kritiker antyder att Apple mörkat detta och fört användarna bakom ljuset. Apple har tydligt och klart förklarat vad som gäller för iCloud och tjänsten i sina användarregler. Problemet är det klassiska – vi användare läser sällan eller aldrig innantill, vi skummar på sin höjd regelverket, scrollar snabbt förbi – utan att läsa det Apple vill berätta och förklara.
Apple uses image matching technology to help find and report child exploitation. Much like spam filters in email, our systems use electronic signatures to find suspected child exploitation. We validate each match with individual review. Accounts with child exploitation content violate our terms and conditions of service, and any accounts we find with this material will be disabled.
Det är vad Apple skrev på en tidigare version av sina användarregler och det finns mycket snarlika villkor idag med den skillnaden att nu finns scanning av bilder som ska lagras i iCloud med. Apple
Alla andra
Facebook, Microsoft, Twitter, Google och en rad andra aktörer ute på nätet scannar redan med liknande tekniska lösningar och har gjort så i flera år men det finns en viktig skillnad mellan Apples metod och de övrigas – den första delen av scanningen görs lokalt, när en bild läggs i kön för att laddas upp till Apples iCloud. Det har lett till anklagelser om att det handlar om en bakdörr. Apple försvarar valet av lösning med att ingen data överförs till Apple – om det inte hittas något misstänkt. Användaren kontrollerar då fortfarande sin information.
Bakdörr
Kritiker har kallat funktionen, lösningen för en bakdörr och nu kommer också uppgifter att två utvecklare som byggt en liknande lösning valde att överge den därför att de ansåg att det var för uppenbart att den skulle kunna missbrukas exempelvis av en diktator och diktatur. Apple har svarat på den kritiken och sagt att det finns säkerhetsfunktioner inbyggda i funktionen som gör att om någon försöker använda den för att scanna efter något annat än CSAM så kommer det att snabbt avslöjas. Apple har också deklarerat att de inte kommer att tillåta att funktionen, scanningen används till något annat än CSAM.
I sammanhanget så är det ju inte helt oviktigt att notera att den kritik som riktas mot Apple inte riktas mot Google, Facebook, Twitter eller Microsoft. Hur deras tekniska lösning ser ut vet vi mycket lite om men det ska också sägas – det framgår av deras användarvillkor att bilder scannas. Ingen mörkar, eller ens försöker att mörka. Det är bara vi användare som är urusla på att läsa innantill.
Pest eller kolera
Jag har fått frågan om hur jag ser på Apples besked om CSAM (inte för att mina åsikter är mer värda än någon annan men då) – jag gillar inte att scanningen görs lokalt även om jag förstår att Apple valt mellan en lösning där scanning och resultat ligger i händerna på Apple eller en lösning där användaren fortfarande har kontroll över sin information. Jag tycker också att Apples funktion landar mycket nära en bakdörr men jag har samtidigt ingen bättre lösning som tar hänsyn både till den enskildes integritet och det faktum att barnporr är olagligt att inneha i de flesta länder. Jag hade önskat att vi sluppit att ens föra diskussionen, att det fanns andra metoder, samtidigt som jag är övertygad om att Apples beslut inte varit något lätt beslut.
Däremot har jag inte ändrats uppfattning – detta är ett nödvändigt ont för att få stopp på rovdjuren därute, pedofilerna.
0 kommentarer