Låt oss inte villa bort oss i tekniska termer – CSAM är barnporr

av | aug 24, 2021 | Krönikor, Nätfrihet

Tid för att läsa: 3 minuter

CSAM är barnporr. Det är dokumenterade övergrepp mot barn, minderåriga, och det är sådant material som Apple har sökt efter i mail via iCloud sedan 2019 och som Apple nu kommer att söka efter i bilder som ska lagras i Apples molntjänst iCloud (i USA).

I diskussionen så har olika tekniska termer använts vilket gör att det är lagt att förlora fokus på vad saken egentligen gäller – övergrepp riktade mot barn, sexuella övergrepp. Child Sexual Abuse Material (CSAM) är digitala fingeravtryck för bilder som föreställer, dokumenterar, övergrepp – barnporr.

Tekniken gör det möjligt att scanna en bild utan att behöva analysera innehållet, vad bilden föreställer, för att kunna avgöra att det är en bild som kan misstänkas för att vara barnporr. Apple har meddelat att scanning efter CSAM kommer att göras i USA med start efter det att de nya versionerna av Apples operativsystem lanseras senare i höst.

Mail

Nu kommer uppgifter om att Apple redan använder tekniken och har gjort det sedan 2019. Folk går i taket, debattens vågor  går höga och Apples kritiker antyder att Apple mörkat detta  och fört användarna bakom ljuset. Apple har tydligt och klart förklarat vad som gäller för iCloud och tjänsten i sina användarregler. Problemet är det klassiska – vi användare läser sällan eller aldrig innantill, vi skummar på sin höjd regelverket, scrollar snabbt förbi – utan att läsa det Apple vill berätta och förklara.

Apple uses image matching technology to help find and report child exploitation. Much like spam filters in email, our systems use electronic signatures to find suspected child exploitation. We validate each match with individual review. Accounts with child exploitation content violate our terms and conditions of service, and any accounts we find with this material will be disabled.

Det är vad Apple skrev på en tidigare version av sina användarregler och det finns mycket snarlika villkor idag med den skillnaden att nu finns scanning av bilder som ska lagras i iCloud med. Apple

Alla andra

Facebook, Microsoft, Twitter, Google och en rad andra aktörer ute på nätet scannar redan med liknande tekniska lösningar och har gjort så i flera år men det finns en viktig skillnad mellan Apples metod och de övrigas – den första delen av scanningen görs lokalt, när en bild läggs i kön för att laddas upp till Apples iCloud. Det har lett till anklagelser om att det handlar om en bakdörr. Apple försvarar valet av lösning med att ingen data överförs till Apple – om det inte hittas något misstänkt. Användaren kontrollerar då fortfarande sin information.

Bakdörr

Kritiker har kallat funktionen, lösningen för en bakdörr och nu kommer också uppgifter att två utvecklare som byggt en liknande lösning valde att överge den därför att de ansåg att det var för uppenbart att den skulle kunna missbrukas exempelvis av en diktator och diktatur. Apple har svarat på den kritiken och sagt att det finns säkerhetsfunktioner inbyggda i funktionen som gör att om någon försöker använda den för att scanna efter något annat än CSAM så kommer det att snabbt avslöjas. Apple har också deklarerat att de inte kommer att tillåta att funktionen, scanningen används till något annat än CSAM.

I sammanhanget så är det ju inte helt oviktigt att notera att den kritik som riktas mot Apple inte riktas mot Google, Facebook, Twitter eller Microsoft. Hur deras tekniska lösning ser ut vet vi mycket lite om men det ska också sägas – det framgår av deras användarvillkor att bilder scannas. Ingen mörkar, eller ens försöker att mörka. Det är bara vi användare som är urusla på att läsa innantill.

Pest eller kolera

Jag har fått frågan om hur jag ser på Apples besked om CSAM (inte för att mina åsikter är mer värda än någon annan men då) – jag gillar inte att scanningen görs lokalt även om jag förstår att Apple valt mellan en lösning där scanning och resultat ligger i händerna på Apple eller en lösning där användaren fortfarande har kontroll över sin information. Jag tycker också att Apples funktion landar mycket nära en bakdörr men jag har samtidigt ingen bättre lösning som tar hänsyn både till den enskildes integritet och det faktum att barnporr är olagligt att inneha i de flesta länder. Jag hade önskat att vi sluppit att ens föra diskussionen, att det fanns andra metoder, samtidigt som jag är övertygad om att Apples beslut inte varit något lätt beslut.

Däremot har jag inte ändrats uppfattning – detta är ett nödvändigt ont för att få stopp på rovdjuren därute, pedofilerna.

0 kommentarer


Mikael Winterkvist

Fyrabarns-far, farfar, morfar och egen företagare i Skellefteå med kliande fingrar. Jag skriver om fotografering, sport, dataprylar, politik, nöje, musik och film. Vid sidan av den här bloggen så jobbar jag med med det egna företaget Winterkvist.com. Familjen består av hustru, fyra barn (utflugna) och fem barnbarn.

Jag har hållit på med datorer sedan tidigt 1980-tal och drev Artic BBS innan Internet knappt existerade. Efter BBS-tiden har det blivit hemsidor, design, digitala medier och trycksaker. Under tiden som journalist jobbade jag med Mac men privat har det varit Windows som har gällt fram till vintern 2007. Då var det dags att byta och då bytte vi, företaget, helt produktionsplattform till macOS. På den vägen är det.

_____________________________________________________________________________________

Anmäl dig till Magasin Mackens nyhetsbrev

Du får förhandsinformation om Macken, våra planer och du får informationen, först och direkt till din mail. Vi lovar att inte skicka din information vidare och vi lovar att inte skicka ut mer än max ett nyhetsbrev per månad.

Anmäl dig här

_____________________________________________________________________________________

De senaste inläggen: