Så här fungerar Child Sexual Abuse Material (CSAM) och scanningen av bilder

av | aug 7, 2021 | Nätfrihet

Child Sexual Abuse Material (CSAM) är en databas med fingeravtryck (checksummor) på bilder som hittats i samband med polisutredningar och som visar övergrepp mot barn. Vid lanseringen av Apples nya operativsystem nu i höst så införs en scanning av bilder som ska laddas upp till iCloud mot CSAMs databas. Så här fungerar funktionen.

Sedan Apple meddelade att det kommer en funktion som scannar och kontrollerar bilder som ska laddas upp till iCloud så har Apple fått hård kritik men också beröm för att funktionen införs. I debatten har flera helt felaktiga uppgifter florerat – så här fungerar (kommer funktionen att fungera) CSAM och de övriga funktioner som Apple inför när de nya versionerna lanseras.

Funktionerna handlar om två saker:

  • Bilder som ska lagras i iCloud scannas och ett fingeravtryck tas fram (CSAM)
  • Bilder som skickas till och från minderåriga analyseras och nakenbilder ”blurras”

När införs funktionerna?

Senare i höst, i samband med lanseringen av iOS 15, iPadOS 15 och macOS Monterey.

Införs CSAM överallt, globalt?

Nej, CSAM införs först i USA och sedan har Apple meddelat att funktionen komme införas land för land, inte stort ellr globalt.

Scannas alla mina bilder?

Alla dina bilder scannas inte och det är inte bilderna som scannas utan en bild förses med ett fingeravtryck som körs mot CSAM. Kan bildens checksumma/fingeravtryck matchas mot CSAM, och bilden ska skickas till iCloud, så kommer en anställd från Apple att tillkallas och sedan kan informationen lämnas över till polis.

Scannas bilderna i min iPhone?

Ska bilden laddas upp till iCloud, Apples molntjänst, så plockas ett fingeravtryck fram, lokalt i din enhet – din Mac, din iPhone eller iPad. Fingeravtrycket tas fram lokalt, i din enhet, av säkerhetsskäl. Hela den här processen är dessutom starkt krypterad och ingen kan se vad dina bilder innehåller. Processen hanterar en checksumma eller ett fingeravtryck med en massa siffror som körs mot en databas med fingeravtryck från bilder på övergrepp mot barn.

Kan jag stoppa scanningen?

Det finns ingen inställning. Vill du inte att det ska tas fingeravtryck på dina bilder, som du ska skicka till iCloud, så är det enda sättet att slå av lagring av bilder i iCloud.

Kommer Apple att scanna mina meddelanden också?

Det är en helt annan funktion i iMessages som införs för barn. Använder ett barn iMessage och om detta barn får nakenbilder skickade till sig så kan barnets vårdnadshavare att få en varning i form av en dialogruta. Den aktuella bilden kommer också att ”blurras”. Funktionen är inte knuten till Apples meddelandefunktion iMessages utan den omfattar hela meddelandefunktionen alltså även SMS. Bilden kontrolleras när den skickas och när den tas emot och funktionen påverkar inte ”end-to-end” krypteringen.

Observera också att funktionen inte aktiveras för alla – enbart för minderåriga, för barn och att hur funktionen fungerar är beroende på vilka inställningar som görs. Bilder som skickas till och från minderåriga analyseras, alltså innehållet i bilden/bilderna. Funktionen använder inte CSAMs databas ska också tilläggas. De dialogrutor som visas finns längst upp (se bilden).

Är det bara Apple som använder CSAM?

Nej, Google, Facebook, Twitter, Microsoft och en rad sociala medier, bloggfunktioner och lagringstjänster använder liknande funktioner för att försöka att stoppa spridningen av barnporr.

Om funktioner införs för att stoppa barnporr – varför alla dessa varningar och varför får Apple kritik?

Därför att det kan ses som ett intrång i den enskildes integritet och samma teknik, att ta fram fingeravtryck för bilder, kan användas för dokument, videor och annan information. Samma teknik skulle kunna användas för att stoppa kritik mot en regim, leta efter aktivister och demokratiförespråkare av en diktatur. För just de här aktuella funktionerna så kräver det Apples medverkan men det skulle Apple (teoretiskt) kunna tvingas till med lagar.

Är det inte bara att ändra i en bild, göra den svartvit eller beskära den för att komma runt CSAM?

Nej, fingeravtrycket ändras inte om du redigerar bilden eller gör om den.

Om en pedofil inte vill att bilderna ska scannas kan inte gren bara slå av iCloud då?

Jo, och det är något kritikerna också har framfört. Hela funktionen riskerar att bli ett tomt slag i luften.

Kommer funktionen att slå larm för en enda bild, det kan ju vara ett falsklarm, vara fel?

Apple lär sätta en gräns för hur många bilder som ska matcha CSAM innan en anställd inom Apple tillkallas för att granska bilderna och innan informationen lämnas över till polis. Exakt vilka gränser eller exakt hur det kommer att hanteras har Apple inte lämnat information om. Granskningen görs manuellt, någon kommer att tittar på bilderna, de bilder som matchats mot CSAM, och det ska säkerställa att ingen anklagas oskyldigt. Nu ska tilläggas att fingeravtrycken i CSAM är från bilder på dokumenterade övergrepp, brott, mot barn.

Varför inför Apple funktionen?

Av flera skäl – ett viktigt skäl är att amerikansk lag kräver det. Lagen kräver att den som lagrar bilder, videor och annan information är skyldig att anmäla misstänkta övergrepp mot barn. Det andra skälet är naturligtvis för att försöka att skydda barn.

Var kan jag läsa mer?

Apple

Apple kommer att scanna bilder för att stoppa övergrepp mot barn

Har Apple öppnat Pandoras Box nu?

Apple får hård kritik från Edward Snowden och EFF

0 kommentarer


Mikael Winterkvist

Fyrabarns-far, farfar, morfar och egen företagare i Skellefteå med kliande fingrar. Jag skriver om fotografering, sport, dataprylar, politik, nöje, musik och film. Vid sidan av den här bloggen så jobbar jag med med det egna företaget Winterkvist.com. Familjen består av hustru, fyra barn (utflugna) och fem barnbarn.

Jag har hållit på med datorer sedan tidigt 1980-tal och drev Artic BBS innan Internet knappt existerade. Efter BBS-tiden har det blivit hemsidor, design, digitala medier och trycksaker. Under tiden som journalist jobbade jag med Mac men privat har det varit Windows som har gällt fram till vintern 2007. Då var det dags att byta och då bytte vi, företaget, helt produktionsplattform till macOS. På den vägen är det.

_____________________________________________________________________________________

Anmäl dig till Magasin Mackens nyhetsbrev

Du får förhandsinformation om Macken, våra planer och du får informationen, först och direkt till din mail. Vi lovar att inte skicka din information vidare och vi lovar att inte skicka ut mer än max ett nyhetsbrev per månad.

Anmäl dig här

_____________________________________________________________________________________

De senaste inläggen: