Nyligen publicerades en undersökning, en rapport, som publicerats av Stanford’s Internet Observatory där förekomsten av övergreppsbilder (barnporr) undersökts på Mastodon. I medierna presenterades rapporten som att Mastodon har ett stort problem, att den sociala mediatjänsten ”kämpar” med att hålla det olagliga materialet borta. Det visar sig att medias rapportering och rapportens innehåll inte riktigt är samma saker.
Undersökningen är alltså gjord vid Stanford universitet av dess Internet Observatory-avdelning och den har undersökt förekomsten av olagligt material, CSAM. I inledningen av rapporten sägs:
I en ny rapport undersöker forskare från Stanford Internet Observatory problem med att bekämpa sexuellt utnyttjande av barn på decentraliserade sociala medier med nya rön och rekommendationer för att ta itu med förekomsten av barnsäkerhetsfrågor på Fediverse.
Analyser under en tvådagarsperiod fann 112 matchningar för känt material för sexuella övergrepp mot barn (CSAM) utöver nästan 2 000 inlägg som använde de 20 vanligaste hashtaggarna som indikerar utbyte av övergreppsmaterial. Forskarna rapporterade CSAM-matchningar till National Center for Missing and Exploited Children.
Rapporten finner att barnsäkerhetsutmaningar utgör ett problem i decentraliserade sociala medienätverk och kräver ett kollektivt svar. Aktuella verktyg för att ta itu med sexuellt utnyttjande och övergrepp mot barn online – som PhotoDNA och mekanismer för att upptäcka kränkande konton eller återfall i brott – utvecklades för centralt hanterade tjänster och måste anpassas för den unika arkitekturen hos Fediverse och liknande decentraliserade sociala medieprojekt.
Notera – verktygen, de verktyg som finns och som används idag till stora delar är skrivna för centralt styrda nät – inte de decentraliserade nät som bland andra Mastodon använder.
Medias rapportering
Mediabilden, utifrån Stanfords rapport, och det som skrevs i medierna hävdar att det finns ett stort problem inom ramen för Mastodons plattform:
Washington Post
Engadget
The Verge
Detta gäller naturligtvis inte alla medier och all rapportering men exemplen ovan är några av de texter som skrevs utifrån Stanford-rapporten.
Rapporten
Det är nu inte det rapporten innehåller. I rapporten sägs att Mastodon har ett generellt problem med moderering därför att ett decentraliserat nät inte fungerar som ett centraliserat nät där allt kan hanteras uppifrån. Inom Mastodon så sköts varje server för sig, som en enskild enhet vilket inkluderar modereringen. Mastodon är alltså inte lika lätt att moderera och som redan sagts – de verktyg som finns är inte utvecklade för fediverse.
Slutsatsen som dras i rapporten är att det finns material som detekteras av CSAM och som alltså är bilder och videor som visar övergrepp mot barn. Av de 25 undersökta systemen, de största servrarna, så är förekomsten lägre än den förväntade vilket inte är den bild som flera medier rapporterat. Är då rapporteringen helt och hållet medierna fel?
Researcher David Thiel says, “We got more photoDNA hits in a two-day period than we’ve probably had in the entire history of our organization of doing any kind of social media analysis, and it’s not even close.”
Uttrycker du dig så i en intervju så är det tämligen uppenbart vilka rubriker som sedan kommer att sättas och hur rapporteringen kommer att se ut. Problemet här är att forskarnas uttalanden inte står i samklang med deras egen rapport eller så har försökt till nyansering och förklaringar fallit bort i mediernas rapprtering.
Något mera av fokus snarare borde ha lagts på huvudproblemet – hur modererar du ett decentraliserat system och hur kan Mastodon och fediverse göra mer för att få bort de övergreppsbilder och videor som uppenbarligen finns där? Varje bild som dokumenterar ett övergrepp mot barn är en bild för mycket och tyvärr är CSAM-material en realitet och de finns i alla sociala medier.
Det är nämligen den slutsats som dras i rapporten – att Mastodon och fediverse saknar bra verktyg.
[dearpdf id=”261142″ ][/dearpdf]
0 kommentarer