Har Mastodon ett allvarligt problem med pedofiler och barnporr?

av | aug 13, 2023 | Mastodon, Socialt

Nyligen publicerades en undersökning, en rapport, som publicerats av Stanford’s Internet Observatory där förekomsten av övergreppsbilder (barnporr) undersökts på Mastodon. I medierna presenterades rapporten som att Mastodon har ett stort problem, att den sociala mediatjänsten ”kämpar” med att hålla det olagliga materialet borta. Det visar sig att medias rapportering och rapportens innehåll inte riktigt är samma saker.

Undersökningen är alltså gjord vid Stanford universitet av dess Internet Observatory-avdelning och den har undersökt förekomsten av olagligt material, CSAM. I inledningen av rapporten sägs:

I en ny rapport undersöker forskare från Stanford Internet Observatory problem med att bekämpa sexuellt utnyttjande av barn på decentraliserade sociala medier med nya rön och rekommendationer för att ta itu med förekomsten av barnsäkerhetsfrågor på Fediverse.

Analyser under en tvådagarsperiod fann 112 matchningar för känt material för sexuella övergrepp mot barn (CSAM) utöver nästan 2 000 inlägg som använde de 20 vanligaste hashtaggarna som indikerar utbyte av övergreppsmaterial. Forskarna rapporterade CSAM-matchningar till National Center for Missing and Exploited Children.

Rapporten finner att barnsäkerhetsutmaningar utgör ett problem i decentraliserade sociala medienätverk och kräver ett kollektivt svar. Aktuella verktyg för att ta itu med sexuellt utnyttjande och övergrepp mot barn online – som PhotoDNA och mekanismer för att upptäcka kränkande konton eller återfall i brott – utvecklades för centralt hanterade tjänster och måste anpassas för den unika arkitekturen hos Fediverse och liknande decentraliserade sociala medieprojekt.

Notera – verktygen, de verktyg som finns och som används idag till stora delar är skrivna för centralt styrda nät – inte de decentraliserade nät som  bland andra Mastodon använder.

Medias rapportering

Mediabilden, utifrån Stanfords rapport, och det som skrevs i medierna hävdar att det finns ett stort problem inom ramen för Mastodons plattform:

Washington Post

Engadget

The Verge

Detta gäller naturligtvis inte alla medier och all rapportering men exemplen ovan är några av de texter som skrevs utifrån Stanford-rapporten.

Rapporten

Det är nu inte det rapporten innehåller. I rapporten sägs att Mastodon har ett generellt problem med moderering därför att ett decentraliserat nät inte fungerar som ett centraliserat nät där allt kan hanteras uppifrån. Inom Mastodon så sköts varje server för sig, som en enskild enhet vilket inkluderar modereringen. Mastodon är alltså inte lika lätt att moderera och som redan sagts – de verktyg som finns är inte utvecklade för fediverse.

Slutsatsen som dras i rapporten är att det finns material som detekteras av CSAM och som alltså är bilder och videor som visar övergrepp mot barn. Av de 25 undersökta systemen, de största servrarna, så är förekomsten lägre än den förväntade vilket inte är den bild som flera medier rapporterat. Är då rapporteringen helt och hållet medierna fel?

Researcher David Thiel says, “We got more photoDNA hits in a two-day period than we’ve probably had in the entire history of our organization of doing any kind of social media analysis, and it’s not even close.”

Uttrycker du dig så i en intervju så är det tämligen uppenbart vilka rubriker som sedan kommer att sättas och hur rapporteringen kommer att se ut. Problemet här är att forskarnas uttalanden inte står i samklang med deras egen rapport eller så har försökt till nyansering och förklaringar fallit bort i mediernas rapprtering.

Något mera av fokus snarare borde ha lagts på huvudproblemet – hur modererar du ett decentraliserat system och hur kan Mastodon och fediverse göra mer för att få bort de övergreppsbilder och videor som uppenbarligen finns där? Varje bild som dokumenterar ett övergrepp mot barn är en bild för mycket och tyvärr är CSAM-material en realitet och de finns i alla sociala medier.

Det är nämligen den slutsats som dras i rapporten – att Mastodon och fediverse saknar bra verktyg.

[dearpdf id=”261142″ ][/dearpdf]

 

0 kommentarer


Mikael Winterkvist

Fyrabarns-far, farfar, morfar och egen företagare i Skellefteå med kliande fingrar. Jag skriver om fotografering, sport, dataprylar, politik, nöje, musik och film. Vid sidan av den här bloggen så jobbar jag med med det egna företaget Winterkvist.com. Familjen består av hustru, fyra barn (utflugna) och fem barnbarn.

Jag har hållit på med datorer sedan tidigt 1980-tal och drev Artic BBS innan Internet knappt existerade. Efter BBS-tiden har det blivit hemsidor, design, digitala medier och trycksaker. Under tiden som journalist jobbade jag med Mac men privat har det varit Windows som har gällt fram till vintern 2007. Då var det dags att byta och då bytte vi, företaget, helt produktionsplattform till macOS. På den vägen är det.

_____________________________________________________________________________________

Anmäl dig till Magasin Mackens nyhetsbrev

Du får förhandsinformation om Macken, våra planer och du får informationen, först och direkt till din mail. Vi lovar att inte skicka din information vidare och vi lovar att inte skicka ut mer än max ett nyhetsbrev per månad.

Anmäl dig här

_____________________________________________________________________________________

De senaste inläggen:


Warning: Undefined array key "extension" in /www/wwwroot/macken.xyz/wp-content/themes/Divi/epanel/custom_functions.php on line 1471
Bluesky launches a Trending Topics feature in search

Bluesky launches a Trending Topics feature in search

Social media platform Bluesky has launched Trending Topics into beta, the company announced in a post on its platform. The new...

läs mer