Facebook säger att AI ska städa upp plattformen men Facebooks egna utvecklare tvivlar

av | okt 18, 2021 | Socialt

Facebook har upprepade gånger sagt att AI och algoritmer ska användas för att städa upp den sociala plattformen. Med hjälp av programmering och datorer så ska rasism, hat och extremism rensas ut men Facebooks egna utvecklare tvivlar på att det är möjligt och den sociala mediejätten egna, interna information visar att bara en mycket liten del av de problematiska inläggen hittas med AI.

Hatfyllda inlägg, lögner, rasism och extremism är ett problem för Facebook som utåt säger en sak som inte stämmer med egna, interna undersökningar och mätningar. I interna dokument så säger Facebooks egna anställda att den mängd som hittas med hjälp av algoritmer och AI är mycket liten och att det handlar om några få procent – även i bästa fall så når Facebook inte två-siffrigt, 10 procent eller mer. Interna undersökningar har exempelvis visat att Facebooks AI-lösningar har haft svårt att skilja mellan tuppfäktning och krockande bilar.

That future is farther away than those executives suggest, according to internal documents reviewed by The Wall Street Journal. Facebook’s AI can’t consistently identify first-person shooting videos, racist rants and even, in one notable episode that puzzled internal researchers for weeks, the difference between cockfighting and car crashes.

On hate speech, the documents show, Facebook employees have estimated the company removes only a sliver of the posts that violate its rules—a low-single-digit percent, they say. When Facebook’s algorithms aren’t certain enough that content violates the rules to delete it, the platform shows that material to users less often—but the accounts that posted the material go unpunished.

Wall Street Journal

Interna dokument

De interna dokumenten som Wall Street Journal fått ta del av visar också att Facebook minskade antalet anställda som ska granska inlägg för två år sedan vilket gjorde Facebook ännu mer beroende av AI och tekniska lösningar.

”The problem is that we do not and possibly never will have a model that captures even a majority of integrity harms, particularly in sensitive areas”

En av Facebooks egna utvecklare i den interna dokumenten.

 

0 kommentarer


Mikael Winterkvist

Fyrabarns-far, farfar, morfar och egen företagare i Skellefteå med kliande fingrar. Jag skriver om fotografering, sport, dataprylar, politik, nöje, musik och film. Vid sidan av den här bloggen så jobbar jag med med det egna företaget Winterkvist.com. Familjen består av hustru, fyra barn (utflugna) och fem barnbarn.

Jag har hållit på med datorer sedan tidigt 1980-tal och drev Artic BBS innan Internet knappt existerade. Efter BBS-tiden har det blivit hemsidor, design, digitala medier och trycksaker. Under tiden som journalist jobbade jag med Mac men privat har det varit Windows som har gällt fram till vintern 2007. Då var det dags att byta och då bytte vi, företaget, helt produktionsplattform till macOS. På den vägen är det.

_____________________________________________________________________________________

Anmäl dig till Magasin Mackens nyhetsbrev

Du får förhandsinformation om Macken, våra planer och du får informationen, först och direkt till din mail. Vi lovar att inte skicka din information vidare och vi lovar att inte skicka ut mer än max ett nyhetsbrev per månad.

Anmäl dig här

_____________________________________________________________________________________

De senaste inläggen: