De kallas bots, automatiska funktioner som skriver och återpostar inlägg på Facebook och Twitter. De ser ut att vara helt vanliga konton där det ska finnas en människa bakom men det är script och datorer som gör alla inlägg – allt för att ge intryck av att en uppfattning eller åsikt är vanligare och mera spridd än den i själva verket är.
Ett team från Carnegie Mellon University’s Center for Informed Democracy & Social Cybersecurity har under Kathleen M. Carleys ledning granskat och analyserat det senaste ”utbrottet” av protester mot utegångsförbud och restriktioner i USA. Normalt så skrivs 10 till 20 procent av inläggen på Twitter av ”bottar”. Siffran gäller heta ämnen, politik, större händelser och ämnen som ibland trendar på den sociala mediatjänsten. När det gäller just de här protesterna så är siffram långt mycket högre – någonstans mellan 45 till 60 procent.
But in a new study, the researchers have found that bots may account for between 45 and 60% of Twitter accounts discussing covid-19. Many of those accounts were created in February and have since been spreading and amplifying misinformation, including false medical advice, conspiracy theories about the origin of the virus, and pushes to end stay-at-home orders and reopen America.
Konton
Det finns ett tydligt tecken på om ett konto är en människa eller en dator – när skapades kontot?
I den analys som teamet har gjort så har många av de aktuella kontona skapats i februari och mars i år. Det är alltså nya, färska konton som har det gemensamt att de i princip bara trumpetar ut ett och samma budskap – protester mot restriktionerna kopplade till Coronapandemin.
Nätverk
Nyskapade konton i kombination till ett ensidigt budskap är två tecken på att det kan vara en ”bot” men det behöver inte vara det. Analyserna går djupare än så och det handlar också om att kartlägga hur ett inlägg sprids, vem som skrivit det och hur det sprids vidare. Nätverket är en annan viktig faktor för att kunna se om konton drivs av människor eller datorer.
To perform their most recent analysis, the researchers studied more than 200 million tweets discussing coronavirus or covid-19 since January. They used machine-learning and network analysis techniques to identify which accounts were spreading disinformation and which were most likely bots or cyborgs (accounts run jointly by bots and humans).
The system looks for 16 different maneuvers that disinformation accounts can perform, including “bridging” between two groups (connecting two online communities), “backing” an individual (following the account to increase the person’s level of perceived influence), and “nuking” a group (actions that lead to an online community being dismantled).
0 kommentarer