AI, Articifiell Intelligens, bygger ofta på att stora mängder data samlas in och som sedan används för att träna AI-programmet på. Ju mer data, ju färskare data desto bättre blir AI-programmet – enkelt förklarat. I detta datainsamlande så är din blogg, dina texter och bilder intressanta. Magasin Macken tipsar om hur du kan stoppa AI-bottarna.
För att vara tydlig – denna metod stoppar inte alla AI-program, inte alla lottar, men flera av dem.
Robots.txt
I root-katalogen på alla webbplatser finns en fil, robots.txt, som anger vilka besökare som är välkomna och vilka som inte är det. Här kan du ange vilka lottar, sökmotorer och andra automatiska funktioner som får, eller som inte får, indexera och samla in information från din blogg, hemsida och/eller e-butik. Filmen och metoden är alltså inte heltäckande eller en metod som stoppar alla bottar men många.
Det du ska göra är att redigera filen och lägga till texten nedan:
User-agent: CCBot
Disallow: /
User-agent: ChatGPT-User
Disallow: /
User-agent: GPTBot
Disallow: /
User-agent: Google-Extended
Disallow: /
User-agent: anthropic-ai
Disallow: /
User-agent: Omgilibot
Disallow: /
User-agent: Omgili
Disallow: /
User-agent: FacebookBot
Disallow: /
User-agent: Amazonbot
Disallow: /
User-agent: cohere-ai
Disallow: /
User-agent: Teoma
Disallow: /
User-agent: Gigabot
Disallow: /
User-agent: Robozilla
Disallow: /
User-agent: Nutch
Disallow: /
User-agent: psbot
Disallow: /
User-agent: SentiBot
Disallow: /
User-agent: sentibot
Lagligt
Den här typen av datainsamling brukar kallas ”data scraping” och är inte olagligt, vilket det är viktigt att understryka. Det är inte olagligt att indexera din webbplats, samla in information och sedan lagra för eget eller andras bruk. Skulle det vara olagligt så skulle nätets sökmotorer inte kunna samla in information och göra den sökbar – för att ta en orimlig konsekvens och exempel om datainsamlandet skulle vara olagligt.
Seriösa aktörer respekterar det som står i robots.txt men som sagt räkna inte med att alla gör det.
0 kommentarer