Clearview AI ”skrapade” 30 miljarder foton från sociala medier för att bygga sin databas för ansiktsigenkänning. Bolaget byggdes på information som tillhör andra och där Clearview inte har någon upphovsrätt.
Den kontroversiella tjänsten för ansiktsigenkänning, som används av polisavdelningar över hela USA, byggdes delvis upp med 30 miljarder foton som företaget ”skrapade” från Facebook och andra sociala medier utan användarnas tillstånd, erkände företagets vd nyligen och skapade vad kritiker kallade en ”evig polis”. line-up”, även för personer som inte har gjort något fel.
Skryter
Företaget skryter med att ha identifierat upprorsmakare vid attacken mot Kapitolium den 6 januari, rädda barn som misshandlas eller utnyttjas och hjälpa människor att frikänna personer som felaktigt anklagas för brott. Kritiker pekar på integritetskränkningar och felaktiga arresteringar som drivs på av felaktiga identifieringar gjorda med ansiktsigenkänning, inklusive fall i Detroit och New Orleans, som lett till oro över teknikens tillförlitlighet.
Clearview tog bilder utan användarnas vetskap, erkände dess vd Hoan Ton-That i en intervju förra månaden med BBC. Genom att göra det möjliggjordes den snabba expansionen av företagets massiva databas, som marknadsförs på sin webbplats till brottsbekämpande myndigheter som ett verktyg ”för att ge offren rättvisa.”
Clearview själva anser att deras databas är som vilken annan sökdatabas som helst och jämför sig med Google.
Ton-That berättade för BBC att Clearview AI:s databas för ansiktsigenkänning har använts av amerikansk polis nästan en miljon gånger sedan företaget grundades 2017, även om relationerna mellan brottsbekämpande myndigheter och Clearview AI fortfarande är oklara.
Tekniken har länge kritiserats för sitt datainsalande från både integritetsförespråkare och digitala plattformar. Facebook skickade upphörande-och-avstå-brev till Clearview 2020 för att ha kränkt deras användares integritet. Meta har sedan investerat rätt stora resurser för att förhindra att data plockas från deras tjänster utan användarnas medgivande.
0 kommentarer