Samsung-anställda läckte hemlig information till ChatGPT

av | apr 8, 2023 | Mastodon, Nyheter

Tid för att läsa: 2 minuter

a close up of a computer screen with a purple background

ChatGPT kan te sig som ett verktyg som kan vara användbart för en mängd olika saker men du bör vara försiktig med vad du delar med funktionen och vilken information du ber ChatGPT att processa – du kan läcka känslig information. Allt du delar med tjänsten lagras nämligen vilket du bör tänka på.

Innan du ber chatboten att sammanfatta viktiga memon eller kontrollera ditt arbete efter fel är det värt att komma ihåg att allt du delar med ChatGPT kan användas för att träna systemet och kanske din information kan dyka upp i svar till andra användare. Ber du ChatGPT att skriva ett PM utifrån anteckningar, sammanfatta en rapport eller läsa igenom ett dokument och skriva en ny version – allt du delar med ChatGPT lagras av tjänsten och kan dela upp igen.

Anställda

Det har flera Samsung-anställda bivit varse sedan de delat konfidentiell information med ChatGPT – hemlig företagsinformation.

Strax efter att Samsungs halvledardivision tillät ingenjörer att använda ChatGPT, läckte anställda hemlig information till tjänsten vid minst tre tillfällen, enligt The Economist Korea. En anställd har enligt uppgift bett chatboten att kontrollera känslig källkod för fel, en annan anställd begärde optimering av kod och en tredje matade in ett inspelat möte i ChatGPT och bad den att generera ett protokoll.

Rapporter tyder på att Samsung, efter att ha lärt sig om säkerhetsproblemen, försökt begränsa omfattningen av framtida misstag genom att begränsa längden på anställdas ChatGPT-uppmaningar till en kilobyte eller maximalt 1024 tecken text. Samsung ska också utreda de tre anställda i fråga och bygga en egen chatbot för att förhindra liknande missöden.

Fyra veckor

ChatGPT:s datapolicy säger att, såvida inte användare uttryckligen väljer bort det, använder den deras uppmaningar för att träna sina modeller. Chatbotens ägare OpenAI uppmanar användare att inte dela hemlig information med ChatGPT i konversationer eftersom den ”inte kan ta bort specifika uppmaningar från din historik.” Det enda sättet att bli av med personligt identifierande information på ChatGPT är att radera ditt konto – en process som kan ta upp till fyra veckor.

0 kommentarer


Mikael Winterkvist

Fyrabarns-far, farfar, morfar och egen företagare i Skellefteå med kliande fingrar. Jag skriver om fotografering, sport, dataprylar, politik, nöje, musik och film. Vid sidan av den här bloggen så jobbar jag med med det egna företaget Winterkvist.com. Familjen består av hustru, fyra barn (utflugna) och fem barnbarn.

Jag har hållit på med datorer sedan tidigt 1980-tal och drev Artic BBS innan Internet knappt existerade. Efter BBS-tiden har det blivit hemsidor, design, digitala medier och trycksaker. Under tiden som journalist jobbade jag med Mac men privat har det varit Windows som har gällt fram till vintern 2007. Då var det dags att byta och då bytte vi, företaget, helt produktionsplattform till macOS. På den vägen är det.

_____________________________________________________________________________________

Anmäl dig till Magasin Mackens nyhetsbrev

Du får förhandsinformation om Macken, våra planer och du får informationen, först och direkt till din mail. Vi lovar att inte skicka din information vidare och vi lovar att inte skicka ut mer än max ett nyhetsbrev per månad.

Anmäl dig här

_____________________________________________________________________________________

De senaste inläggen: