Nyfiken fråga… om jag t ex skulle lägga upp texter från företagsinterna dokument etc i syfte att få input på både upplägg och innehåll - vad händer med datan? Är det som Google som sparar allt jag nånsin satt fingret på, eller…? Jag tycker mig inte ha hört förfärda röster från de som - vilket jag är enormt tacksam för, ärligt! - lusläser användningsvillkor och har stenkoll på integritetsfrågor etc, och det gör mig lite förvånad, men kanske ngt grundläggande i det hela som jag inte förstår?
Den hamnar i händerna hos OpenAI och de har fria händer att hantera den som de vill. Det skriver de själva på sin sida om Privacy. Det enda de inte kommer göra, enligt information, är att använda din information för marknadsföring. Allt annat tar de sig rätten att göra vad de vill med.
Det är också varför ett fåtal myndigheter runtom i Europa har sagt att ChatGPT bryter mot Europeiska lagar och förordningar inom dataskyddsområdet.
Aj då… Känns ju lite lätt skakigt. ![]()
Är det därför som företag då snarast vill installera ‘interna’ sådana här, så informationen hålls internt? Eller har jag missförstått det med…?
Korrekt,
Det är också därför många företag förbjuder översättnings och rättstavningsprodukter som skickar data ut i molnet, inte bra om du skriver ett avtal om att köpa upp en konkurrent och texten kommer på villovägar.
ChatGPT kan du köra lokalt om du vill, dock är databasen då inte uppkopplat av förklarliga anledningar och kanske inte ger lika bra resultat.
Eftersom dessa verktyg är så kraftfulla och anställda har ju en tendens att göra vad de känner för kommer detta bli ett väldigt stort och växande hot, framförallt när Kina kommer ta fram AI konkurrenter.
… och då pratar vi om att företag installerar mjukvaran på sina egna servers i sina egna datahallar på sina egna internetkablar. Alla andra kombinationer innebär de facto att de lägger över informationen på en eller flera tjänsteleverantörer.
Det är vad många bolag kommer göra framöver. Många stora internationella bolag har redan idag förbjudit användandet av publika AI-tjänster efter att information har läckt ut genom användande. Det kommer vara en fråga om överlevnad på sikt.
Det är lite mer komplicerat än så, denna artikeln förklarar ganska bra vad som händer med din data
Det är stor skillnad på om du använder Api:et eller deras UI.
Dessutom har (ska?) dom precis rulla ut incognito mode, som inte sparar din data även i UI:t om jag förstår det rätt.
Vill man bygga något mer avancerat på deras modell kan man använda ChatGPT via Microsofts molntjänster, då är din data helt skyddad.
Som privatperson använder du deras UI och inte deras API. Det är negativt ur dataskydds-aspekter.
Det kommer fortfarande vara en säkerhetsfråga, då Microsoft är ett amerikanskt bolag och lyder under amerikanska lagar. Jag skulle inte våga uttrycka att någon data är skyddad om den hanteras av ett amerikanskt företag, då det finns säkerhetslagar i USA som tvingar företag att lämna ut information till regeringen eller myndigheter.
Vill man vara helt trygg i sin konfiguration skall man ha allting på egna servers i ett datacenter (driftat av ett bolag med säte i ett EU-land) som står i Sverige eller åtminstone i ett EU-land. Allting annat är inte säkert. Dessvärre.
Fotnot: Har nu läst ditt länkade inlägg på LinkedIn. Där bekräftas det jag för fram, inklusive att ChatGPT inte respekterar GDPR eller andra direktiv vi har inom EU.
Jag jobbar på större internationellt techbolag och vi kan ansöka om företagskonto hos OpenAI. Då kastar OpenAI all data efter att den genererat svar.
Njae, inte längre, efter att Biden signerade sin executive order i höstas för att lösa schrems II problematiken tillsammans med EU så kan inte de omdebatterade säkerhetslagarna tillämpas längre.
Återigen vill jag kasta in en nyckel i motorn genom noyb’s (Schrems) egna kommentar kring just det. De kommer registrera ett ärende i CJEU när det är möjligt, för att inte heller tillåta denna uppdatering i regelverket.
Ärendet är långt ifrån färdigt.
Vilket bekräftas i denna artikel:
ChatGPT från OpenAI kan inte köras lokalt, eftersom det är en webbprodukt som använder sig av olika AI-modeller, vilka är proprietära och bara finns hos OpenAI. Dessa modeller är inte “anslutna” till något nätverk, förutom genom plugin-systemet som vissa har tillgång till, men för enkelhetens skull kan vi bortse från det här. Kunskapen de besitter kommer från träningsdata som de en gång tränats på, vilket är en integrerad del av själva modellen. Det går inte att separera AI-modellen från “databasen” när det gäller denna teknik.
Det finns dock andra AI-modeller med liknande kapabiliteter som är något sämre, särskilt jämfört med OpenAI:s GPT-4, som man kan använda genom att betala för ChatGPT. Dessa kan också vara utmanande att implementera lokalt. Att de är något sämre innebär dock inte att de inte kan vara användbara. Att köra en sådan modell lokalt medför inga datasäkerhetsrisker, förutsatt att man vet vad man gör och inte kör skript som man hittar på nätet utan att veta hur de fungerar.
Lägger in denna länk också. Bakgrunden är att han som skrivit inlägget skrev en fråga om sig själv till ChatGPT och fick till svar att han var död bland annat. Därefter skrev han lite legala brev till OpenAI och fick då till sist detta svar.
Han är inte ensam om att väldigt hårdnackat ta striden för GDPR och andra dataskydd. Skribenten själv har inga undantag som policy och varje fall han upptäcker av överträdelse, rapporterar han till lämpliga myndigheter. Det är intressant att följa och det är många sådana nu
.