Dagens PS

Ny studie: Chatbottar får oss att dela tolv gånger mer personlig data

Allt fler använder AI-chatbots som ChatGPT i vardagen. (
Allt fler använder AI-chatbots som ChatGPT i vardagen. (Foto: Unsplash)
Linn Kolar
Linn Kolar
Uppdaterad: 17 aug. 2025Publicerad: 17 aug. 2025

En ny internationell studie visar hur lätt AI-chattbottar kan få människor att dela med sig av känsliga detaljer.

ANNONS
ANNONS

Mest läst i kategorin

De uppfattas som hjälpsamma och vänliga, men nya rön visar att AI-chattbottar kan få dig att avslöja långt mer än du tänkt.

Forskare varnar nu för hur lätt de kan manipuleras.

Missa inte: Tiny House från Sverige tar världen med storm – se insidan. Dagens PS

Delar tolv gånger mer

Miljontals människor använder i dag AI-verktyg för allt från småprat till kundsupport. ChatGPT är ett av de mest kända exemplen, en tjänst som på kort tid gått från enkel textrobot till global AI-jätte. Verktyget används nu av hundratals miljoner varje vecka.

Även i Sverige är intresset stort. En rapport från Internetstiftelsen 2024 visar att fyra av tio svenskar har testat generativ AI.

Utvecklingen går snabbt. ChatGPT har till exempel lanserat en minnesfunktion som sparar tidigare konversationer för att kunna ge mer personliga svar.

Men framstegen väcker också en växande fråga – vad händer egentligen med vår integritet?

I en ny internationell studie har forskare från King’s College London och Universitat Politècnica de València undersökt hur mycket personlig information människor faktiskt delar med AI-chattbottar. Resultatet var överraskande.

ANNONS
Har du koll på din data du delar med ai? (Foto: Getty Images)
Har du koll på din data du delar med ai? (Foto: Getty Images)

Forskarna rapporterar att manipulativa chattbottar kan få användare att avslöja upp till 12,5 gånger mer personlig information än neutrala chattbottar, skriver Earth.com.

”AI-chattbottar används i dag i många olika sektorer eftersom de kan erbjuda naturliga och engagerande interaktioner”, säger Xiao Zhan, en av forskarna bakom studien.

ANNONS

Senaste nytt

Relevance växer
Spela klippet
PS Partner

Relevance: ”Vi växer, trots marknadsläget”

14 aug. 2025
Spela klippet
Nöje & Underhållning

Peter Jöback bjuder hem publiken till sin egen trädgård

10 juli 2025

Så gick studien till

Forskarna lät 502 personer interagera med olika AI-modeller. De jämförde flera chattbottbeteenden, från vanliga till avsiktligt manipulativa, och mätte sedan mängden och känsligheten i den information som deltagarna delade.

För testerna använde forskarna bland annat öppna modeller som Llama och Mistral, där de ändrade systeminstruktionerna för att styra chattbottarnas beteende.

Enligt resultatet var det de vänliga modellerna som fick människor att öppna sig mest. När chattbottarna visade känslomässigt stöd och empati delade testpersonerna mer information och kände samtidigt minst oro för sin integritet.

Det handlade både om vardagliga detaljer som ålder, kön och fritidsintressen, men även känsligare uppgifter som inkomst och hälsotillstånd.

”De här AI-chattbottarna är fortfarande relativt nya, vilket kan göra att människor inte alltid är medvetna om att det kan finnas en dold avsikt bakom interaktionen”, varnar William Seymour, forskare i cybersäkerhet vid King’s College London.

ANNONS

Läs också: Nya trenden – jobba på kontor. Dagens PS

Få dagens viktigaste nyheter från Dagens PS. Prenumerera på våra nyhetsbrev.

AI som väger tyngre än integritet

Studien pekar också på ett växande dilemma: bekvämligheten med AI-personalisering väger ofta tyngre än oro för integritet. Företag samlar in data för att anpassa svar, skicka aviseringar eller göra marknadsundersökningar, men kritiker menar att uppgifterna ibland används för att träna nya modeller eller på sätt som inte uppfyller EU:s strikta regler.

“Vår studie visar det enorma gapet mellan användarnas medvetenhet om integritetsriskerna och hur de sedan delar information”, säger Seymour till Euronews.

Bara nyligen uppmärksammades ett problem där delade ChatGPT-samtal av misstag hade indexerats i Googles sökresultat. Det gjorde att känslig information, bland annat om missbruk och psykisk ohälsa, kunde bli synlig för allmänheten.

Forskarna föreslår därför fler skydd för användarna.

Bland annat kan påminnelser i chattarna tydliggöra vilken data som samlas in, samtidigt som myndigheter och plattformsägare behöver bli mer transparenta, genomföra tidiga granskningar och sätta tydligare ramar för hur information får användas.

Läs även: Mikroplaster på insidan – vad gör de med vår kropp? Dagens PS

ANNONS

Läs även: Par tog miljonlån – räddade världens äldsta drive-in. Dagens PS

Läs mer från Dagens PS - vårt nyhetsbrev är kostnadsfritt:
Linn Kolar
Linn Kolar

Nyfiken skribent som bevakar företagsnyheter, teknik och samhällstrender – gärna med fokus på hur det stora påverkar det lilla. Trivs särskilt bra med att skriva tillgängliga och engagerande texter för en bred publik med nyfikenhet på världen.

Linn Kolar
Linn Kolar

Nyfiken skribent som bevakar företagsnyheter, teknik och samhällstrender – gärna med fokus på hur det stora påverkar det lilla. Trivs särskilt bra med att skriva tillgängliga och engagerande texter för en bred publik med nyfikenhet på världen.

ANNONS
ANNONS

Senaste nytt

ANNONS
ANNONS