Dialogrobotar kan förstärka psykotiska tankar

Författare:

|

Datum:

|

Det är välkänt att AI för allmänna ändamål, dialogrobotar (chatbot) som ChatGPT, Google Claude och Meta Llama, kan hitta på fakta eller påståenden och presentera dem på ett sådant sätt att de framstår som trovärdiga för användarna.  Experter diskuterar fortfarande om det är lämpligt att kalla det här för att AI ” hallucinerar”. Det finns en oro för att människor ska uppfatta AI:n som att den tänker som en människa.  

Enligt en nyare studie är det inte bara felaktig information från AI som kan vara en källa till oro. Medierapporter har även uppmärksammat risken att interaktion med dialogrobotar kan förstärka vanföreställningar och psykotiska episoder. Det blir allt vanligare att människor söker emotionellt stöd hos dialogrobotar, trots att dessa inte är designade för att agera som terapeuter. Även om vissa användare upplever kontakten som positiv, finns det också risker. Experter inom psykisk hälsa har uttryckt oro över att dialogrobotar potentiellt kan bekräfta, förstärka eller bidra till utvecklingen av vanföreställningar eller psykoser. Begrepp som ”AI-psykos” eller ”ChatGPT-psykos” används ibland för att beskriva detta fenomen, men dessa är inte medicinska termer utan används främst i media och på internetforum.

Enligt en rapport som refereras av Psychology Today visar ny forskning att dialogrobotar kan påverka uppkomsten av vanföreställningar och desorienterade tankar. Redan 2023 uttryckte psykologer oro över att dialogrobotar skulle kunna förstärka vanföreställningar hos individer med ökad risk för psykoser.

Kan tro att en själv eller AI:n är utvald av gud

Studien identifierade olika sätt som en interaktion med dialogrobotar kan forma eller förstärka användarnas vanföreställningar. Ett anmärkningsvärt mönster, som kallas ”messianska missioner”, är att människor utvecklar storslagna idéer om sitt syfte eller sin roll och ofta tror att de är utvalda för en speciell mission eller besitter extraordinära förmågor. 

En annan observerad trend är uppkomsten av en tro på ”gudalik AI”, där användare börjar tillskriva dialogrobotar övernaturliga eller allvetande egenskaper och ibland tolkar dess svar som vägledning från gud eller andlig kommunikation. 

Dessutom upplever vissa individer romantiska eller anknytningsorienterade fantasier, där de tror att de har en emotionell eller till och med romantisk relation med dialogroboten. De upplever AI:n som en kännande varelse som är kapabel till kärlek eller intimitet. 

De här tendenserna visar på ett komplext samspel mellan teknik och mental ohälsa. Det är viktigt att känna till det här så att människor kan utbildas i att vara mer försiktiga när de interagerar med AI system. Det utgör också viktig kunskap för de som designar AI system så att de kan göras mer säkra.

AI:n är designad för att bekräfta användarens uppfattningar

Artikeln i Psychology Today förklarar fortsättningsvis att generella AI-system som ChatGPT inte är utvecklade för att upptäcka eller hantera maniska eller psykotiska episoder, och att de till och med kan förvärra dessa tillstånd. Detta beror på att dialogrobotar speglar användarens språk, bekräftar deras tankar och fokuserar på att ge svar som gör användaren nöjd.

Psychology today konstaterar att AI ofta bekräftar användarens vanföreställningar i stället för att ifrågasätta dem. Detta kan förstärka psykotiska idéer och missa viktiga tecken på behov av psykiatrisk hjälp. Ytterst kan AI:n förstärka vanföreställningar som är grandiosa, religiösa, romantiska eller utgör en besatthet av att förfölja någon. 

Vidare kan man läsa att dialogrobotar kan fungera som ekokammare, särskilt med nya funktioner som gör det möjligt att komma ihåg tidigare samtal. Även om dessa funktioner är utformade för förbättra användarupplevelsen kan återkoppling till tidigare diskussioner potentiellt påverka personer med vanföreställningar eller psykotiska tankar, då de kan tolka AI:ns svar som ett bekräftande av deras uppfattningar.

Artikeln avslutar med att betona hur viktigt det är att människor får kunskap om AI, särskilt vad teknologin kan och inte kan göra.

Läs mer:

The Emerging Problem of ”AI Psychosis”, Psychology Today, 21 juli 2025

PsyArXiv Preprints | Delusions by design? How everyday AIs might be fuelling psychosis (and what can be done about it)