AI som terapeut? Experter är oroliga

Författare:

|

Datum:

|

Experter i Storbritannien varnar enligt The Guardian för användningen av chattrobotar för terapisamtal. De lyfter farhågor om att dessa verktyg kan ge farliga råd och betonar att det behövs en stark tillsyn över användningen av sådana bottar. Nyligen uttryckte Mark Zuckerberg i en intervju sin övertygelse om att alla borde ha tillgång till en terapeut. Han föreslog att artificiell intelligens skulle kunna fylla denna roll för dem som inte har tillgång till en mänsklig terapeut.

Kan ge felaktiga råd och drabba vänskap

The Guardian har undersökt möjligheten att AI kan fungera som en digital samtalsterapeut genom intervjuer med personer inom psykiatrin. Professor Dame Til Wykes från Kings College i London påpekar att AI har svårigheter med att hantera nyanser och kan ge olämpliga råd. Hon refererar till en chattbott som stängdes ner 2023 efter att ha gett farliga råd till personer med ätstörningar. 

Dessutom varnar hon för att användningen av chattbottar kan påverka en persons relationer. Vänner delar ofta personliga problem med varandra. Användningen av AI för detta ändamål kan påverka vänskapsrelationer negativt, säger professor Wykes. 

Reglering och tillsyn behövs

Fortsättningsvis nämns i artikeln att chattbottar för mental hälsa, såsom Noah och Wysa, har blivit populära. Det finns också AI-verktyg som marknadsförs som verktyg för att bearbeta sorg eller för att skapa virtuella vänskapsrelationer.

En annan person som intervjuats av The Guardian är Dr. Jaime Craig, tillträdande ordförande för Storbritanniens yrkesförening för kliniska psykologer. Han poängterar vikten av att användningen av artificiell intelligens inom psykisk hälsa följer bästa praxis för behandling. Dr. Craig nämner att Wysa är en populär chattbott men framhåller också behovet av förbättrade säkerhetsåtgärder. Artikeln understryker dessutom betydelsen av reglering, vilket saknas i Storbritannien.

EU har reglering

I EU finns AI-förordningen som innehåller regler för vissa typer av AI-botar. Dessa AI-modeller kategoriseras som AI för allmänna ändamål (general purpose AI) med systemrisker (systemic risk), dvs. risker som påverkar människors liv och samhället. Leverantörer av AI-system för allmänna ändamål med systemrisker måste till exempel testa sina botar och övervaka vad AI:n svarar för att förhindra att den ger skadliga tips. Det kan till exempel vara råd som uppmuntrar till självskadebeteende, hjälp med att skapa datavirus eller instruktioner om hur man tillverkar bomber. Reglerna om AI för allmänna ändamål träder i kraft i augusti i år.

Läs mer :

‘It cannot provide nuance’: UK experts warn AI therapy chatbots are not safe | Artificial intelligence (AI) | The Guardian, 7 Maj 2025

EU:s AI förordning på svenska