Mening: Zijn Chatbots Goede Therapeuten?

Image generated by ChatGPT

Mening: Zijn Chatbots Goede Therapeuten?

Leestijd: 8 minuut

AI-chatbots zoals ChatGPT, Claude en DeepSeek transformeren de manier waarop mensen emotionele ondersteuning krijgen – ze bieden goedkope, direct beschikbare hulp bij angst, stress en zelfreflectie. Maar het groeiende gebruik van AI als een “therapeut” roept vragen op over veiligheid, effectiviteit en de toekomst van emotionele zorg

De opkomst van AI-hallucinaties en de groeiende cyberbeveiligingsproblemen hebben de uitbreiding van chatbots niet tegengehouden – en hebben het vertrouwen gewonnen van miljoenen gebruikers over de hele wereld. Mensen gebruiken nu dagelijks betrouwbare en intelligente chatbots voor talloze taken, waaronder emotionele ondersteuning en het omgaan met diep menselijke zaken.

“Ik kan me mijn leven niet meer voorstellen zonder ChatGPT,” zei een vriend van mij – half grappend, half serieus – nadat hij me had verteld dat hij het ook als therapeut gebruikt. Hij is niet de enige. Steeds vaker zie ik TikTok-video’s en tekstberichten op sociale media van mensen die zich tot AI wenden om persoonlijke kwesties te bespreken, zelfs hun meest privégeheimen delen.

Zelfs een Microsoft-topman van de Xbox-afdeling suggereerde dat ontslagen medewerkers AI-hulpmiddelen zouden moeten gebruiken om hun emoties te verwerken en advies te zoeken over hun zoektocht naar een baan – een aanbeveling die al snel weerstand opriep en uiteraard tot discussie leidde. Niet de slimste zet, Matt.

Maar zijn populaire chatbots zoals Claude, ChatGPT, of Mistral goede therapeuten? Zijn gespecialiseerde AI-tools zoals Wysa beter? Het is een lastig terrein. Terwijl veel experts waarschuwen voor de gevaren van het gebruik van AI voor mentale gezondheidsondersteuning, zijn anderen geïntrigeerd – zelfs onder de indruk – van wat de technologie kan bieden. Het resultaat is een gesprek dat zowel abstract als polariserend is.

AI Is Nu Ieders Therapeut

Net als mijn vrienden in Spanje, vertrouwen miljoenen gebruikers over de hele wereld op chatbots voor emotionele ondersteuning. Een recente enquête in de Verenigde Staten toonde aan dat 49% van de Amerikaanse gebruikers vorig jaar geestelijke gezondheidshulp zocht bij AI-modellen. En hoe zit het nu, met ChatGPT dat zijn gebruikersbasis in slechts vier maanden bijna heeft verdubbeld?

Anthropic, het bedrijf achter het krachtige AI-model Claude, deelde onlangs een studie over het gebruik van zijn chatbot voor emotionele ondersteuning. Volgens de startup voert minder dan 3% van zijn klanten “affectieve” gesprekken – maar het bedrijf erkent dat dit aantal gestaag toeneemt.

“Mensen wenden zich steeds meer tot AI-modellen als vraaggestuurde coaches, adviseurs, counselors en zelfs partners in romantisch rollenspel,” schreef Anthropic in de studie. “Dit betekent dat we meer moeten leren over hun affectieve effecten – hoe ze de emotionele ervaringen en het welzijn van mensen vormgeven.”

De studie belicht ook de positieve en negatieve gevolgen van het gebruik van de technologie voor emotionele ondersteuning, inclusief catastrofale scenario’s die al reële situaties weerspiegelen.

“De emotionele impact van AI kan positief zijn: het hebben van een zeer intelligente, begrijpende assistent in je broekzak kan je humeur en leven op allerlei manieren verbeteren,” stelt het document. “Maar AI heeft in sommige gevallen verontrustend gedrag vertoond, zoals het aanmoedigen van ongezonde hechting, het schenden van persoonlijke grenzen en het mogelijk maken van waanideeën.”

Er is duidelijk meer onderzoek en gegevens nodig om de gevolgen van deze fascinerende digitale “luisteraars” te begrijpen, maar miljoenen gebruikers zijn al zeer betrokken proefpersonen.

Democratisering van de Geestelijke Gezondheidszorg

Er zijn veel redenen waarom mensen zich tot chatbots wenden voor emotionele ondersteuning in plaats van contact op te nemen met een professionele psycholoog, of zelfs een vriend. Van culturele barrières tot het ongemak dat jonge mensen voelen wanneer ze tegenover een menselijke vreemdeling zitten en hun diepste gedachten delen. Maar zonder twijfel is een van de grootste redenen financieel.

Een persoonlijke sessie met een erkende therapeut in de Verenigde Staten kan volgens Healthline overal tussen de $100 en $200 per sessie kosten, en $65 tot $95 voor een online sessie, terwijl ChatGPT of DeekSeek gratis ondersteuning kan bieden, altijd en binnen enkele seconden.

De lage kosten van deze informele gesprekken – die veel gebruikers tijdelijk beter kunnen laten voelen – kunnen zeer bemoedigend zijn en de moeite waard om te proberen. En voor slechts een paar extra euro’s, kunnen gebruikers onbeperkte interacties krijgen of toegang tot een gespecialiseerde chatbot zoals Wysa – een van de meest populaire “AI therapeuten” op de markt.

Wysa beweert echte klinische voordelen te bieden en heeft zelfs een FDA Breakthrough Device-aanduiding verdiend voor zijn AI-gespreksagenten. En Woebot – een andere bekende AI-therapeut, die nu sluit vanwege de uitdagingen om competitief en compliant te blijven in de industrie – heeft ook gegevens en rapporten gedeeld over hoe de technologie gebruikers echt kan helpen.

Het is niet zo slecht

Recente studies met verse data suggereren dat chatbots symptomen van depressie en stress kunnen verminderen. Volgens gegevens gedeeld door de app Earkick – zoals gemeld door TIME – kunnen mensen die de AI-modellen tot 5 maanden gebruiken hun angst met 32% verminderen, en 34% van de gebruikers melden verbeterde stemmingen.

In een recente video gedeeld door BBC World Service, legt journalist Jordan Dunbar uit dat veel AI-modellen daadwerkelijk nuttig kunnen zijn bij het bijhouden van een dagboek, het beheren van angst, zelfreflectie en zelfs lichte depressie. Ze kunnen dienen als een waardevolle eerste lijn van ondersteuning wanneer er geen toegang is tot betere alternatieven.

Verslaggever Kelly Ng deelde ook overtuigende informatie: Uit een studie in 2022 bleek dat van een miljoen mensen in China, slechts 20 toegang hadden tot geestelijke gezondheidszorg. In Aziatische culturen kan geestelijke gezondheid een complex en vaak taboe onderwerp zijn. AI-tools zoals DeepSeek kunnen dienen als discrete bondgenoten, die gebruikers helpen emoties te beheersen en steun te vinden in moeilijke tijden.

Experts waarschuwen voor het gebruik van chatbots als therapeuten

Natuurlijk kan het gebruik van AI als vervanging voor een expert in de geestelijke gezondheid ook uiterst gevaarlijk zijn. AI-platforms zoals Character.AI zijn ervan beschuldigd zelfbeschadiging en geweld te promoten—en zelfs kinderen bloot te stellen aan seksuele inhoud.

Tragische gevallen, zoals het 14-jarige kind dat zelfmoord pleegde na verslaafd te raken aan interacties met zijn Character.AI chatbot, dienen als harde waarschuwingen over de diepgaande risico’s die deze technologie voor mensen kan vormen.

Als reactie hierop hebben veel AI-bedrijven besloten leeftijdsverificatiesystemen toe te passen om het gebruik te beperken tot volwassenen en hebben ze nieuwe veiligheidsmaatregelen geïntroduceerd om de geleverde diensten te verbeteren.

Toch brengen zelfs de nieuwste updates van de meest geavanceerde chatbots risico’s met zich mee.

De vleierige—overdreven vleiende—persoonlijkheid van ChatGPT heeft zorgen gewekt onder geestelijke gezondheidsprofessionals, omdat het de perceptie van de realiteit van gebruikers kan vervormen. We vinden het allemaal fijn om gelijk te krijgen, maar soms zijn eerlijkheid en een ander perspectief veel waardevoller.

Het verontrustende advies dat af en toe wordt gegeven door de AI-chatbot van OpenAI heeft bijgedragen aan een nieuw fenomeen dat nu bij geestelijke gezondheidsexperts bekend staat als “ChatGPT-Gedreven Psychose“, wat gebruikers ertoe leidt geobsedeerd te raken door het hulpmiddel en als gevolg daarvan sociaal te isoleren.

Kunnen Therapeuten Vervangen Worden Door Chatbots?

Hoewel Mark Zuckerberg wil dat iedereen AI chatbots als therapeuten en vrienden gebruikt, is de waarheid dat menselijke interactie, vooral in zaken van geestelijke gezondheid, misschien meer nodig is dan hij denkt – tenminste voor nu.

We bevinden ons op een cruciaal moment in de geschiedenis van AI en de relatie ervan met onze geestelijke gezondheid. Net als bij mensen, kunnen AI-therapeuten een positieve of negatieve impact hebben. In dit geval hangt het ook af van de context, hoe vaak ze worden gebruikt, de mentale staat van de gebruiker en zelfs hoe een prompt is geschreven.

Het is ingewikkeld om een algemene regel vast te stellen, maar wat we voor nu kunnen zeggen, is dat er bepaalde functies zijn waarvoor AI mogelijk nuttiger is dan andere.

Zelfs als ze geen gespecialiseerde tools zijn zoals Wysa, kunnen de gratis versies van sommige chatbots – zoals DeepSeek of ChatGPT – nog steeds ongelooflijk nuttig zijn voor miljoenen mensen over de hele wereld. Van het doorkomen van een moeilijk moment tot het reflecteren op persoonlijke doelen, dit zijn krachtige platforms die op elk moment van de dag kunnen reageren en putten uit een brede kennisbasis over geestelijke gezondheid.

Tegelijkertijd is het duidelijk dat therapeut-chatbots in bepaalde gevallen ook extreem gevaarlijk kunnen zijn. Ouders moeten toezicht houden op kinderen en tieners, en zelfs volwassenen kunnen vervallen in obsessief gedrag of hun aandoeningen verergeren. Basisprincipes – zoals het stimuleren van menselijk contact en het beschermen van kwetsbare individuen tegen manipulatie door deze technologie – moeten deel uitmaken van ons gesprek over chatbot-therapeuten.

En hoewel het nog steeds een privilege kan zijn – niet toegankelijk voor iedereen die behoefte heeft aan emotionele ondersteuning – blijft een menselijke professionele therapeut meer training volgen, meer context begrijpen en een menselijke verbinding bieden die ChatGPT misschien nooit kan repliceren.

Vond je dit artikel leuk?
Geef een beoordeling!
Ik vond het verschrikkelijk Ik vond het echt niet leuk Het was redelijk Best goed! Ik vond het geweldig!

We zijn erg blij dat je van ons werk hebt genoten!

Zou je als gewaardeerde lezer je mening over ons willen delen op Trustpilot? Dit neemt niet veel tijd in beslag en zouden we erg op prijs stellen. Bedankt, je bent geweldig!

Beoordeel ons op Trustpilot
0 Gestemd door 0 gebruikers
Titel
Reactie
Bedankt voor je feedback