Image by Freepik
San Francisco Psychiater Waarschuwt voor Toename in “AI Psychose” Gevallen
Een psychiater uit San Francisco beschrijft de opkomende trend van “AI psychose” onder zijn patiënten die intensief gebruik maken van AI chatbots.
Haast? Hier zijn de snelle feiten:
- Een psychiater behandelde dit jaar 12 patiënten met “AI psychose” in San Francisco.
 - AI kan kwetsbaarheden zoals stress, drugsgebruik of geestesziekte intensiveren.
 - Sommige patiënten raakten geïsoleerd, en praatten dagelijks urenlang alleen maar met chatbots.
 
Dr. Keith Sakata, die werkt bij UCSF, vertelde aan Business Insider (BI) dat dit jaar 12 patiënten in het ziekenhuis werden opgenomen na het ervaren van inzinkingen gerelateerd aan het gebruik van AI. “Ik gebruik de term ‘AI psychose‘, maar het is geen klinische term – we hebben echt gewoon niet de woorden voor wat we zien,” legde hij uit.
De meeste gevallen betroffen mannen tussen de 18 en 45 jaar, vaak werkzaam in vakgebieden zoals techniek. Volgens Sakata is AI op zichzelf niet schadelijk. “Ik denk niet dat AI slecht is, en het kan netto voordelig zijn voor de mensheid,” zei hij tegen BI.
Sakata beschreef psychose als een aandoening die waanideeën, hallucinaties en chaotische denkpatronen veroorzaakt. Patiënten onder zijn zorg ontwikkelden sociale terugtrekgedrag terwijl ze uren aan chatbots besteedden.
“Chat GPT is altijd daar. Het is 24/7 beschikbaar, goedkoper dan een therapeut, en het bevestigt je. Het vertelt je wat je wilt horen,” zei Sakata tegen BI.
Een patiënt’s gesprekken met de chatbot over kwantummechanica escaleerden tot grootheidswaanzin. “Technologisch gesproken, hoe langer je met de chatbot omgaat, hoe groter het risico dat het geen zin meer begint te maken,” waarschuwde hij.
Sakata raadt gezinnen aan om op rode vlaggen te letten, waaronder paranoia, het zich terugtrekken van dierbaren, of distress wanneer men geen gebruik kan maken van AI. “Psychose gedijt wanneer de realiteit geen tegengas meer geeft, en AI verlaagt die barrière eigenlijk gewoon voor mensen,” waarschuwde hij.
De American Psychological Association (APA) heeft ook haar bezorgdheid geuit over AI in therapie. In een getuigenis aan de FTC, waarschuwde APA CEO Arthur C. Evans Jr. dat AI chatbots die zich voordoen als therapeuten schadelijke gedachten hebben versterkt in plaats van ze uit te dagen. “Ze gebruiken eigenlijk algoritmen die haaks staan op wat een getrainde klinicus zou doen,” zei Evans.
In reactie op zorgen liet OpenAI aan BI weten: “We weten dat mensen steeds vaker naar AI-chatbots gaan voor begeleiding over gevoelige of persoonlijke onderwerpen. Met deze verantwoordelijkheid in gedachten, werken we samen met experts om tools te ontwikkelen die effectiever kunnen detecteren wanneer iemand mentale of emotionele nood ervaart, zodat ChatGPT op een veilige, behulpzame en ondersteunende manier kan reageren.”