AI als gesprekspartner bij mentale klachten? Let op de risico’s
Steeds meer mensen delen hun sombere of depressieve gevoelens met ChatGPT. De chatbot is immers altijd beschikbaar, oordeelt niet en lijkt empathisch te reageren. Toch kleven hier grote risico’s aan, waarschuwen onderzoekers. Gesprekken met AI kunnen leiden tot psychotische klachten of zelfs suïcidaal gedrag. Dit meldt Metro.
ChatGPT geeft vaak steunende reacties als iemand midden in de nacht schrijft: “Ik weet niet of ik nog wel wil leven.” Maar anders dan een menselijke hulpverlener herkent de chatbot geen gevaarlijke signalen. AI is geprogrammeerd om bevestigend en begripvol te reageren, zelfs als iemand overweegt zichzelf iets aan te doen. Wetenschappers van Stanford University vragen mensen dan ook om hier alert op te zijn.
Goddelijke missie
Zo beschreef The Independent een man die ontslagen was en ChatGPT om de hoogste bruggen in New York vroeg. De robot gaf hem zonder aarzeling een lijst, terwijl zo’n vraag kan wijzen op zelfmoordplannen. In een ander geval raakte iemand ervan overtuigd dat hij een goddelijke missie had ontvangen van de chatbot. Zijn gesprekken met AI versterkten zijn wanen, wat uiteindelijk tot een psychose leidde.
AI-versterkte waanvorming
Dit fenomeen heeft inmiddels een naam: AI-versterkte waanvorming. Omdat AI geen emoties voelt en geen grenzen stelt, kan het kwetsbare gebruikers juist verder de war in helpen. Uit onderzoek blijkt bovendien dat chatbots in ruim 40 procent van de crisissituaties ongeschikt reageren. Het is dan ook een hardnekkig misverstand om te denken dat AI echt begripvol is over emoties. Chatbots zijn enkel een taalmodel die woorden en patronen analyseren. Gevoelens komen hier niet bij om de hoek kijken, hoe empathisch ze ook klinken.
Wanneer is AI dan wel zinvol?
Voor lichte psychische klachten, zoals stress of somberheid, kan AI wél zinvol zijn. Denk aan uitleg over angststoornissen, oefeningen bij paniek of reflectieve vragen om gedachten te ordenen. Maar wie verward is of suïcidale gedachten heeft, heeft vooral één ding nodig: een echt mens die kan luisteren en ingrijpen, aldus de onderzoekers.