AI herkent depressie in WhatsApp‑spraakberichten op basis van stemgebruik
Braziliaanse onderzoekers hebben een AI‑model getest dat uit WhatsApp‑spraakberichten kan afleiden of iemand depressief is. Het systeem let niet op de inhoud van het bericht, maar op kenmerken van de stem. De beste modellen wisten ruim 90 procent van de depressieve vrouwen en 80 procent van de depressieve mannen correct te identificeren. Dit meldt de Volkskrant.
Mogelijke toepassing in de zorg
Volgens de onderzoekers kan deze techniek in de toekomst helpen om sneller te signaleren of iemand ondersteuning nodig heeft. Als het model verder wordt ontwikkeld, zou het ook kunnen meten hoe ernstig de klachten zijn of hoe iemand reageert op behandeling. Hoogleraar psychiatrie Wim Veling noemt het onderzoek een waardevolle stap, al benadrukt hij dat herkenning in de praktijk ingewikkelder is dan in een gecontroleerde testomgeving.
Hoe het onderzoek werkte
De resultaten, gepubliceerd in PLOS Mental Health, zijn gebaseerd op twee groepen van tachtig proefpersonen. De AI werd eerst getraind op bestaande WhatsApp‑berichten van mensen met en zonder depressieve klachten. Daarna volgde een test waarbij deelnemers twee nieuwe spraakberichten moesten inspreken: een korte terugblik op hun week en een opname waarin ze tot tien telden. Psychiaters hadden vooraf vastgesteld wie aan de criteria voor een depressie voldeed.
De onderzoekers kozen bewust voor WhatsApp‑audio om de praktijk zo goed mogelijk te benaderen. Deelnemers kwamen uit verschillende regio’s, zodat het model niet te veel zou leunen op dialect of accent.
Wat de AI precies hoort
Het systeem analyseert niet wat iemand zegt, maar hoe iemand spreekt: intonatie, ritme, pauzes en andere micro‑kenmerken die voor het menselijk oor nauwelijks waarneembaar zijn. Depressieve mensen spreken vaak vlakker en met minder variatie. Ervaren psychiaters herkennen dat soms ook aan de telefoon, maar AI kan veel meer details tegelijk meten.
Grenzen en verschillen
De techniek vraagt momenteel nog veel rekenkracht en werkt niet in real time. Ook viel op dat het model vrouwen beter herkende dan mannen, waarschijnlijk omdat de trainingsset meer vrouwelijke deelnemers bevatte. Daarnaast speelt cultuur een rol: spraakpatronen verschillen per achtergrond en wereldbeeld.