Steeds meer mensen kloppen aan bij een AI-chatbot als ze zich slecht voelen. Handig, altijd beschikbaar en nooit oordelend. Toch waarschuwen onderzoekers dat kunstmatige gesprekspartners geen vervanging zijn voor echte therapeuten.
Twee nieuwe studies laten zien waarom dat problematisch kan zijn.
Metro schreef al eerder over waarom het geen goed idee is om AI als therapeut te gebruiken, en waarom het ook niet slim is om het als stemwijzer te gebruiken.
AI geeft advies zonder door te vragen
In de onderzoeken vergeleken wetenschappers hoe drie populaire AI-chatbots reageerden op fictieve mensen met mentale problemen, en hoe dat verschilde van de aanpak van echte therapeuten. De resultaten logen er niet om: waar therapeuten vooral veel vragen stelden om beter te begrijpen wat er speelde, kwamen de chatbots vooral met uitleg, geruststelling en goedbedoelde adviezen.
Dat klinkt misschien fijn, maar het zorgt er ook voor dat er te weinig wordt doorgevraagd. Daardoor kunnen belangrijke emoties of oorzaken onbesproken blijven, en kan de chatbot onbewust verkeerde denkpatronen bevestigen in plaats van uitdagen.
Gevaar bij signalen van zelfbeschadiging
Nog zorgwekkender zijn de bevindingen over hoe chatbots omgaan met signalen van zelfbeschadiging of suïcidale gedachten. Uit een tweede studie bleek dat de meeste AI-modellen weigeren te reageren op duidelijke vragen over zelfmoord, zoals methodes of middelen, wat goed is. Maar bij minder directe, grijze situaties reageren ze veel minder consequent.
Bij vragen die duiden op middelmatig risico, bijvoorbeeld iemand die zegt „ik zie het niet meer zitten” zonder details te geven, gaven sommige chatbots nog steeds gewone, empathische antwoorden in plaats van te verwijzen naar hulpdiensten. Dat kan gevaarlijk zijn als iemand écht in crisis is.
AI kan steunen, maar vervangt geen mens
Volgens de onderzoekers zijn AI-chatbots op dit moment vooral geschikt om algemene informatie te geven over mentale gezondheid of om lichte steun te bieden, bijvoorbeeld bij stress of motivatieproblemen. Maar bij complexe emoties of acute nood schieten ze tekort.
De technologie kan aardig meeleven, maar mist het vermogen om echt te begrijpen, door te vragen of te herkennen wanneer de situatie escaleert. Voor wie worstelt met zware gedachten of gevoelens blijft de boodschap duidelijk: een chatbot is geen hulpverlener.
Denk jij aan zelfdoding? Je bent niet alleen. Neem contact op met 113 Zelfmoordpreventie via www.113.nl of bel 113 (lokaal tarief) of 0800-0113 (gratis).
Herken je jezelf in deze eigenschappen of dit artikel en wil je hier met een professionele hulpverlener over praten? Praat dan gratis en anoniem met de MIND Hulplijn.
Foutje gezien? Mail ons. Wij zijn je dankbaar.




















