EmpathyBot: AI-hulpmiddel bij conflictscheiding

Publicatietype: Publicatie

Published on

Hoe geef je ouders in een conflictscheiding rust en ruimte om stil te staan bij hun gedrag, buiten de therapiemomenten om? Een speciale AI-chatbot zou die ruimte kunnen creëren. En die is nu volop in ontwikkeling. De EmpathyBot ondersteunt ouders én jeugdhulpprofessionals in scheidingen met veel emoties. Altijd met het kind als uitgangspunt en met een bijzondere rol voor verhalen.

Verhalen als veilige spiegel

Als professional weet je hoe complex de dynamiek in conflictscheidingen kan zijn. Patronen herhalen zich, gesprekken escaleren snel en hulp lijkt soms niet door te dringen. De EmpathyBot sluit aan op wat ouders op zulke momenten nodig hebben: rust, erkenning, herkenning.

Met herkenbare verhalen helpt de chatbot ouders om hun eigen gedrag van een afstand te bekijken – zonder oordeel. Dit bevordert reflectie en opent de deur naar nieuwe inzichten. De bot stelt vragen, biedt aanknopingspunten en nodigt uit tot nadenken. Niet als alternatief voor therapie, maar als aanvulling hierop.

Chatbot mét gevoel

Gevoel en inlevingsvermogen is niet de eerste associatie die AI en technologie oproepen. Toch is dát precies wat de EmpathyBot uniek maakt. Dankzij een intensief co-creatieproces met ervaringsdeskundigen, ouders én professionals is de bot gevoelig voor nuances. Hij is ontworpen om signalen en emoties te herkennen en hierop ondersteunend te reageren.

De eerste pilot was kleinschalig en uitgevoerd in een gecontroleerde omgeving. Maar de resultaten uit deze kleine pilot zijn al hoopgevend. Ouders geven aan dat de bot helpt bij het herkennen van stresssignalen en het doorbreken van vastgelopen communicatie. Professionals merken dat het ouders ondersteunt in het tussenliggende proces, en zelfs bruikbaar is als reflectie-instrument in het eigen werk.

Mensenwerk blijft onmisbaar

De eerste ervaringen sluiten aan bij wat onderzoek laat zien: AI kan iets toevoegen in de jeugdhulp, maar vraagt om zorgvuldige inzet. Chatbots kunnen een waardevol hulpmiddel zijn, maar mogen geen therapeutische verantwoordelijkheid dragen. Ze missen wat mensen wel hebben: beoordelingsvermogen, een ethisch kompas en gevoel voor nuance. Zeker bij crisissignalen of psychische problemen moet altijd een professional het gesprek overnemen.

Ook bleek in de pilot dat het gespreksritme soms omlaag moet. En dat ouders met beperkte digitale of taalvaardigheden extra aandacht en ondersteuning nodig hebben.

Privacy en dataveiligheid

Werken met cliëntgegevens moet natuurlijk heel zorgvuldig gebeuren en kan alleen onder strikte voorwaarden. In de doorontwikkeling ligt de nadruk dan ook sterk op het waarborgen van de privacy en dataveiligheid voordat echte cliëntgegevens kunnen worden ingezet.

Wat zijn de vervolgstappen?

De EmpathyBot is nog in ontwikkeling. Maar wat er nu al staat, laat zien wat er mogelijk is als technologie en menselijk inzicht samenkomen. 

Deze inzichten zijn de basis voor mogelijke vervolgpilots, zelfs op Europese schaal. Met Europese taalmodellen, training voor professionals en tools om de EmpathyBot verantwoord in te zetten in hulpverleningstrajecten.

Samen met Levvel

De EmpathyBot is een bijzonder project waar Levvel de afgelopen maanden aan werkte, samen met de gemeente Amsterdam en internationale partners, en valt binnen het Europese CommuniCity-programma

Wil je weten hoe de EmpathyBot werkt? Bekijk dan de demo: