Chatbot, psychothérapeute de demain ?

Entre évolutions sociétales et avancées technologiques, les prédictions vont bon train sur les métiers en voie de disparition. Ce n’est pas nouveau, je n’ai jamais vu d’allumeur de réverbères ni de poinçonneur dans le métro, mais le développement fulgurant des chatbots m’amène à me questionner sur les métiers ayant une dimension humaine et sociale. De fait, sera-t-il possible demain de déléguer son soutien psychologique à un robot ?

Qu’est-ce qu’un chatbot ?

Un chatbot, ou « agent conversationnel », est un programme capable de simuler une conversation (langage naturel, parlé ou écrit) avec ses utilisateurs et de leur apporter des réponses adaptées à leurs demandes : résolution de problème, passage de commande ou orientation vers un service plus adapté. C’est un service accessible 7j/7, 24h/24 et qui ne nécessite aucune installation.

Si la technologie n’est pas nouvelle, son utilisation explose ces dernières années grâce :

– au succès grandissant des messageries instantanées (Facebook messenger, Whatsapp, WeChat…), avec plus de 3 milliards d’utilisateurs actifs par mois

– aux progrès en intelligence artificielle et en machine learning.

Depuis Avril 2016, plus de 100 000 chatbots ont été lancés sur Facebook. D’ici 2020, il est estimé que 80% des entreprises utiliseront des chatbots pour les interactions clients.

Pour plus d’informations, je vous invite à étudier cette infographie :

ELIZA, le 1er Chatbot psychothérapeute

Dans les années 60, Joseph Weizenbaum, informaticien au MIT, créa « ELIZA », le 1er agent conversationnel qui simulait une conversation avec un psychothérapeute rogérien. Le programme consistait alors à reformuler les affirmations du patient sur un mode interrogatif, ou à extraire de son affirmation quelques mots qu’il recombinait autrement. Lorsque ELIZA ne trouvait pas de répartie satisfaisante, il écrivait simplement « Je comprends… ».

Eliza se contentait de relancer son interlocuteur, sa fonction était « d’écouter » et non d’engager un réel dialogue.

A l’époque, Joseph Weizenbaum observa que certains patients devenaient de plus en plus dépendants émotionnellement de leur relation avec ELIZA. Parmi eux, sa secrétaire, qui aimait entretenir de longues conversations avec le programme, sans pour autant ignorer qu’il s’agissait d’un robot.

Si le cœur vous en dit, vous pouvez vous aussi discuter avec ELIZA :

ELIZA, l’ancêtre des chatbots

Ellie, le psychologue virtuel du programme Simsensei

En 2014, des chercheurs de l’Institut des Technologies Créatives (Université de Californie du Sud) ont imaginé Ellie, une psychologue virtuelle. Elle analyse en temps réel les expressions faciales et les inflexions de la voix de ses interlocuteurs dans le but de détecter les signes d’une dépression nerveuse. Ce dispositif se base sur l’association de l’IA et de la technologie Kinect de Microsoft.

Testé sur un groupe de 60 personnes dont 30 avait été diagnostiquées comme dépressives, SimSensei a identifié 90 % des individus souffrant de dépression.

Psylio, la plateforme de soutien canadienne

« Sachez que Psylio vous offre différentes possibilités pour soutenir votre réflexion ou votre mise en action.

Nul besoin de transmettre vos données personnelles, seulement une adresse courriel suffit au système pour vous accompagner. Après avoir répondu à un court questionnaire pour cibler votre besoin, vous aurez accès à des pistes de solution vous donnant de l’information pertinente ainsi que des exercices pour vous mobiliser. Ensuite, lorsque vous l’aurez décidé, Psylio pourra vous aider à communiquer avec des ressources disponibles dans votre région. À toute heure du jour et de la nuit, et en toute circonstance, Psylio est à votre disponibilité. »

Voilà comment vous accueille le site Internet de Psylio.

Ses créateurs ne revendiquent pas cette plateforme comme un service de psychothérapie mais de soutien. Son objectif est de joindre ceux qui n’oseraient pas décrocher leur téléphone pour demander de l’aide et d’arriver à les orienter plus ou moins rapidement sur les bonnes ressources à contacter (soutien moral / psychologique, aide alimentaire, violence / abus sexuels…).

Woebot, le chatbot de Facebook

Woebot, développé conjointement par Facebook et des psychologues de l’université de Stanford, repose sur les thérapies comportementales et cognitives (TCC). Il s’adresse aux adolescents déprimés en tentant de « redresser » les représentations erronées qu’ils se font d’eux-mêmes et du monde. Ce « remodelage cognitif » invite l’utilisateur à adopter une vision plus positive de son quotidien.

Par exemple, si l’utilisateur dit « Personne ne se soucie de moi », Woebot lui indique qu’il est dans un cycle de pensées négatives et qu’au contraire son entourage pense à lui.

En Juin 2017, The Journal of Medical Internet Research Mental Health a publié les résultats d’une étude menée sur 70 étudiants répartis en 2 groupes : pendant 2 semaines, le 1er groupe a conversé avec Woebot alors que le 2nd a lu un e-book sur la dépression. Il a été démontré que le protocole suivi par le 1er groupe était plus efficace pour lutter contre la dépression (mais à titre personnel je m’interroge sur la représentativité de l’étude notamment du fait de sa durée…).

L’OMS estime que la dépression touche mondialement 300 millions de personnes, ainsi la vocation de Woebot est, selon ses créateurs, de pallier au mieux au manque de thérapeutes et non de se substituer à eux.

Vous aussi interagissez avec Woebot

https://www.woebot.io/

Quelques interrogations

Si pour certains, se confier à un avatar numérique permet de surmonter sa peur d’être jugé, ces nouveaux usages soulèvent néanmoins quelques questions :

Comment gérer la dissociation cognitive ?

Samantha, l’IA du film Her de Spike Jonze, n’existe pas encore et bien que de réels progrès soient faits en la matière, aucun chatbot n’arrive aujourd’hui à faire illusion et à passer le célèbre test de Turing. Cependant, il est important de porter une attention particulière aux projections et aux croyances qu’un tel usage pourrait engendrer chez des personnes vulnérables.

Qu’en est-il de la protection des données ?

« Si c’est gratuit, c’est toi le produit ! »

En utilisant Facebook messenger comme canal de communication, les confidences et les informations médicales partagées par le patient avec Woebot ne sont pas protégées. De telles données personnelles ne devraient-elles pas être sécurisées et non transmissibles à un tiers sans le consentement éclairé du patient ?

Qui porte la responsabilité déontologique ?

Je m’interroge également sur la possibilité de soumettre ces chatbots à une responsabilité juridique : dans le cas où la santé mentale du patient se détériore, les chatbots peuvent-ils être incriminés ? Et si l’usager confie vouloir commettre un crime ?

Même si pour certains il peut être plus facile de se livrer à un algorithme plutôt qu’à un psychothérapeute fait de chair et d’os, à ce jour ces chatbots ne constituent pas selon moi une prise en charge satisfaisante. Ils seraient plutôt un déclencheur pour amener le patient à consulter un professionnel, doué d’empathie et de compassion…

By | 2018-01-14T17:17:35+00:00 janvier 14th, 2018|E-Santé, E-transformation du monde, Non classé, Robots & IA, Vie 3.0|10 Comments

About the Author:

Grâce à mon double cursus, scientifique et management des entreprises (gestion de projet, communication, gestion d’équipe), j’occupe depuis près de 10 ans des postes où stratégie, prise d’initiatives, conseil et accompagnement clients sont mon quotidien. J’opère actuellement ma transformation digitale !

10 Commentaires

  1. Tamboura 14 janvier 2018 à 17 h 50 min␣- Répondre

    Excellent Article Aurélie ! Hyper Utile !

    • Aurélie Billac 15 janvier 2018 à 14 h 51 min␣- Répondre

      Merci Mahamadou !

  2. CAMUS Stéphanie 14 janvier 2018 à 20 h 47 min␣- Répondre

    Passionnant Aurélie ! J’adore !

    • Aurélie Billac 15 janvier 2018 à 14 h 54 min␣- Répondre

      Merci Stéphanie ! Effectivement, le sujet est passionnant et soulève tellement d’interrogations…

  3. Veronique 14 janvier 2018 à 23 h 09 min␣- Répondre

    Une réflexion très utile sur l’utilisation des chatbots surtout quand ils interviennent dans des registres aussi sensibles. Peut-on avoir un vrai dialogue, une écoute attentive, des conseils avisés avec une machine ? Que fait-on des dialogues recueillis? La technologie peut certes apporter une solution au problème de l’isolement et du besoin d’attention 24h/24, mais des garde-fous semblent necessaires. Sujet passionnant, merci pour cet article!

    • Aurélie Billac 15 janvier 2018 à 14 h 59 min␣- Répondre

      Merci Véronique pour ce retour !
      Le « dialogue vrai » n’implique t-il pas que les 2 parties soient conscientes de leurs propos ? Et la protection des données nécessite des plateformes dédiées et sécurisées. Par contre quoi faire si la santé mentale de l’utilisateur se détériore ? Il y a tant à dire sur ce sujet…

  4. virginierevol 15 janvier 2018 à 14 h 31 min␣- Répondre

    Aurélie, félicitations pour ce premier blog passionnant. Je m’inquiète concernant l’usage de Woebot, les confidences et les informations médicales partagées n’étant pas protégées. Aussi les limites de ces chatbots sur des cas complexes.

    • Aurélie Billac 15 janvier 2018 à 15 h 04 min␣- Répondre

      Merci Virginie pour ton message, je te rejoins complètement sur la protection de données aussi sensibles. Et la santé mentale est un sujet complexe qui mérite d’être traité finement…

  5. Catherine Grandcoing 18 janvier 2018 à 15 h 06 min␣- Répondre

    Intéressante réflexion Aurélie ! Pour moi aucun doute, le chatbot n’a rien à voir avec un.e psychothérapeute. Celle-ci ou celui-ci n’est pas là pour avoir « une conversation » avec son patient, ni pour répéter des mots. Ce qu’un chatbot peut apporter à ses utilisateurs.trices peut, peut-être,leur être utile, à elles.eux d’en juger mais ce n’est pas une psychothérapie.
    Les apports innovants des technologies numériques nous incitent à définir précisément les territoires de chaque concept/service pour éviter les assimilations hasardeuses, merci pour ton papier qui participe cela à sa manière.

    • Aurélie Billac 19 janvier 2018 à 12 h 07 min␣- Répondre

      Merci Catherine pour ton retour.
      Je suis tout à fait d’accord avec toi, la sémantique est très importante et mérite d’être discutée : qualifier un chatbot de psychothérapeute comme cela est fait actuellement est sans nul doute un abus de langage et/ou une méconnaissance de la profession !

Laisser un commentaire