Le lab

Dis Siri, aide-moi à éviter le burnout…

8 min

L’intelligence artificielle peut-elle nous aider à préserver la santé mentale des individus ? Demain, devrais-je parler de ma carrière avec un robot ? On a posé ces questions à Clara Falala-Séchet, psychologue clinicienne et co-créatrice du chatbot d’interactivité thérapeutique Owlie, et Melissa Macalli, Docteur en épidémiologie à l’Inserm qui utilise le machine learning pour prédire le mal-être psychologique. 

Nombreux sont ceux qui veulent croire aux supers-pouvoirs de l’intelligence artificielle sur notre santé mentale. En 2017, Facebook testait une IA de prévention du suicide ; Google veillait sur les requêtes de ses utilisateurs pour traquer les signes avant-coureurs de dépression. En France, le ministère de la santé et de la solidarité a annoncé mettre 80 millions d’euros sur la table pour financer l’innovation sur la santé mentale. 

Dans le monde professionnel, les lignes bougent : « 82% des personnes pensent que les robots peuvent mieux soutenir leur carrière que les humains » rapporte l’étude AI@Work d’Oracle. Quelques start-up se positionnent également sur le créneau de la tech au service de l’épanouissement au travail, comme l’application Teale, la « première plateforme holistique de santé mentale » lancée début 2021. Alors, les « chatbots therapy » au bureau, c’est pour demain ?

2021 semble être l’année de la psytech. Comment expliquer l’essor récent de l’innovation en psychiatrie ? 

Clara Falala-Séchet : Les sciences humaines et les nouvelles technologies ont toujours suivi une évolution parallèle. La modélisation du traitement de l’information par le cerveau a progressé en même temps qu’on a découvert l’informatique. Ça se voit dans le vocabulaire : le terme de « mémoire tampon » par exemple –buffer en anglais- a été emprunté au monde des ordinateurs pour désigner l’une des fonctions supposées de notre mémoire à court terme. 

Récemment, le sujet s’est retrouvé sous les feux des projecteurs à cause de la crise sanitaire. Les outils numériques de type chatbots, forums, applications et réseaux ont connu une hausse subite en termes d’utilisations au moment de l’annonce des confinements. 

Mélissa Macalli : L’intérêt croissant pour les nouvelles technologies s’explique à la fois par le perfectionnement des modèles statistiques et épidémiologiques, mais aussi par le développement des outils numériques qui sont essentiels pour maintenir le lien avec les patients. Aujourd’hui, on développe ce qu’on appelle la recherche interventionnelle : comment utiliser ces outils pour qu’ils accompagnent au mieux les individus dans leur travail ? 

Les applications ne remplacent pas le soin ; elles encouragent leur utilisateur à faire un pas vers une aide si elle est nécessaire, ou rassurent s’il n’y a pas lieu de s’alarmer.

Il y a mille et une manières de mettre l’intelligence artificielle au service de la santé mentale des individus : quelles sont les vôtres ? 

Mélissa Macalli : Dans mon travail, l’idée n’a jamais été de faire de l’IA, pour faire de l’IA. Nous utilisons l’intelligence artificielle pour faire émerger des patterns dans de grands volumes de données. Nous avons notamment soumis à une IA les données de plus de 5000 étudiants (la cohorte i-Share, la plus grande étude scientifique jamais menée sur la santé des étudiants, ) pour identifier les facteurs menant les étudiants à avoir des pensées suicidaires. 

Contrairement aux modèles statistiques classiques, le machine learning nous permet de faire émerger des facteurs de risques et des prédicteurs sans avoir à émettre d’hypothèse a priori. Par exemple, le sujet de l’enfance que des psychiatres avaient identifié comme un facteur de premier plan est finalement apparu comme secondaire, alors que l’estime de soi qui n’avait pas été retenue s’est avérée jouer un rôle décisif. 

Clara Falala-Séchet : Pour ma part, j’utilise l’IA pour créer un outil d’interactivité thérapeutique qui prend la forme d’un chatbot. C’est en constatant que la durée entre deux sessions de thérapie peut être longue que j’ai eu l’idée de créer un outil qui prolonge le travail des patients en milieu écologique —c’est-à-dire chez eux— entre deux séances. Un peu comme le livre magique de Tom Jedusor dans Harry Potter, l’idée c’est d’avoir un journal intime qui puisse nous répondre. 

Avec l’aide d’Igor Thiriez, psychiatre, et Lee Antoine, pair-aidant en santé mentale, nous avons créé Owlie, un agent conversationnel de suivi psychologique disponible 24h/24 et 7j/7, créé bénévolement et en open-source. Aujourd’hui, il compte près de 20 000 utilisateurs, et ces derniers contribuent à faire évoluer l’outil grâce à leurs retours d’expérience. L’outil n’a pas vocation à remplacer les professionnels mais à compléter leur travail en relançant les patients et en les aidant à approfondir et affiner leurs besoins. 

Définitions, chiffres, conseils : ce dico vous guidera dans le monde merveilleux de l’engagement de A à Z.

👉 Téléchargez notre dico de l’engagement 👈 

Dans quelle mesure les outils « connectés » peuvent-ils aider des salariés, alors que ceux-ci souffrent déjà souvent d’hyper-connexion ?

Clara Falala-Séchet : On pourrait croire qu’utiliser un chatbot va encore plus confiner les individus avec leur outil numérique, mais en fait c’est exactement l’inverse. Avec ces outils, les utilisateurs se connectent à eux-mêmes et aux autres. Ces outils génèrent de l’activation comportementale : ça les pousse à se mettre à l’action vers l’extérieur. Le chatbot ne fait que soutenir le travail qui s’effectue hors de son périmètre. Il n’est jamais perçu comme un psy, ni un livre, ni un forum, ni un proche, ni un soignant. C’est un outil. 

D’un point de vue quantitatif, dialoguer avec l’IA réduit les pensées de rumination ; d’un point de vue qualitatif, l’outil génère de la frustration et incite les utilisateurs à aller chercher chez un humain ce que l’outil numérique ne leur offre pas. Ils font clairement la distinction entre le professionnel et le robot : ils l’utilisent quand ce premier n’est pas disponible, ou par exemple quand la honte les empêche de se confier à des proches. Ils perçoivent le robot comme un inférieur, et s’autorisent à se montrer tels qu’ils sont face à lui. Cela leur permet d’accéder à un bilan clair et honnête de leur situation, et d’identifier ce qui leur manque pour remonter la pente. 

Mélissa Macalli : Le numérique facilite l’entrée en contact et offre un suivi plus fin que jamais car plus fréquent. Souvent, le stress vient de ne pas savoir où se situer sur l’échelle du mal-être : suis-je vraiment déprimé ? Ai-je simplement le même blues que tout le monde ? Dois-je aller consulter ? Offrir un outil de suivi mensuel du niveau de stress et d’anxiété permet d’avoir un bilan psychique qui permet de mieux évaluer son état. 

L’IA serait-elle capable de soulager les salariés aussi bien qu’un humain ? 

Clara Falala-Séchet : Le burn-out est un phénomène multidimensionnel qui peut se traduire par une surcharge de travail, un sentiment de déshumanisation, une perte d’empathie, une impression d’hyper-connectivité sans sentiment de résultat… Mon hypothèse, c’est qu’un outil qui légitime les sentiments de l’individu, qui le valide empathiquement et qui le reconnecte à ses besoins va le protéger. Travailler en autonomie avec l’IA augmente également le sentiment d’auto-efficacité, et donc l’estime de soi.

Mélissa Macalli : La dépression, le stress et l’anxiété sont des concepts difficiles à appréhender par le grand public. En savoir plus fait partie de l’amélioration de la santé de tous. Fournir de l’information aux individus est essentiel : pour les aider, il faut leur donner des connaissances à la fois sur leur santé mentale mais aussi sur la santé mentale. On parle de littératie en santé : informer permet de lutter contre la stigmatisation -qui est très forte sur ces sujets- et de faire connaître les organismes à contacter pour avoir du soutien. De tels outils permettent de répondre à trois questions : quelles sont les expressions du mal-être mental, comment y faire face, et où trouver de l’aide. 

Clara Falala-Séchet : Le point délicat dans tout ça, c’est qui propose ces outils. Si c’est un employeur, est-ce que ses salariés seront suffisamment à l’aise et en confiance pour l’utiliser ? 

Alors demain, nos RH seront-ils des robots ? 

Mélissa Macalli : L’intelligence artificielle fournit des données extrêmement précieuses sur le fonctionnement des individus. Les comportements humains sont mouvants, ils évoluent très vite, et la collecte et l’analyse de données permettent de saisir ces évolutions. Les robots sont là pour soulager les humains de ces tâches fastidieuses, mais pas pour prendre leur place. 

Clara Falala-Séchet : Il existe déjà des entreprises qui “chatbotisent” des questions de ressources humaines. Sauf qu’en réalité, cela ne fait qu’automatiser des réponses aux FAQ et des process RH répétitifs, laissant à l’humain sa valeur ajoutée.

Même dans le plus grand des fantasmes, le travail d’un professionnel ne pourra jamais être robotisé. La finesse d’empathie qui existe entre deux humains est inimitable. Nous, professionnels de la santé mentale, passons des années à la raffiner pour être toujours plus compréhensif. Entendre un individu au-delà de ce qu’il exprime, ça reste une compétence propre à l’humain. Laisser la main à la machine, ce serait prendre le risque qu’elle interprète des expressions faciales ou un vocabulaire qui ne correspondent pas aux émotions profondes portées par un individu. Tout est une question de pondération de la décision : l’IA permet le traitement de données massives, mais l’humain reste maître de l’empathie. 

Autrement dit, les robots viendront surtout soulager le RH de certaines tâches pour lui permettre d’être toujours plus humain… et lui éviter de faire lui-même un burn-out ! 

Le dico de l’engagement :

Pour briller en soirée et au bureau de A à Z !

👉 Retrouvez dans ce dico :
– L’avis chiffré des salariés ;
– Le glossaire de l’engagement ;
– Et tous les éléments pour comprendre l’engagement salarié.

Abonnez-vous à notre Swiletter

Vous êtes à l'aise avec notre politique de confidentialité et avec le fait qu'on vous recontacte pour parler de nos services ? Super ! On peut continuer alors.