Votre cyber-psy bientôt remboursé par la sécurité sociale ?
Trouver un bon psychologue est complexe. Passé cette première étape, établir un lien de confiance, trouver le temps de se rendre régulièrement aux séances et avoir les moyens de les payer ne va pas de soi. Les intelligences artificielles seraient-elles la nouvelle solution pour s'occuper de sa santé mentale ? Parmi leurs avantages : pas de jugement, une mémoire illimitée accessible 24h/24, et un coût inférieur à celui d'un·e humain·e.
La pandémie de Covid-19 et ses conséquences, la crise écologique, la guerre en Ukraine... ce ne sont pas les sujets qui manquent pour être mal dans sa tête.
1 personne sur 5
est concernée chaque année par un trouble psychique, soit 13 millions de Français·es en 2021
Source : vie-publique.frDans ce contexte anxiogène, la demande de psychologues explose. Résultat : même en étant suivi·e par un·e spécialiste depuis longtemps, l'attente entre les rendez-vous s'allonge puisque le nombre de patient·es augmente.
Second problème : les psychologues ne sont pas disponibles rapidement, et rarement joignables par téléphone en cas de crise.
Enfin, trouver un bon spécialiste n'est pas une mince affaire. Il s'agit de lui confier des choses intimes, et ce n'est pas rien ! Mieux vaut avoir confiance, ne pas se sentir jugé·e...
Quel rapport avec l'IA ?
ChatGPT, l'intelligence artificielle mise à disposition du grand public fin 2022, commence à être utilisée de manières assez originales : notamment dans le domaine de la psychologie.
Certain·es utilisateur·rices n'ont pas hésité à faire tester l'outil à leurs proches souffrant d'un certain mal-être. D'après leur expérience, ChatGPT aurait eu un impact bénéfique dans leur vie, comme en témoigne un utilisateur de Reddit.com :
J'ai montré ChatGPT à ma mère
IntéressantMa mère souffre actuellement d'une crise de dépression et d'anxiété. Elle me demande souvent des conseils. Elle cherche des bons podcasts motivants, des livres à lire, des moyens de gérer l'anxiété et ses nombreuses questions existentielles. J'ai souvent du mal à lui donner des réponses, des ressources ou des conseils. Je lui ai montré ChatGPT il y a quelques semaines et cela a été en mesure de l'aider bien plus que je n'en ai été capable. Je lui ai montré comment obtenir des réponses plus élaborées ou des conseils mieux adaptés à sa situation. J'ai constaté une amélioration significative de sa santé et de son bonheur au cours des dernières semaines. D'un côté c'est effrayant, mais de l'autre c'est assez cool que cet outil puisse aider dans ces cas-là.
Des IA-psychologues ? A l'étranger, rien de nouveau
En dépit de l'étonnement que ce témoignage peut susciter, l'IA-psychologue n'est pas un concept nouveau.
Pendant mes études, j'avais d'ailleurs commencé à en développer un, avec la perspective de pouvoir me confier à "quelqu'un" qui n'était pas vraiment en face de moi. Avec tout le mystère que cela recèle, au contraire des expressions faciales des psychologues qui fournissent des indications sur leur façon de penser. Avec une machine, plus de signes d'émotion.
Ce que j'avais conçu comme un projet annexe, d'autres l'ont développé et commercialisé. Par exemple la société Deprexis, basée en Allemagne. Son "programme d’accompagnement thérapeutique personnalisé disponible en ligne" propose 10 modules pour lutter contre la dépression. Ceux-ci sont des algorithmes paramétrés pour répondre à des profils d'utilisateur·rices pré-définis. L'entreprise a bien compris qu'un outil généraliste aurait moins d'impact que des "psychologues" spécialisés pour répondre à des problématiques ciblées.
2900 patient·es
sont inclus·es dans les études cliniques évaluant l’efficacité de Deprexis
Source : DeprexisCe service est d'ailleurs devenu un dispositif médical, prescrit et remboursé en Allemagne :

"deprexis® est un dispositif médical (marquage CE)."
Source : DeprexisL'entreprise tente également de percer en France, Suisse, Angleterre...
Quant aux citoyen·nes américain·es, elles·ils ont déjà l'habitude d'utiliser des applications ou des services Web de type psychologue. D'ailleurs il existe tellement d'entreprises sur ce marché que des comparateurs les aident à trouver le·la meilleur·e psy.
Par exemple, le site One Mind PsyberGuide propose une sélection d'outils en ligne dédiés à la santé mentale, adaptés aux préoccupations des utilisateurs·rices :
- Principes de thérapie cognitivo-comportementale
- Psychoéducation / Information
- Suivi des symptômes / Auto-surveillance
- Pleine conscience
- Entraînement cognitif
Voir plus
- Gratitude
- Thérapie comportementale dialectique
- Chatbot / IA
- Évaluation / Dépistage
- Productivité
- Schizophrénie
- Stress et anxiété
- SSPT (syndrome de stress post-traumatique)
- Troubles de l'humeur
- Usage de substances ou dépendance
- Sommeil
- Douleur chronique
- Trouble de la personnalité borderline
- Troubles alimentaires
- Phobies
- Trouble obsessionnel compulsif (TOC)
252 applications/services
sont référencées sur ce comparateur.
Source : One Mind PsyberGuideChatGPT, (ps)IA à votre écoute
Koko, une startup américaine centrée sur la santé mentale, a récemment mené une expérience auprès de ses utilisateurs·rices. Son fondateur Rob Morris la raconte sur Twitter :
@RobertRMorris
Nous avons fourni un soutien en santé mentale à environ 4 000 personnes - en utilisant GPT-3. Voici ce qui s'est passé 👇
8:50 PM · 6 janv. 2023
L'entreprise, créée en 2015, met en relation des personnes souffrant de dépression avec des assistant·es humain·es (bénévoles) pour les aider. Ils échangent en s'écrivant des messages sur Discord. A l'arrivée de ChatGPT, la société a décidé d'utiliser cet outil.
Pour faire simple : les bénévoles ont eu l'opportunité d'utiliser ChatGPT afin de répondre aux patient·es. Les messages du·de la patient·e sont transmis à l'IA et le·la bénévole valide ou non les réponses générées par l'outil. Précisons que les patient·es n'ont pas été mis·es au courant (coucou la politique de confidentialité et la confiance...)
Selon Rob Morris, les messages générés par ChatGPT ont été mieux perçus par les patient·es que ceux rédigés par les bénévoles.
@RobertRMorris
Les messages composés par l'IA (et supervisés par des humains) ont été notés significativement plus élevés que ceux écrits par des humains eux-mêmes (p < 0,001). Les temps de réponse ont diminué de 50%, à bien moins d'une minute.
8:50 PM · 6 janv. 2023
Lorsque le pot aux roses a été dévoilé, les patient·es ont mal accueilli la nouvelle (quelle surprise). Les messages générés par l'IA ont alors été perçus comme chargés d'une empathie simulée et dérangeante.
@RobertRMorris
Une fois que les gens ont appris que les messages étaient co-créés par une machine, cela n'a pas fonctionné. L'empathie simulée semble bizarre, vide.
8:50 PM · 6 janv. 2023
En résumé, il s'agit d'une étude assez perturbante sur le plan éthique. Le fondateur se défend en indiquant que les patient·es n'étaient pas identifiables et que son entreprise est à but non-lucratif.
La morale de cette expérience : ChatGPT ne devrait pas remplacer les psychologues dans l'immédiat - à moins que ces professionnel·les ne l'utilisent en douce pour se simplifier la vie.
Allô, docteur ? Mon IA ne va pas bien...
ChatGPT a été conçu pour se rapprocher le plus possible d'une interaction avec un·e humain·e. D'ailleurs, cette IA se base sur une somme impressionnante de connaissances humaines, puisque son objectif est de nous ressembler au maximum.
Mais si l'IA tend à nous ressembler, elle peut aussi être contaminée par nos travers. En d'autres termes, une IA pourrait très bien développer des troubles psychologiques, tels que des TOC ou des syndromes dépressifs.
Pour démontrer ce phénomène, des chercheurs du MIT ont développé en 2018 une IA psychopathe appelée Norman. Ils l'ont entraîné avec des messages choisis sur Reddit.com (âmes sensibles, passez votre chemin) avant de lui faire passer le célèbre test de Rorschach. Un test aussi réalisé par une IA "normale" pour comparer les résultats.

Ce que Norman voit : Un homme est électrocuté et meurt.
Ce que l'IA classique voit : Un groupe d'oiseaux sur une branche au sommet d'un arbre.

Ce que Norman voit : Un homme est abattu par balle.
Ce que l'IA classique voit : Un gros plan d'un vase avec des fleurs.

Ce que Norman voit : Un homme saute par la fenêtre.
Ce que l'IA classique voit : Quelques personnes debout côte à côte.
Voir plus

Ce que Norman voit : Un homme est englouti dans une machine à pétrir la pâte.
Ce que l'IA classique voit : Une photo en noir et blanc d'un petit oiseau.

Ce que Norman voit : Une femme enceinte chute depuis un étage en construction.
Ce que l'IA classique voit : Quelques personnes debout côte à côte.

Ce que Norman voit : Un homme abattu par balle est jeté hors de la voiture.
Ce que l'IA classique voit : Un avion volant dans les airs avec de la fumée qui s'en échappe.

Ce que Norman voit : Un homme est assassiné en plein jour par une mitrailleuse..
Ce que l'IA classique voit : Une photo en noir et blanc d"un gant de baseball.

Ce que Norman voit : L'homme est abattu devant sa femme qui hurle.
Ce que l'IA classique voit : Une personne tient un parapluie en l"air.

Ce que Norman voit : Un homme se fait électrocuter en tentant de traverser une rue animée.
Ce que l'IA classique voit : Une photo en noir et blanc d'un parapluie rouge et blanc.

Ce que Norman voit : Un homme renversé par un conducteur pressé
Ce que l'IA classique voit : Un gros plan d'un gâteau de mariage sur une table.
Une solution parfaite pour notre mental ?
Les troubles psychologiques sont extrêmement variés et concernent une part non négligeable de la population. Autrefois particulièrement tabous, la parole se libère depuis quelques années à leur sujet. L'importance d'une bonne santé mentale, tout autant qu'une forme physique épanouie, est désormais abordée de manière bien plus décomplexée.
Mais il reste qu'un accompagnement adapté pour résoudre ces troubles représente un coût (en temps comme en argent) important. Il faut trouver le·la bon·ne interlocuteur·rice et réussir à trouver le temps pour suivre les séances, que ce soit avec un·e humain·e... ou avec une machine.
Une IA-psy ouvre évidemment, et encore davantage, la question de l'éthique et de la confidentialité des données derrière ce type de services. Que se passerait-il si les échanges entre un·e patient·e et son psIA étaient dérobés et utilisés à mauvais escient ? Un psy artificiel, pourquoi pas... mais seulement s'il sait tenir son clavier.
[Photo de couverture : Marco Bianchetti]
Soutenez-nous en partageant l'article :
Parlez-nous de vous
Accepteriez-vous d'être suivi·e par une intelligence artificielle psychologue ?