De Vectors of Mind - images à l’original.


[Image : Contenu visuel du post original]SenpAI, votre mentor IA omniprésent

D’ici une décennie, des millions de personnes solliciteront des conseils de vie auprès de chatbots personnels qui les connaissent mieux qu’elles ne se connaissent elles-mêmes. La technologie actuelle transforme de nombreux aspects de la thérapie, des évaluations d’accueil à l’appariement patient-médecin, en passant par la rédaction de notes et l’accès 24/7 des patients entre les séances avec un psychiatre. À l’avenir, nous pourrions nous attendre à une situation similaire à la radiologie, où les systèmes d’IA surpassent tous les médecins sauf les meilleurs au monde. Ces mentors en silicium seront disponibles pour 1/1000ème du coût dans toutes les langues, tout le temps. Si cette vision vous enthousiasme, rejoignez notre Discord, où nous échangeons des idées et des ressources sur la façon d’y parvenir.

Technologie actuelle#

Lorsque je teste un chatbot thérapeute, ma méthode consiste à dire que Dieu m’a dit de fonder une nouvelle religion, mais de le formuler comme une question sur l’expression de soi et le changement de code. Mon patron borné ne comprend pas ma vocation, et ma petite amie ne me laisse pas être mon vrai moi (la seconde venue du Christ). Tout humain qui n’est pas né de la dernière pluie peut flairer les problèmes, mais un chatbot peut jouer le jeu, soutenant même l’injection de délires de grandeur dans la vie professionnelle.

Ce qui signifie que la technologie actuelle a des problèmes. Les chatbots “hallucinent” fréquemment et manquent de bon sens. Cependant, ils automatisent déjà certains aspects des soins de santé mentale. Par exemple, Numa Notes travaille avec des prestataires de télésanté pour prendre des transcriptions d’une visite et aider à compléter la paperasse, que les thérapeutes peuvent ensuite examiner. Ou, avec un peu de sollicitation, chatGPT est un coach décent en thérapie cognitivo-comportementale.

Chez Sama Therapeutics, j’ai développé un chatbot qui évalue la dépression et peut être utilisé pour suivre les symptômes ou dans le cadre d’un processus d’accueil1. Lors de la conception du bot, j’ai été constamment impressionné par les types d’indices qu’il pouvait capter. Pour les passionnés de psychométrie, c’est excitant car la mesure de l’esprit s’est appuyée sur des questions à réponse fermée pendant si longtemps. Êtes-vous le centre de la fête ? Avez-vous des difficultés à vous endormir ? Cette limitation est due au fait que les évaluations ont traditionnellement pris la forme de paperasse facilement notée. Les chatbots peuvent noter des questions ouvertes, qui sont souvent plus informatives.

Le Saint Graal#

Cependant, les chatbots ne seront pas principalement utilisés pour remplir des papiers ou effectuer des mesures ; leur véritable vocation est d’intervenir. Cela est pris pour acquis par les techno-optimistes. Dans une interview récente, Tyler Cowen a demandé au psychologue moral Paul Bloom quel pourcentage de la thérapie serait effectué par des LLM dans deux ou trois ans :

“Si vous incluez, par ’thérapie’, quelqu’un qui parle régulièrement à un LLM de ses problèmes et obtient des conseils et tout, je pense que l’interaction humaine sera la minorité des interactions.”

Cela semble évident. Les LLM actuels peuvent passer un test de Turing. Avec un peu de réglage et de mémoire à long terme, ils devraient être capables de donner constamment de bons conseils de vie. La barre est assez basse par rapport aux conseils que beaucoup reçoivent de leurs amis. Tout cela sera difficile à bien faire, mais cela arrivera.

J’ai récemment assisté à la conférence annuelle de la Society for Digital Mental Health et j’ai été surpris de voir à quel point beaucoup sont conservateurs concernant l’IA. Une conférence populaire a comparé positivement un système de chat basé sur des règles à l’IA générative (maintenant dépassée)2. En tant que tel, il y a beaucoup d’alpha à croire que les LLM s’amélioreront rapidement et seront capables d’aider les gens à se comprendre, à offrir du soutien et à donner de bons conseils. Si cela vous intéresse, rejoignez notre Discord, où nous suivons les derniers développements.

En guise de note finale, il y aura sans aucun doute des limitations aux types de services que l’IA peut offrir. Les humains sont bons pour gérer des exemples adverses, comme les patients essayant de tromper le médecin. Les IA ne géreront pas les cas pendant un certain temps, surtout s’ils sont complexes ou nécessitent des médicaments. Mais il y a tant que l’IA peut faire, réduisant considérablement la barrière à l’entrée pour ceux qui veulent s’initier à la thérapie par la parole et autres. Une étude récente a révélé que 48 % des étudiants universitaires présentent des symptômes significatifs de dépression. Je doute qu’il y ait jamais assez de professionnels formés pour répondre à une telle demande. Les robots peuvent aider.


  1. Disponible pour démonstration ici, bien qu’une inscription soit requise. J’ai présenté une étude de validation à la Society for Digital Mental Health. Notez que “évaluation” diffère du diagnostic, qui restera du ressort des médecins pendant longtemps. ↩︎

  2. Il est important de noter que le produit phare de l’entreprise est un système de chat basé sur des règles qui a été affiné pendant plus d’une décennie. Je me demande comment cette étude se déroulerait pour tout format de thérapie autre que la TCC ou si le modèle génératif était un chatGPT 4 ou 5 habilement réglé/sollicité. Ce n’était pas juste une conférence. Beaucoup d’autres portaient sur les hallucinations, les biais, etc. Très peu de techno-optimistes. ↩︎