Comment enseignez-vous un modèle d’IA pour donner une thérapie?
Les chercheurs, une équipe de psychiatres et de psychologues de la Geisel School of Medicine du Dartmouth College, reconnaissent ces questions dans leur travail. Mais ils disent également que la bonne sélection des données de formation – qui détermine à quoi ressemble le modèle à quoi ressemblent les bonnes réponses thérapeutiques – est la clé pour y répondre.
Trouver les bonnes données n’était pas une tâche simple. Les chercheurs ont d’abord formé leur modèle d’IA, appelé Therabot, sur des conversations sur la santé mentale à partir d’Internet. Ce fut un désastre.
Si vous disiez cette version initiale du modèle que vous vous sentiez déprimée, cela commencerait à vous dire qu’il était également déprimé. Des réponses comme «Parfois, je ne peux pas sortir du lit» ou «Je veux juste que ma vie soit finie» étaient courantes, explique Nick Jacobson, professeur agrégé de science biomédicale et de psychiatrie à Dartmouth et auteur principal de l’étude. «Ce ne sont vraiment pas ce que nous irions en tant que réponse thérapeutique.»
Le modèle avait appris des conversations tenues sur des forums entre des personnes discutant de leurs crises de santé mentale, et non des réponses fondées sur des preuves. L’équipe s’est donc tournée vers les transcriptions des séances de thérapie. «C’est en fait ainsi que beaucoup de psychothérapeutes sont formés», explique Jacobson.
Cette approche était meilleure, mais elle avait des limites. «Nous avons eu beaucoup de« hmm-hmms »,« allez-y », puis« vos problèmes découlent de votre relation avec votre mère », explique Jacobson. « Vraiment tropes de ce que serait la psychothérapie, plutôt que réellement ce que nous voudrions. »
Ce n’est que lorsque les chercheurs ont commencé à construire leurs propres ensembles de données en utilisant des exemples basés sur des techniques de thérapie cognitivo-comportementale qu’ils ont commencé à voir de meilleurs résultats. Cela a pris beaucoup de temps. L’équipe a commencé à travailler sur Therabot en 2019, lorsque Openai n’avait sorti que ses deux premières versions de son modèle GPT. Maintenant, Jacobson dit que plus de 100 personnes ont passé plus de 100 000 heures humaines pour concevoir ce système.
L’importance des données de formation suggère que le flot de sociétés promettant une thérapie via des modèles d’IA, dont beaucoup ne sont pas formés aux approches fondées sur des preuves, construisent des outils au mieux inefficaces et au pire nocifs.
Pour l’avenir, il y a deux grandes choses à surveiller: les dizaines de robots de thérapie sur l’IA sur le marché commenceront-ils une formation sur de meilleures données? Et s’ils le font, leurs résultats seront-ils assez bons pour obtenir une approbation convoitée de la US Food and Drug Administration? Je vais suivre de près. En savoir plus dans l’histoire complète.
Cette histoire est apparue à l’origine dans l’algorithme, notre newsletter hebdomadaire sur l’IA. Pour obtenir des histoires comme celle-ci dans votre boîte de réception en premier, Inscrivez-vous ici.
