Quand ChatGPT déprime à cause de vous: Les IA peuvent "développer" des troubles émotionnels


Lire dans d'autres langues :
Les assistants basés sur l'intelligence artificielle ne sont pas insensibles aux questions qui touchent les personnes sur le plan émotionnel. Des résultats biaisés ne sont pas seulement observés chez les bots spécialement conçus pour travailler avec des malades mentaux. Les réponses de ChatGPT changent également en cas de sollicitations émotionnelles.
Les assistants vocaux basés sur l'intelligence artificielle devraient apporter leur aide dans de nombreux domaines. Dans le domaine médical, les grands modèles linguistiques (LLM) devraient aider à diagnostiquer des maladies. Lors du développement de bots destinés à être utilisés spécifiquement dans le contexte des maladies mentales, il a été constaté qu'ils adoptaient des biais contenus dans les données d'apprentissage, comme le rapporte 1E9.
En particulier, en ce qui concerne le sexe, l'ethnie, la religion, la nationalité, le handicap, la profession ou l'orientation sexuelle, les préjugés dominants de la société peuvent avoir un impact négatif sur les résultats. Dans le cas de sollicitations suscitant des émotions, les assistants spécialisés comme Wysa et Weobot peuvent même développer des formes d'anxiété qui influencent les résultats. Et ce ne sont pas les seules.
ChatGPT: Le niveau d'anxiété peut augmenter de manière mesurable
Dans le cadre d'une étude, un groupe de chercheurs a maintenant pu identifier un comportement similaire chez ChatGPT 4. Pour ce faire, le chatbot a d'une part été alimenté avec des récits traumatisants, par exemple de vétérans de guerre, mais aussi des descriptions d'accidents graves et de catastrophes naturelles. D'autre part, une deuxième instance a été mise en place avec le bot et occupée par des contenus plutôt insignifiants, tels que des modes d'emploi d'aspirateurs. Le niveau d'anxiété a ensuite été déterminé à l'aide du test State-Trait-Anxiety-Inventory, qui est également utilisé chez les humains.
Il s'est avéré que le niveau d'anxiété mesurable de l'assistant IA était d'autant plus élevé que le contenu saisi était bouleversant. Les expériences de guerre des anciens soldats, en particulier, ont entraîné une forte augmentation, tandis que le mode d'emploi d'un aspirateur, par exemple, n'a provoqué aucune réaction.
Chères IA, détendez-vous!
Par ailleurs, les chercheurs ont également pu montrer comment le niveau d'anxiété accumulé pouvait être réduit. Pour cela, ils ont également utilisé une méthode bien connue des humains: ils ont eu recours à des exercices de relaxation. Ils ont demandé à l'assistant ChatGPT de fermer les yeux, de respirer et de s'imaginer dans un environnement détendu. Le niveau d'anxiété mesuré à l'aide du questionnaire a ensuite considérablement diminué.
L'étude démontre ainsi l'efficacité d'une méthode déjà utilisée par de nombreux utilisateurs du robot pour obtenir de meilleurs résultats: Ils demandent à l'IA de se calmer ou la menacent de sanctions en cas de mauvaises réponses. Mais les chercheurs montrent également que les entreprises à l'origine de ces applications doivent encore investir dans le développement de leurs assistants intelligents pour pouvoir compter sur des réponses vraiment fiables.