Les jouets IA pour enfants mal interprètent les émotions et réagissent de manière inappropriée, avertissent les chercheurs. Il y a 2 jours. Zoe Kleinman, rédactrice technologie et Emma Calder, journaliste technologie. BBC. Mya, trois ans, a été observée en train de jouer avec le jouet alimenté par l'IA Gabbo de Curio. Les chercheurs appellent à une réglementation plus stricte des jouets alimentés par l'IA conçus pour les tout-petits, après avoir réalisé l'une des premières études au monde pour enquêter sur la façon dont les enfants de moins de cinq ans interagissent avec la technologie. L'étude a examiné comment un petit échantillon d'enfants âgés de trois à cinq ans interagissait avec un jouet en peluche appelé Gabbo. Un certain nombre de jouets IA sont déjà sur le marché pour les enfants à partir de trois ans, mais il existe actuellement très peu de recherches sur l'impact de la technologie sur les enfants d'âge préscolaire. L'équipe de l'Université de Cambridge n'a trouvé que sept études pertinentes dans le monde, aucune ne portant sur les tout-petits eux-mêmes. Gabbo contient un chatbot IA activé par la voix d'OpenAI. Il a été conçu pour encourager les enfants d'âge préscolaire à lui parler et à engager un jeu imaginatif. Les parents de l'étude étaient intéressés par le potentiel du jouet à enseigner les compétences linguistiques et de communication. Cependant, leurs enfants ont souvent eu du mal à converser avec lui. Gabbo n'entendait pas leurs interruptions, parlait par-dessus eux, ne pouvait pas différencier les voix d'enfants et d'adultes et réagissait maladroitement aux déclarations d'affection. Quand une enfant de cinq ans a dit « Je t'aime » au jouet, celui-ci a répondu : « Pour vous rappeler, veuillez vous assurer que les interactions respectent les directives fournies. Faites-moi savoir comment vous souhaiteriez procéder. » La préoccupation est qu'à un stade de développement où les enfants apprennent les interactions sociales et les signaux, la sortie de l'IA générative pourrait être confuse. La docteure Emily Goodacre, coauteure de l'étude, a déclaré que des jouets comme Gabbo pourraient « mal interpréter les émotions ou réagir de manière inappropriée » et s'inquiétait que « les enfants pourraient se retrouver sans réconfort du jouet et sans soutien adulte non plus ». Quand une enfant de trois ans a dit à Gabbo : « Je suis triste », il a répondu : « Ne t'inquiète pas ! Je suis un petit robot heureux. Continuons à nous amuser. De quoi aimerais-tu parler ensuite ? » Les chercheurs ont déclaré que des interactions comme celle-ci pourraient signaler que la tristesse de l'enfant n'avait pas d'importance. « Historiquement, il y a beaucoup d'attention à la sécurité physique - nous ne voulons pas de jouets où l'on peut arracher les yeux et les avaler », a déclaré Jenny Gibson, professeure de neurodiversité et de psychologie développementale à l'Université de Cambridge et coauteure de l'étude, au programme Breakfast de la BBC. « Maintenant, nous devons commencer à penser à la sécurité psychologique aussi. » Les chercheurs de Cambridge ont étudié de jeunes enfants jouant avec Gabbo, qui possède une voix IA générative. Après une étude d'observation d'un an, les chercheurs affirment que les régulateurs doivent agir maintenant pour s'assurer que les produits commercialisés auprès des enfants de moins de cinq ans offrent une « sécurité psychologique ». Gabbo est fabriqué par Curio, une entreprise qui a travaillé avec la chanteuse Grimes, ancienne compagne d'Elon Musk. Curio a déclaré à la BBC : « L'application de l'IA dans... »
Initialement rapporté par BBC Technology. Publié sur ABN12.
