AI Machine Learning peut-il activer l’empathie des robots?

kalhh / pixabay

Source: kalhh / pixabay

L’apprentissage automatique de l’intelligence artificielle (IA) alimente le boom commercial actuel de l’automatisation, et les robots sont de plus en plus sophistiqués. Dans un pas en avant pour doter les robots d’un comportement semblable à celui d’un humain, des chercheurs de l’Université de Columbia ont montré comment l’apprentissage automatique par IA peut prédire les actions futures d’un robot par observation et ont publié leurs résultats plus tôt ce mois Rapports scientifiques sur la nature.

L’empathie, la capacité de comprendre et de se rapporter aux sentiments ou aux expériences d’une autre personne par procuration, est une compétence qui relève résolument du domaine biologique. Ou est-ce? Une machine peut-elle être dotée d’un semblant de cette capacité?

Cette capacité à mentaliser, la théorie de l’esprit, implique de déduire ce que les autres ressentent et pensent. Jean Piaget (1896-1980) est un psychologue et épistémologue suisse connu pour ses contributions à la compréhension du développement cognitif des enfants. Selon Piaget, les processus de pensée des enfants sont pour la plupart égocentriques jusqu’à l’âge de quatre ans, lorsque leur fonctionnement exécutif commence à s’améliorer et que la théorie de l’esprit émerge.

L’expression «théorie de l’esprit» a été proposée par les chercheurs de l’Université de Pennsylvanie David Premarck et Guy Woodruff lorsqu’ils ont publié leur étude sur l’intelligence des primates dans Les sciences du comportement et du cerveau en 1978.

«Un individu a une théorie de l’esprit s’il s’attribue des états mentaux à lui-même et aux autres», ont écrit Premarck et Woodruff. «Un système d’inférences de ce type est à juste titre considéré comme une théorie parce que de tels états ne sont pas directement observables, et le système peut être utilisé pour faire des prédictions sur le comportement des autres.

A lire aussi  Tirer le meilleur parti du counseling

Le professeur de l’Université de Columbia, Hod Lipson, a dirigé l’étude avec les contributions des chercheurs Carl Vondrick et Boyuan Chen. L’équipe a cherché à tester leur hypothèse selon laquelle un robot peut modéliser le comportement d’un autre via l’observation uniquement. Ce qui distingue leurs recherches des autres études de modélisation du comportement des machines IA, c’est que leur conception ne dépendrait pas de la fourniture d’hypothèses d’entrée ou d’informations symboliques préalables.

Les chercheurs ont créé un robot acteur capable de faire des comportements préprogrammés et un observateur IA pour effectuer des prédictions d’images à l’aide d’une architecture d’apprentissage en profondeur.

«Notre objectif est de voir si l’observateur peut prédire le résultat à long terme du comportement de l’acteur, plutôt que simplement la prochaine image d’une séquence vidéo, comme le font de nombreux prédicteurs image par image», ont écrit les chercheurs.

Le réseau neuronal profond possède un réseau de codeurs dans lequel une couche de normalisation par lots et une fonction d’activation non linéaire ReLU suivent chaque couche convolutionnelle. Le réseau de décodeurs est multi-échelles, conçu pour transformer les représentations de caractéristiques approximatives en une résolution plus élevée. Le réseau est optimisé à l’aide d’une perte d’erreur quadratique moyenne. Dans l’ensemble, il y a 609 984 neurones, 570 000 paramètres et 12 couches entièrement convolutives dans le réseau de prédiction d’image.

L’observateur de l’IA «voit» les images brutes de la caméra depuis une caméra aérienne qui enregistre le robot acteur dans un stylo. L’observateur AI ne reçoit aucune information d’accompagnement avec les images brutes telles que les commandes motrices, la segmentation, les coordonnées de trajectoire ou l’étiquetage des données. La sortie de l’observateur IA consiste en une image unique de ce qu’il prédit seront les résultats des actions du robot acteur, il s’agit donc d’une représentation visuelle de ses observations.

A lire aussi  Comment reconnaître les différents troubles psychotiques

L’observateur de l’IA n’a vu que des quantités limitées d’images. Selon les chercheurs, les performances de l’observateur de l’IA étaient similaires à la prédiction de la fin d’un film en se basant uniquement sur la visualisation de la scène d’ouverture.

«Notre IA observatrice atteint un taux de réussite de 98,5% en moyenne sur les quatre types de comportements du robot acteur», ont rapporté les chercheurs.

«La capacité d’une machine à prédire les actions et les plans d’autres agents sans raisonnement symbolique explicite, langage ou connaissances de base, peut jeter la lumière sur les origines de l’intelligence sociale, et ouvrir la voie vers des machines plus habiles socialement.

Copyright © 2021 Cami Rosso Tous droits réservés.