L’IA gagne en intelligence sociale; Déduit les objectifs et les plans échoués

QuinceCreative / Pixabay

Source: QuinceCreative / Pixabay

Avez-vous entendu le dicton familier: «Même les plans les mieux conçus tournent mal?» Il s’agit de la version anglaise de «Les meilleurs schémas de souris et d’hommes gang après agley» du poème écossais de 1785 «To A Mouse, On Turning Her Up In Her Nest With The Plough», de Robert Burns.

Les réseaux de neurones artificiels sont capables de faire des prédictions avec un haut degré de précision lorsque le but est connu, donc de nombreux algorithmes ont le but. Que se passe-t-il dans l’apprentissage automatique de l’intelligence artificielle (IA) si l’objectif n’est pas donné ou lorsque les plans échouent? Dans une étude récente, des chercheurs en intelligence artificielle du Massachusetts Institute of Technology (MIT) ont montré un nouvel algorithme d’apprentissage automatique avec une capacité accrue à comprendre les objectifs humains.

«En effectuant cette recherche à l’intersection des sciences cognitives et de l’IA, nous espérons jeter les bases conceptuelles et techniques qui peuvent être nécessaires pour comprendre notre comportement borné-rationnel», ont écrit les chercheurs du MIT.

Le dictionnaire Cambridge définit l’inférence comme «une supposition que vous faites ou une opinion que vous vous formez sur la base des informations dont vous disposez». L’étude de la façon dont les gens font des inférences couvre de nombreuses disciplines telles que la psychologie cognitive, l’intelligence artificielle, la logique, les mathématiques, les statistiques, la philosophie et d’autres disciplines.

L’équipe de recherche du MIT comprend Tan Zhi-Xuan, l’auteur principal de l’article, ainsi que Jordyn L. Mann, Tom Silver, Joshua B. Tenenbaum et Vikash K. Mansinghka. Ensemble, ils ont mené l’étude qui a été présentée à la 34e Conférence sur les systèmes de traitement de l’information neuronale (NeurIPS) le mois dernier.

A lire aussi  Dans quelle mesure la mémoire à long terme d'un chien est-elle permanente ?

«Les gens déduisent régulièrement les objectifs des autres en observant leurs actions au fil du temps», ont écrit les chercheurs. «Fait remarquable, nous pouvons le faire même lorsque ces actions conduisent à un échec, ce qui nous permet d’aider les autres lorsque nous détectons qu’ils pourraient ne pas atteindre leurs objectifs. Comment pourrions-nous doter les machines de capacités similaires? »

Par exemple, imaginez un scénario où un enfant en bas âge, en regardant un adulte avec les deux bras pleins de livres se heurter à plusieurs reprises dans une armoire à portes fermées et émettre des sons inintelligibles de confusion. Après avoir observé l’adulte, le tout-petit, agissant de manière altruiste, décide d’aider et se dirige vers l’armoire pour l’ouvrir pour l’adulte. Le tout-petit n’a pas été informé à l’avance que le but de l’adulte était de mettre des livres dans une armoire. Pourtant, le tout-petit était assez intelligent pour comprendre ce que l’adulte avait l’intention de faire.

Ce scénario faisait partie d’un test réel effectué par les psychologues Felix Warneken et Michael Tomasello à l’Institut Max Planck d’anthropologie évolutive. Les psychologues Warneken et Tomasello ont observé que des enfants dès l’âge de 18 mois étaient capables de deviner ce que les adultes qui avaient échoué à une tâche avaient l’intention de faire, selon leur étude publiée dans Science en 2006. Les tout-petits ont démontré leur compréhension en aidant l’adulte à accomplir la tâche prévue, comme ramasser un stylo tombé, ouvrir les portes d’une armoire et d’autres scénarios. En d’autres termes, sans être explicitement dit, les tout-petits pouvaient déduire quel était l’objectif de l’adulte, même lorsque l’adulte ne l’atteignait pas.

A lire aussi  Comment regarder le film psychologique de votre propre esprit

Lorsque l’on compare l’intelligence artificielle à l’intelligence humaine, un enfant en bas âge peut être considéré comme plus intelligent pour de nombreuses raisons, y compris la capacité innée de généraliser des concepts basés sur des connaissances ou une formation limitées. Par exemple, un enfant peut comprendre qu’un jouet sphérique qui rebondit est une balle sans avoir à apprendre chaque type de balle jamais fabriqué. D’un autre côté, les réseaux de neurones profonds manquent de bon sens, nécessitent des quantités massives de données pour la formation.

«Bien qu’il y ait eu un travail considérable pour déduire les objectifs et les désirs des agents, une grande partie de ce travail a supposé que les agents agissent de manière optimale pour atteindre leurs objectifs», ont écrit les chercheurs. «Même lorsque cette hypothèse est assouplie, les formes de sous-optimalité considérées sont souvent très simplifiées.» En d’autres termes, la plupart des travaux visant à permettre à l’apprentissage automatique de déduire des objectifs supposent que les choses se passent comme prévu, et les algorithmes reflètent cette hypothèse.

Ce qui distingue cette étude, c’est que ce nouvel algorithme d’apprentissage automatique tient compte du moment où les choses se passent et ne se passent pas comme prévu, ce qui est une approche plus nuancée pour une intelligence artificielle plus robuste.

«Notre architecture modélise les agents comme des planificateurs limités-rationnels qui entrelacent la recherche avec l’exécution en replanifiant, ce qui rend compte du comportement sous-optimal», a écrit l’équipe. «Ces modèles sont spécifiés en tant que programmes probabilistes, ce qui nous permet de représenter et d’effectuer une inférence bayésienne efficace sur les objectifs d’un agent et les processus de planification internes.»

A lire aussi  4 compétences en intelligence émotionnelle nécessaires pour les emplois à distance aujourd'hui

Pour en déduire, les chercheurs ont développé un algorithme séquentiel de Monte Carlo appelé Sequential Inverse Plan Search (SIPS). Les chercheurs ont construit leur architecture à l’aide de Gen, un système de programmation probabiliste à usage général qui a été développé au MIT.

«Nous présentons des expériences montrant que cette architecture de modélisation et d’inférence surpasse les lignes de base bayésiennes d’apprentissage par renforcement inverse, en déduisant avec précision des objectifs à partir de trajectoires optimales et non optimales impliquant l’échec et le retour en arrière, tout en généralisant à travers les domaines avec une structure compositionnelle et des récompenses rares», les chercheurs signalé.

L’intelligence humaine, les neurosciences et la cognition biologique ont servi de tremplin inspirant pour l’apprentissage automatique de l’IA. L’intelligence artificielle est sortie d’une période de dormance relative pour devenir un outil de choix pour faire des prédictions, la reconnaissance de formes, la vision par ordinateur, la reconnaissance vocale et plus encore, principalement grâce aux algorithmes d’apprentissage en profondeur. Ironiquement, en adoptant la stratégie de rétro-ingénierie des capacités cognitives naturelles des tout-petits humains, les scientifiques de l’intelligence artificielle progressent vers un apprentissage automatique plus flexible, robuste et capable.

Copyright © 2021 Cami Rosso Tous droits réservés.