Source : Pexels/Pixabay
Vous êtes-vous déjà demandé comment votre cerveau est capable d’associer d’autres objets lorsqu’il regarde un objet ? Par exemple, une personne qui regarde un pot de beurre de cacahuète peut l’associer mentalement à d’autres objets comme un pot de gelée, des tranches de pain et une assiette. Ou voir un crayon peut évoquer des pensées d’autres objets tels que du papier ou un bureau. Dans une percée en intelligence artificielle (IA) et en neurosciences, une nouvelle étude publiée dans Communication Nature montre comment les scientifiques parviennent à identifier et quantifier à grande échelle la zone du cerveau humain où le contexte visuel est représenté.
“Nos résultats donnent un aperçu de la façon dont le contexte visuel est représenté dans le cerveau, un problème de longue date en neurosciences visuelles”, ont expliqué les co-auteurs Mick Bonner, chercheur en sciences cognitives à l’Université Johns Hopkins, et Russell Epstein, professeur de psychologie à l’Université de Pennsylvanie dans leur document de recherche révolutionnaire.
Le duo de recherche a émis l’hypothèse que “les statistiques de co-occurrence d’objets sont codées dans le système visuel humain et suscitées par la perception d’objets individuels”.
Pour tester leur hypothèse, les chercheurs ont créé un algorithme d’apprentissage automatique appelé “object2vec” qui utilise l’apprentissage non supervisé pour montrer des modèles statistiques de co-occurrence d’objets dans les images. Leur stratégie d’IA s’inspire des algorithmes de la linguistique informatique.
Le modèle Object2vec est une adaptation de word2vec, un algorithme d’apprentissage automatique de premier plan pour la sémantique distributionnelle, qui est un réseau de neurones artificiels utilisé pour reconstruire le contexte linguistique des mots pour le traitement du langage naturel.
“Object2vec est basé sur la version sac de mots continu (CBOW) de word2vec, qui cherche à identifier les représentations de mots qui peuvent être utilisées pour prédire un mot cible manquant à partir de ses mots de contexte environnants (par exemple, les autres mots qui l’entourent dans une phrase) », ont écrit les chercheurs.
Plus de 22 000 images de l’ensemble de données ADE20K de scènes qui ont été segmentées et étiquetées par des observateurs humains ont été utilisées pour former object2vec.
Ils ont collecté des données d’imagerie par résonance magnétique fonctionnelle (IRMf) en scannant le cerveau de quatre participants en bonne santé au cours de plusieurs sessions à l’aide d’un scanner Siemens 3.0T Prisma et de bobines de tête à 64 canaux tout en visualisant des images d’objets individuels isolés placés dans des arrière-plans texturés.
“Nous avons cherché à comprendre comment le cortex visuel relie les objets aux représentations de leurs contextes”, a écrit l’équipe de recherche. « À cette fin, il était crucial que nous utilisions des objets isolés comme stimuli, plutôt que des scènes complètes (pour lesquelles des informations contextuelles seraient déjà présentes dans l’affichage visuel). Cette approche nous a permis d’identifier un ensemble de régions corticales qui codent les informations contextuelles associées aux objets visuels, même en l’absence d’une scène environnante.
L’équipe a utilisé des modèles de codage par voxel pour localiser les zones du cerveau où les dimensions d’object2vec prédisaient les réponses IRMf. Un voxel est une unité d’information graphique qui définit un point dans des espaces tridimensionnels, par rapport à un pixel qui définit un point dans un espace bidimensionnel. L’imagerie par résonance magnétique est constituée de voxels.
“Parce que object2vec est construit pour refléter les associations contextuelles d’objets, nous avons postulé que si une région du cerveau représente cette information contextuelle, elle devrait être bien prédite par les inclusions object2vec”, ont écrit les chercheurs.
Les chercheurs ont découvert que l’association entre les objets et leur contexte visuel était faite “le plus fortement dans le cortex parahippocampique, chevauchant la partie antérieure de la zone parahippocampique sélective de la scène”. Ils ont également démontré que « les réponses des voxels dans le cortex visuel sélectif étaient prédites par les statistiques de cooccurrence des objets dans les scènes visuelles ».
“En plus de faire progresser notre compréhension de la façon dont le contexte visuel et linguistique est représenté dans le cerveau, nos résultats ont également des implications pour la compréhension de la fonction corticale plus généralement”, ont rapporté les chercheurs.
Copyright © 2021 Cami Rosso Tous droits réservés.