Le nouveau réseau de neurones profonds permet une meilleure transparence de l’IA

Geralt / Pixabay

Source: Geralt / Pixabay

Dans une salle de classe, les élèves sont souvent encouragés à «montrer votre travail» pour aider les enseignants à comprendre le processus de réflexion qui a conduit à leurs décisions – le raisonnement. Cette approche peut-elle également fonctionner pour l’apprentissage automatique de l’intelligence artificielle (IA)? Mettant cette stratégie à l’ancienne à l’épreuve, les chercheurs de l’Université Duke ont créé une nouvelle méthode de réseau de neurones profonds pour la vision par ordinateur de l’IA qui offre une plus grande transparence et ont publié l’étude le mois dernier. Intelligence artificielle de la nature.

Le trio de l’Université Duke, composé de professeurs d’informatique Cynthia Rudin, Zhi Chen et Yijie Bei, a formé un réseau neuronal profond pour montrer son travail et exprimer les concepts acquis tout au long du processus d’apprentissage, plutôt qu’après.

L’architecture des réseaux de neurones de l’apprentissage profond a permis une vision par ordinateur de pointe. Il n’est pas évident de savoir ce que les réseaux de neurones codent dans leur espace latent ou caché. Dans l’apprentissage automatique, l’espace latent est une représentation de données compressées. L’espace latent des réseaux de neurones convolutifs typiques n’a pas de démêlage direct.

Les variables latentes sont des variables cachées qui sont déduites d’autres variables qui sont directement observées et qui sont utilisées pour réduire la dimensionnalité (nombre de caractéristiques) des données. La réduction de dimensionnalité, ou extraction de caractéristiques, est la transformation de données d’un espace de grande dimension vers un espace de faible dimension pour se rapprocher de sa dimension intrinsèque. La réduction de dimensionnalité peut être utilisée pour les interfaces de calcul cérébral, la neuro-informatique, la reconnaissance vocale, la génomique, le traitement du signal, la neurotechnologie, la bioinformatique et les technologies de neuro-informatique.

A lire aussi  Les chats de compagnie connaissent les noms de leurs congénères, selon une étude

L’équipe a créé un module appelé concept de blanchiment dans un réseau neuronal qui contraint l’espace latent à représenter des concepts afin qu’il soit aligné. En science des données, le blanchiment fait référence à l’étape de prétraitement dans l’apprentissage automatique où la matrice de covariance des vecteurs d’entrée aléatoires est transformée par transformation linéaire pour devenir la matrice d’identité. Le blanchiment de concept façonne l’espace latent via la formation, et pour une couche donnée du réseau, il montre comment un concept est représenté. Il s’agit d’une approche plus flexible que de fournir des détails complets sur chaque calcul qui nécessite plus de contraintes et peut être utilisée dans n’importe quelle couche du réseau neuronal sans affecter la précision de la prédiction.

Ce qui différencie davantage la solution des chercheurs de Duke des autres approches, c’est que leur «matrice de blanchiment est multipliée par une matrice orthogonale et maximise l’activation de concepts connus le long des axes de l’espace latent». Les chercheurs optimisent la matrice orthogonale à l’aide d’algorithmes de recherche curvilinéaire basés sur la transformée de Cayley dans leur module de blanchiment conceptuel.

Selon les chercheurs, leur concept de blanchiment peut remplacer l’étape de normalisation par lots dans les réseaux de neurones convolutifs (CNN). Le module est facile à utiliser car il ne nécessite qu’une seule période de formation supplémentaire. D’autres avantages par rapport à la normalisation par lots comprennent une interprétabilité supérieure tout en maintenant une précision comparable à celle des réseaux de neurones convolutifs standard.

Les algorithmes d’apprentissage automatique de l’intelligence artificielle partagent un problème fondamental: personne ne sait vraiment exactement ce qui a conduit à ses prédictions et à ses décisions. Cette opacité inhérente à la boîte noire de l’IA présente des problèmes potentiels d’éthique, de sûreté et de sécurité, en particulier dans des domaines tels que les véhicules autonomes, la radiologie et le diagnostic médical. Avec cette nouvelle preuve de concept consistant à ajouter un module de blanchiment conceptuel à un réseau neutre convolutif, il existe désormais un nouveau moyen d’améliorer la transparence de l’apprentissage automatique de l’IA, sans sacrifier la précision des prédictions.

A lire aussi  Êtes-vous aussi occupé que vous le pensez ?

Copyright © 2021 Cami Rosso Tous droits réservés.