Prédire la politique à partir d’un selfie?

Photo de Sora Shimazaki sur Pexels.

Une nouvelle recherche prédit une orientation politique à partir d’images de visages.

Source: Photo de Sora Shimazaki sur Pexels.

On vous donne deux photos de visages de personnes, étroitement recadrées. L’un est conservateur, l’autre est libéral. Pouvez-vous deviner lequel est lequel, simplement en regardant le visage? C’est la configuration du nouveau papier d’apprentissage automatique de Michal Kosinski, l’un d’une série qu’il a publiée au cours des dernières années, examinant dans quelle mesure les algorithmes d’apprentissage automatique peuvent prédire diverses caractéristiques personnelles – comme les scores aux tests de personnalité, et, plus controversé. , l’orientation sexuelle. La conclusion principale, selon laquelle les fonctionnalités dérivées d’un algorithme de réseau neuronal «boîte noire» ininterprétable peuvent choisir avec précision l’orientation politique avec une précision de 73%, soulève des questions et des inquiétudes.

Premièrement, les préoccupations. La physionomie faciale, la pratique consistant à juger le caractère d’une personne à partir de son visage, a historiquement été utilisée pour justifier le racisme scientifique. Si vous pouvez déterminer la personnalité d’une personne, si elle est susceptible de commettre un crime ou si elle a une identité sexuelle stigmatisée par son visage, vous pouvez alors décider comment traiter la personne en vous basant uniquement sur son apparence et non sur ses actions. Traiter les gens différemment en fonction de leur apparence physique et de leurs caractéristiques personnelles, par opposition à ce qu’ils font, est la définition de la discrimination. L’apprentissage automatique donne un nouveau souffle scientifique aux idées qui sont en contradiction avec l’éthique sociale de base. Ces nouveaux résultats pourraient facilement être utilisés pour suggérer que certaines personnes ne sont que des «libéraux nés» (ou des conservateurs) et que vous pouvez le dire en regardant leurs visages. Le montage même de l’étude suppose que nos opinions politiques sont aussi cohérentes que nos visages, et le seul résultat qu’elle pourrait donner est un score d’exactitude reliant des aspects du visage à la politique.

Est-ce vraiment vrai? Il n’y a pas (à ma première lecture) de raison de croire que les résultats reposent sur des erreurs statistiques, mais cela ne signifie pas que les résultats capturent nécessairement de vraies relations dans la nature. Il est courant dans la recherche sur l’apprentissage automatique d’utiliser d’énormes ensembles de données avec des biais connus. Par exemple, un ensemble de données contenant des photographies et le casier judiciaire d’un million de personnes pourrait être utilisé pour former un algorithme afin de prédire si une personne a un casier judiciaire. Mais nous devons nous rappeler que le fait d’avoir un casier judiciaire n’est pas la même chose que «susceptible de commettre un crime». Certains groupes de personnes sont plus susceptibles d’être poursuivis pour un crime, tandis que d’autres risquent d’être mis en liberté sans être intégrés dans le système. Par exemple, la consommation de marijuana est similaire chez les Américains blancs et noirs, mais les Américains noirs sont beaucoup plus susceptibles d’être arrêtés pour usage de marijuana. Dans ce cas, l’algorithme d’apprentissage automatique n’apprendrait pas si quelqu’un est vraiment un criminel, mais s’il est susceptible d’être arrêté. Cela est influencé par les préjugés dans lesquels les zones sont contrôlées et le type de personnes qui sont ou ne sont pas arrêtées.

A lire aussi  Soutenir un partenaire avec un traumatisme de trahison

Entraîner un algorithme pour donner la meilleure prédiction possible dans cet ensemble de données gèle essentiellement tous les biais inhérents au système actuel en place, transformant le traitement préférentiel pour les personnes attrayantes, les personnes à la peau plus claire, les personnes moins ridées, etc. en un système qui sera à partir de ce moment-là, être invoqué pour donner des réponses «objectives». L’apprentissage automatique peut donc être un moyen de blanchir les biais, de convertir les écarts entre les types de personnes en un système informatisé qui ne peut être remis en question.

Photo de This Is Engineering sur Pexels.

Les algorithmes peuvent être utilisés pour rendre les jugements biaisés plus scientifiques.

Source: Photo de This Is Engineering sur Pexels.

Il est facile de voir comment cela pourrait se produire dans le détecteur d’orientation politique de Kosinski. Un Youtuber qui publie des tutoriels de maquillage pourrait devenir particulièrement populaire parmi de grands groupes de femmes chrétiennes évangéliques, les amenant à avoir toutes un maquillage similaire sur leurs photos. Les hommes gais des grandes villes pourraient préférer avoir des sourcils en forme (en fait, les chercheurs ont rapporté que les hommes gais étaient plus susceptibles que les hommes hétéros de porter des lunettes dans les profils de rencontres, et les lesbiennes moins susceptibles de se maquiller que les femmes hétérosexuelles). Les sudistes pourraient être plus susceptibles de publier des selfies pris à l’extérieur, ce qui entraînerait une qualité de lumière différente. Les acteurs peuvent publier des photos de la tête, qui incluent un éclairage de studio professionnel. Chacun de ces groupes est susceptible d’avoir des préférences de vote particulières, mais les raisons pour lesquelles ils se ressemblent sont dus aux tendances sociales et à la présentation de soi. En d’autres termes, le même trait du visage pourrait se rapporter différemment à l’orientation politique si, par exemple, le style de maquillage promu par notre (hypothétique) Youtuber est soudainement adopté par des personnes aux convictions politiques très différentes.

A lire aussi  Ce que personne ne vous dit sur la façon de devenir un influenceur

Comme le note Kosinski dans un supplément en ligne, l’algorithme de la boîte noire pourrait reprendre des aspects de l’auto-présentation comme celui-ci. En fait, cet article montre que certaines de ces caractéristiques sont en effet utiles pour saisir l’orientation politique. Le simple fait de savoir comment la tête d’une personne a été posée peut donner une précision de 58% dans la détermination de la politique (les libéraux font plus souvent face à la caméra). Quelle expression une personne montrait donne une précision de 57% (les libéraux expriment moins le dégoût). Cependant, ces caractéristiques interperétables n’expliquent toujours pas la précision supplémentaire de 15% captée par l’algorithme de réseau neuronal qu’il a utilisé. En outre, Kosinski note que la saisie d’informations sur la pose ne posera probablement pas de problème pour la manière dont les entreprises, les partis politiques et les agences gouvernementales utiliseraient ce type de recherche. Ils utiliseraient probablement des photos extraites de comptes de médias sociaux publics, tout comme Kosinski l’a fait, de sorte que les mêmes préjugés dans l’auto-présentation devraient être valables.

Photo de Manuel Geissinger sur Pexels.

L’algorithme de Kosinski pour prédire l’orientation politique repose sur des algorithmes de «boîte noire» ininterprétables.

Source: Photo de Manuel Geissinger sur Pexels.

Cela nous amène à remettre en question la signification scientifique plus profonde de ce travail. Pourquoi l’algorithme d’apprentissage automatique peut-il prédire l’orientation politique à partir de photographies? Si ce n’est pas seulement dû à la manière typique dont différents types de personnes aiment poser leur tête, ou aux expressions faciales qu’elles font, quelle pourrait être l’explication? Dans son supplément en ligne, Kosinski expose trois grandes possibilités: (1) Qui vous êtes change votre visage. Par exemple, si vous êtes une personne heureuse, sourire fréquemment vous donnera des rides de la patte d’oie. (2) Votre visage change qui vous êtes. Par exemple, les personnes attirantes peuvent bénéficier d’un traitement spécial, ce qui les conduit à être plus optimistes. (3) Un autre facteur, comme les gènes ou les hormones, change les deux visages et qui vous êtes. Par exemple, si votre corps produit plus de testostérone, vous pourriez être plus naturellement agressif et avoir une crête sourcilière plus proéminente. Malheureusement, cette étude ne tente pas de faire la distinction entre ceux-ci, mais seulement de les comparer explicitement dans un supplément en ligne.

A lire aussi  Quand on vous a accordé un sursis

Les découvertes de Kosinski sont intéressantes, mais il est difficile de savoir quoi en penser à ce stade. Que nous apprend cet article sur le fonctionnement des visages (ou de la politique)? Comme dans les travaux antérieurs sur l’orientation sexuelle, le type d’exploration minutieuse nécessaire pour vraiment donner un sens aux résultats (et démêler les effets tels que la façon dont le maquillage peut aider à distinguer les lesbiennes des femmes hétérosexuelles) reviendra probablement à d’autres futurs chercheurs. Comme l’algorithme de la boîte noire utilisé, tout ce que nous voyons actuellement est un résultat intéressant, mais nous n’obtenons pas le gros prix scientifique: une explication.