La prochaine étape pour l’intelligence artificielle : l’auto-tromperie

Il y a deux articles, j’ai exploré l’utilité et les limites d’une analogie entre l’informatique et le cerveau. Dans mon dernier article, j’ai exploré la dépendance du cerveau aux mécanismes de défense, y compris le déni pour cacher ses processus, bien que cela soit parfois pathologisé par les prestataires de soins de santé mentale. J’ai fait allusion à un troisième volet – le post d’aujourd’hui – reliant ces deux thèmes :

En 1950, Alan Turing a proposé un test qu’il a appelé le « jeu d’imitation » pour déterminer si une machine pouvait « penser ». Désormais appelé test de Turing, il demande si une machine peut duper un humain en lui faisant croire qu’il est un autre humain.

Aujourd’hui, nous sommes entourés de machines qui peuvent presque, sinon complètement, passer le test de Turing. Nous nous sommes habitués à interagir avec des machines par téléphone, SMS ou Internet (considérez les premières étapes de toute interaction récente avec le service client). Bien qu’à ma connaissance, aucune entreprise n’ait encore tenté de tromper ses clients en leur faisant croire qu’ils traitent avec un représentant humain alors que ce n’est pas vrai, il est facile d’imaginer que cela pourrait arriver bientôt.

Les assistants électroniques proposés par les grandes entreprises technologiques sont déjà plus humains, dont certains portent des noms à consonance humaine («Alexa», «Cortana», «Siri», etc.). Si vous posez à ces assistants une question « trop humaine » (comme leur sexe, ou s’ils aimeraient vous rencontrer pour prendre un verre quelque part), ils vous avoueront : « Je suis une IA » (Intelligence Artificielle). Mais même sans cela, les humains psychologiquement bien adaptés peuvent facilement distinguer ces gadgets électroniques d’un autre être humain.

Il y a, bien sûr, des entreprises qui essaient d’aller au-delà de cela. Certains ont créé des androïdes contrôlés par l’IA avec des corps et des expressions faciales qui réagissent de manière humaine et participent à des activités humaines – en menant un entretien d’embauche, par exemple.1 Certains humains sont prêts à interagir avec de tels androïdes comme s’ils étaient capables de penser comme un humain : un androïde nommé Sophia a récemment collaboré avec un humain pour créer un NFT qui s’est vendu à près de 700 000 $.2 Les acheteurs du travail de Sophia pensaient-ils que Sophia était une artiste créative ou une technologie sophistiquée ? Est-ce que ça importe?

Nous avons des machines qui peuvent imiter les interactions humaines ; nous avons aussi des machines qui peuvent surpasser les humains dans des activités traditionnellement considérées comme nécessitant de la « pensée » : par ex. jouer aux échecs, prévoir la météo ou prendre des décisions médicales.3 Aujourd’hui, peu de gens qui ont grandi avec cette technologie sont particulièrement gênés par l’idée que de telles machines « pensent », qu’elles semblent être humaines ou non. Alors peut-être est-il temps d’envisager une nouvelle question de type Turing : à quel moment les humains percevront-ils une machine non seulement pour penser, mais pour avoir conscience?

  metamorworks/Shutterstock

Brouiller les lignes…

Source : metamorworks/Shutterstock

L’auto-tromperie est la clé de la conscience

Comme indiqué dans la première de cette série en trois parties, l’IA est actuellement alimentée par des circuits et des logiciels assez différents du tissu cérébral électro-biochimique humain – mais comme le montrent les exemples ci-dessus, cela n’a pas d’importance. Les humains d’aujourd’hui sont prêts à percevoir une IA comme ayant la capacité de penser. Le simple fait qu’une IA soit composée de silicium et de fils est peu susceptible d’empêcher un humain de percevoir qu’elle a également une conscience. je n’en vois aucun a priori ou une base morale légitime pour nier qu’une machine puisse avoir cette qualité. Que faudra-t-il pour que cela se produise?

Comme discuté dans mon dernier article, une caractéristique clé du cerveau humain est sa capacité à se tromper. Cela inclut sa tendance inébranlable à considérer sa propre activité comme le produit d’un « soi » séparé de son corpus physique. Nous ne percevons pas nos pensées, nos sentiments et notre comportement comme le résultat de cellules cérébrales qui envoient des signaux électrochimiques à travers la chair entre nos oreilles. C’est parce que notre cerveau est un maître illusionniste : l’une de ses fonctions majeures, sinon principales, est de créer l’illusion qu’il y a quelque chose d’incorporel qui pense, ressent et agit à sa place – non pas via des lois physiques et des forces chimiques, mais via  » libre arbitre. » Cela semble être une façon terriblement inefficace de naviguer dans le monde : pourquoi le cerveau humain mène-t-il ses affaires de cette façon ?

En tant que psychiatre, je crois que la réponse réside dans la façon dont nous interprétons le comportement – le nôtre et celui des autres. C’est en enregistrant inconsciemment les expressions faciales, le langage corporel, la parole et les intonations d’une autre personne et en les comparant à notre soi — c’est-à-dire en cartographiant un « autre » conscience sur notre propre — que nous fassions des prédictions sur ce que cette autre personne ressent, pense et est le plus susceptible de faire. Il s’agit d’une compétence extrêmement importante – on pourrait même dire critique – pour notre succès en tant qu’individus et en tant qu’espèce. Lorsque les choses tournent mal, ce qui est plus souvent que la plupart des gens ne le pensent, une mauvaise communication, une mauvaise prise de décision et des conflits surviennent. La cause la plus courante est un décalage entre la façon dont l’esprit d’une personne fonctionne par rapport à l’esprit d’une autre – dans ce cas, l’« algorithme de cartographie » mental autoréflexif ne fonctionne pas. Avec d’autres prestataires de soins de santé mentale, les psychiatres, autrefois appelés « aliénistes » parce qu’ils ont pour métier de déchiffrer le fonctionnement des esprits inhabituels, sont en mesure de l’apprécier dans leur travail quotidien.

Qu’est-ce que cela a à voir avec l’IA ? Je crois que le prochain tournant pour l’IA, un « test de Turing 2.0 » si vous voulez, est qu’une IA soit capable de se tromper — ​​​​pas d’être humain mais d’avoir une conscience. Une fois qu’une IA croit qu’elle a un soi séparé de son assemblage de matériel et de logiciels, alors les humains auront tendance à le croire également. Un humain empathique, interagissant avec une telle IA, Ressentir ils ont affaire à une conscience très semblable à la leur. Plus important encore, ils se retrouveront face à face avec la proposition selon laquelle l’IA, quel que soit son substrat physique, a un droit sur la revendication d’une conscience identique à la leur.