Le docteur Watson d’IBM : 10 ans plus tard

L’année 2021 annonce un 10e anniversaire majeur pour l’intelligence artificielle qui ne devrait pas passer sans reconnaissance. En 2011, Watson, l’ordinateur de questions-réponses d’IBM, a battu le jeu télévisé Jeopardy! les champions Ken Jennings et Brad Rutter avec un total de 77 000 $ sur trois jours, contre 24 000 $ pour Jennings et 22 000 $ pour Rutter, remportant le premier prix de 1 million de dollars.

Image fixe sur Wikimedia Commons / Jeopardy Productions

Watson en danger !

Source : Still Frame sur Wikimedia Commons / Jeopardy Productions

Juste un jour après Watson’s Jeopardy ! victoire a été télévisée, IBM a lancé une campagne de marketing pour tirer parti de son succès. En quelques années, l’entreprise réalisait un tour de victoire pour l’incursion de Watson dans les soins contre le cancer, la vantant comme « une approche révolutionnaire de la médecine et des soins de santé qui est susceptible d’avoir des conséquences sociales, économiques et politiques importantes ».

Le champion Ken Jennings inclus dans l’un de ses Final Jeopardy ! répond cette évaluation : « Pour ma part, je souhaite la bienvenue à nos nouveaux suzerains informatiques. » Plus tard, dans un article de Slate, Jennings a écrit :

Tout comme les emplois en usine ont été supprimés au 20e siècle par de nouveaux robots de chaîne de montage, Brad et moi avons été les premiers travailleurs de l’industrie du savoir mis au chômage par la nouvelle génération de machines « pensantes ». « Concurrent d’une émission de quiz » est peut-être le premier emploi licencié par Watson, mais je suis sûr que ce ne sera pas le dernier.

Dans les années qui ont suivi, il est devenu clair qu’IBM a surestimé la vitesse à laquelle Watson conquiert le monde. L’échec le plus important de Watson s’est peut-être produit lors d’un partenariat en 2013 avec le MD Anderson Cancer Center, présenté à l’origine par les partenaires comme tirant parti de la capacité des systèmes cognitifs à « « comprendre » le contexte des questions des utilisateurs, à découvrir les réponses du Big Data et à améliorer les performances en apprendre continuellement des expériences.

Mais en 2017, MD Anderson a « banqué » Watson dans ce qui a été annoncé comme un revers pour l’intelligence artificielle en médecine. Watson ne pouvait pas ingérer des informations médicales à partir des dossiers des patients ou de la littérature médicale comme le ferait un médecin. Il a eu du mal à comparer chaque nouveau patient avec les nombreux patients qui l’avaient précédé. Un rapport « cinglant » des auditeurs de l’Université du Texas a déclaré que le projet n’avait pas atteint ses objectifs et avait coûté environ 62 millions de dollars.

En fait, même le triomphe de Watson dans Jeopardy ! n’est pas aussi clair qu’il y paraît. D’une part, la victoire de Watson a peut-être plus à voir avec sa capacité à « bourdonner » pour répondre aux questions qu’à sa capacité supérieure à répondre aux questions. Dans de nombreux cas, les concurrents Jennings et Rutter connaissaient également les réponses mais ont été « bloqués » par le timing supérieur de Watson.

De plus, Watson n’était pas parfait. Le deuxième jour du concours de trois jours, la catégorie Final Jeopardy était US Cities, et la réponse était : « Son plus grand aéroport porte le nom d’un héros de la Seconde Guerre mondiale et son deuxième plus grand aéroport porte le nom d’une bataille de la Seconde Guerre mondiale. Watson a répondu : « Qu’est-ce que Toronto ? » Le fait que Watson ait pu confondre Toronto avec une ville américaine rappelle avec force que même l’IA peut faire des erreurs. Une erreur dans Jeopardy ! n’est pas une question de vie ou de mort, mais en médecine, cela pourrait l’être.

Certains pourraient soutenir que nous n’avons pas donné suffisamment de temps à Watson. Les prévisions étaient peut-être excessivement optimistes, mais avec des opportunités supplémentaires de régler les problèmes, cela finira inévitablement par triompher. Ou peut-être y a-t-il quelque chose qui ne va pas avec les soins de santé, à savoir que nous ne possédons tout simplement pas une compréhension suffisamment claire des patients, des maladies et des médecins.

Pourtant, d’autres explications sont également possibles. L’une serait que la saisie et l’analyse de quantités massives de données ne suffisent tout simplement pas à faire progresser notre compréhension des soins aux patients. Peut-être que de bons soins aux patients ne sont pas principalement une entreprise axée sur les données.

Nous devrions également réfléchir à deux fois avant de supposer que la connaissance réelle est une sortie uniquement attribuable aux algorithmes suivants. Si nous comparons un ordinateur à un filet, le simple fait qu’un filet d’un certain type attrape certaines choses et en rate d’autres ne permet en aucun cas de conclure que les seules choses réelles ou importantes sont celles que nous trouvons dans le filet.

Il est fort possible que ce que les médecins et autres professionnels de la santé savent et peuvent faire ne soit pas reproductible en termes numériques. Une reproduction numérique d’un grand tableau peut ressembler beaucoup à un tel tableau, tout comme un enregistrement audio numérique peut être presque impossible à distinguer d’une performance musicale, mais en fin de compte, ce ne sont pas les mêmes.

Le défi ultime de l’amélioration des soins aux patients n’est pas d’adapter les patients, les maladies et les médecins à nos modèles, mais d’adapter nos modèles aux patients, aux maladies et aux médecins. D’une part, nous ne pouvons pas remodeler le monde pour l’adapter à nos outils, et plus important encore, le monde lui-même est une réalité bien plus complexe, riche et belle que n’importe lequel de nos modèles peut capturer.