En 1997, la victoire de l’ordinateur Deep Blue sur le joueur d’échecs Gary Kasparov avait déjà été interprétée comme une défaite de l’humanité face aux machines ; celle du programme Watson au jeu Jeopardy en 2011 était venue enfoncer le clou. L’affrontement récent entre le programme informatique AlphaGo de DeepMind, intelligence artificielle de Google, et le champion sud-coréen et numéro trois mondial du jeu de go, Lee Sedol, a logiquement été décrit comme une étape supplémentaire du même drame menant inexorablement à l’avènement d’une intelligence artificielle (IA) forte susceptible d’égaler l’être humain et de le dépasser dans toutes ses activités. Dernier jeu classique à résister à la machine, le go implique la maîtrise de paramètres nombreux et une puissance de calcul bien supérieure au jeu d’échecs : le nombre de combinaisons à explorer s’élève à 10170, contre 10120 aux échecs [1].
Plus encore que sa puissance, le mode d’apprentissage d’AlphaGo a retenu l’attention des commentateurs : ni force brute ni même apprentissage statistique, mais une utilisation du deep learning permettant à la machine de s’entraîner elle-même [2]. Sans contester ici l’indéniable succès technique que représente cette performance, on peut toutefois rappeler que le jeu de go constitue, malgré sa complexité, un environnement totalement contrôlé, donc adapté à l’automatisation, comme l’était d’ailleurs, d’une autre manière, le jeu Jeopardy favorisant le recours aux bases de données. D’une certaine façon, on pourrait presque s’étonner du temps qu’auront demandé de telles percées en se souvenant que les chercheurs Herbert Simon et Allen Newell prévoyaient, en 1958, un ordinateur champion du monde d’échecs dès le début des années 1970 [3]. Les nombreux obstacles techniques surmontés peu à peu pour la modélisation de seules tâches formelles ont montré, depuis, combi...