Hivers et Printemps de l’Intelligence Artificielle

L’histoire de l’intelligence artificielle (IA) est répartie en “hivers” et “printemps“, en pics et creux d’investissement et de confiance de l’opinion publique. Un des hivers les plus connus fut provoqué par le rapport gouvernemental britannique de 1973 au sujet de l’avancement de ces technologies, dans lequel Sir James Lighthill accusait le secteur de ne pas être à la hauteur des grandioses attentes qu’on lui accordait de manière générale.

Cela mena à un rapide déclin des financements en Angleterre et plus tard au travers de l’Europe. En 1981, le Japon arriva au premier plan de ce domaine suite à un printemps : un investissement de 850 millions de dollars dans le projet d’ordinateur de cinquième génération, utilisant la technologie du réseau de processeurs massivement parallèles. De la même manière, le projet ne fut pas à la hauteur des attentes, bien qu’il ne fut pas non plus un échec total.

Aujourd’hui, ces fluctuations d’intérêt massif de la population continuent. Ainsi, beaucoup pensent que les ardeurs suscitées par ces sujets s’étant déjà tassées par le passé, rien ne nous met à l’abri d’un hiver en cet évident printemps.

1956-1973 : l’âge d’or de l’IA

La période dont nous parlons ici débutera avec la conférence de Dartmouth, université phare du New Hampshire. C’est d’ailleurs de cet événement que naîtra l’expression “Artificial Intelligence”. S’en suivit, grâce, on peut l’imaginer, à l’engouement déclenché par cette conférence, de nombreux investissements publics et privés dans le domaine. Parmi eux, on peut mentionner l’implication du gouvernement américain via la Defense Advanced Research Project Agency (DARPA) créée en 1958 et toujours très active aujourd’hui.

Par la suite, de nombreux nouveaux domaines de recherche ont émergé : le reasoning-as-search (heuristique dans des tâches de labyrinthes), les réseaux de sémantique et de langage spontané pour améliorer la communication humain-machine (notamment ceux de Joseph Weizenbaum) ou les microworlds (Marvin Minsky and Seymour Papert).

Malgré un passage à vide en 1966 comme mentionné plus bas, ce fut une période très propice au progrès dans le domaine.

Introduction
en douceur à
Unqualified
Reservations

Premier tome d’une série de 7 de l’oeuvre de
Curtis Yarvin offert à nos tipeurs.

Introduction
en douceur à
Unqualified
Reservations

Premier tome de l’oeuvre
majeure de Curtis Yarvin

Qu’est ce que la DARPA ?

Nous évoquerons souvent ce terme tout au long de l’article, et pour cause : cette institution joua un rôle conséquent dans la recherche autour des technologies d’IA.

Cette dernière fait partie intégrante du Département de la Défense des États-Unis, et s’occupe des fonds accordés à la recherche et au développement qui pourraient intéresser la “Défense”. Néanmoins, malgré son côté militaire, les recherches financées par cette structure ont largement profité au-delà de ce domaine dans lequel il trouve sa raison d’être, on peut justement la remercier en partie pour Internet.

Son ancien président durant les années 60 – soit l’âge d’or – J.C.R. Licklider disait financer des gens, pas des projets ; sous entendu miser sur la “vision” de certains scientifiques (des pointures comme Allen Newell, Herbert Simon, John McCarthy ou encore … Marvin Minsky) plutôt que simplement certains projets qui intéresseraient la Défense. Si bien que cette doctrine a potentiellement joué un très grand rôle dans les innovations qui allaient au delà du domaine de la défense nationale.

Perceptrons : Minsky&Papert

En 1969, Perceptron était la première étude systémique sur le parallélisme en informatique. Si bien qu’il marqua un tournant historique dans l’histoire de l’IA.

En effet, pour une bonne période, les recherches dans le domaine se sont énormément concentrées sur les modèles d’architecture de Von Neumann. Donc suite à cela, l’idée que l’intelligence pourrait émerger d’une activité de réseaux similaire à celle des entités neuronales fit son grand retour.

L’ouvrage de Minsky et Papert était le premier exemple d’une analyse mathématique menée assez loin pour montrer les limitations exactes d’une classe de machines informatiques. Remettant ainsi sévèrement en question leur capacité à s’approcher de l’intelligence humaine. Ce travail fit grandement avancer le domaine par les nouvelles perspectives qu’il ouvrait.

1966 : premier hiver depuis les percées en cybernétique

Aux US, le National Research Concil’s Automatic Language Porcessing Advisory Comittee a publié, en plein milieu des sixties, un rapport plutôt négatif sur les traductions automatiques, suivi par des coupes budgétaires dans le secteur. En effet, il souligne l’incapacité des systèmes, dans les diverses expériences, à traduire automatiquement du russe à l’anglais.

1974-1980 : DARPA et le grand hiver

Le programme de recherche sur la compréhension du langage, qui impliquait IBM, Carnegie, l’université de Mellon, Bolt Beranek Newman et l’université de Stanford a vu son financement par le gouvernement américain supprimé au bout de 5 années. Les raisons avancées pointent le manque de résultats satisfaisants dans la reconnaissance et la compréhension vocale. Cela dit, le fait que l’équipe scientifique ait sur-vendu les résultats obtenus n’a pas beaucoup aidé.

On franchit un autre palier de déception à la sortie des papiers “Artificial Intelligence : A General Survey” – aussi connu sous le nom du rapport Lighthill, baptisé ainsi d’après le nom de son auteur James Lighthill – et du rapport DARPA commandé par le American Study Group, suggérant que la plupart des recherches sur l’IA aboutiraient très rarement à des avancées concrètes dans le futur proche. Ainsi, à partir de 1974, trouver des fonds pour les recherches sur le sujet n’était pas une mince affaire.

Le fameux débat qui suivit le rapport Lighthill

Le rapport Lighthill recommande la suppression des financements des recherches sur l’IA

La publication est destinée au Science Research Council of Great Britain que nous avons évoqué plus haut. Ce dernier dresse un bilan méprisant de l’état de la recherche académique sur l’IA et sa capacité de répondre aux attentes, plus particulièrement dans les domaines de la robotique et du traitement du langage.

Suite à cela, le gouvernement britannique a coupé tout financement pour la recherche sur l’IA, excepté pour trois universités – Essex, Sussex et Édimbourg – ce qui a conduit au démantèlement de la plupart des infrastructures de recherche du domaine et une baisse générale de la confiance que les gens lui portent pour une bonne décennie.

Rapport Lighthill

Soutenez l’Ukraine

en achetant un de nos t-shirts dont les bénéfices
sont reversés à FUSA
 qui fournit du matériel
aux soldats.

Soutenez l’Ukraine

en achetant un de nos t-shirts dont les bénéfices
sont reversés à FUSA
 qui fournit du matériel
aux soldats.

1980 : John Searle et la chambre chinoise

Le philosophe John Searle est connu pour avoir discuté le fait qu’un ordinateur ne pourrait jamais avoir de capacité de compréhension et de conscience, quand bien même serait-il intelligent.

Pour étayer sa thèse, il propose l’expérience connue sous le nom de la “chambre chinoise”, qu’on pourrait résumer par la question suivante : “est-ce qu’un ordinateur qui arriverait à répondre à des questions posées en chinois par une personne qui ne sait pas que c’est un ordinateur qui est à l’origine des réponses, comprend-t-il le chinois ou est-il simplement en train de le simuler ?”

Une parfaite synthèse de l’argument de Searle

La capacité de réelle compréhension est pour une machine ce que Searle appelle “IA forte”. Ce niveau d’IA implique pour lui un état de conscience. À l’inverse, des IA faibles qui sont capables de faire seulement et précisément les tâches commandées, ô combien complexes ou non. Searle pensait qu’il était impossible pour une machine de s’affranchir de sa condition d’exécutant d’instructions.

Aujourd’hui, ses arguments semblent d’une certaine manière mis en défaut par l’existence de logiciels fonctionnant en apprentissage par renforcement (reinforcement learning), c’est à dire qu’ils sont capables d’apprendre – des jeux – en jouant contre eux-mêmes.

Vidéo qui aborde l’apprentissage par renforcement à 13.48

1981 : Le financement nippon de la cinquième génération d’ordinateurs

En 1981, le ministère japonais du commerce international et de l’industrie investit 850 millions de dollars dans la cinquième génération d’ordinateurs. Grâce à cela, une sorte de révolution industrielle devait avoir lieu, propulsant le Japon à la tête de l’industrie de l’IA au travers des recherches nippones dans le domaine. Le rayonnement du pays par le partage et la collaboration avec la communauté internationale était aussi au centre des préoccupations de ce projet.

Le but de ce dernier était donc de concevoir un ordinateur de nouvelle génération afin de réaliser d’ambitieux progrès dans le développement de l’IA. Malheureusement, le choix de se concentrer sur des points qui allaient rapidement tomber dans l’obsolescence, comme par exemple le langage PROLOG, n’a pas permis au projet de passer les années 90. En effet, en 1992, le projet fut arrêté, étant donné le nombre d’objectifs qui ne furent pas atteints. Mais tout de même, les nombreux résultats furent rendus disponibles internationalement.

1983 : les USA financent la Strategic Computing Initiative

En réponse au projet japonais sus-mentionné, le gouvernement américain, à travers la DARPA, a décidé d’investir une fois de plus dans la recherche sur l’IA en lançant la Strategic Computing Initiative (SCI). Son objectif sur le long terme était de finaliser le développement de l’IA : un projet colossal. C’est pourquoi le ministère de la défense a investi un milliard de dollars pour une durée de 10 ans.

Malgré les avancées, notamment sur les véhicules terrestres autonomes, il apparaissait clair vers la fin des années 80 que l’objectif ne serait jamais atteint. Arrêt des financements, encore une fois.

1987-1993 : suppression des financements et effondrement des Lisp Machines

En 1987, le marché du hardware spécialisé dans l’IA s’effondre. Malgré un hiver en ce qui concerne l’IA, les innovations informatiques ainsi que les ordinateurs sont florissantes de manière générale, ce qui implique une tendance à la baisse de leurs prix.

De fait, à chaque nouvelle sortie de hardware non spécialisé IA, les consommateurs qui ont le moins besoin des fonctions assurées par les Lisp Machines se rabattent progressivement sur les uns et abandonnent les autres. Et les sorties informatiques furent nombreuses en 1987. Probablement que les coûts élevés d’entretien, la fragilité et l’encombrement découragèrent les consommateurs habituels d’un produit qui avait du mal à se renouveler et à en trouver de nouveaux.

Cet hiver-ci ne paraît jusque-là pas vraiment déplorable. En effet, on y voit juste la tendance normale du marché à s’adapter aux besoins des individus. Seulement, c’était sans compter que les résultats dans le domaine de la recherche gouvernementale ne plairaient pas au nouveau directeur de la DARPA, Jacob Schwartz, qui mit fin au programme démarré 4 années plus tôt.

2007-2013 : l’UE lance le septième programme cadre

Ce programme qu’on appellera FP7 (Framework Programme 7) a pour but d’améliorer la compétitivité européenne dans la recherche technologique et ainsi attirer des talents dans le domaine. L’ampleur de ce projet est faramineuse : 50 milliards d’euros investis sur 7 ans dans des domaines comme les technologies de communication, de santé et des transports.

Toutefois, malgré le fait que l’entièreté du budget ne soit pas allouée à la recherche sur l’IA, c’est tout de même 500 millions d’euros qui y seront investis la première année.

2014-2020 : L’UE lance Horizon

La septième phase des programmes cadres pour la recherche et le développement technologique est à hauteur de 80 milliards d’euros sur 7 ans, pour les mêmes objectifs.

Toutefois, les fonds alloués à la recherche sur l’IA sont plus importants : 1,5 milliards entre 2018 et 2020, sans compter les autres investissements publics des États membres eux-mêmes et des acteurs privés qui, cumulés, s’élèvent à plus de 20 milliards.

Obscure
Accélération

Ebook d’une traduction de textes
de Nick Land, offert à nos tipeurs

Obscure
Accélération

Ebook d’une traduction de textes de
Nick Land offert à nos tipeurs

Un regard dans le rétroviseur, mais pour quelle route d’avenir ?

En définitive, et compte tenu du niveau d’avancement qu’a atteint cette technologie aujourd’hui, il paraît peu probable que nous affrontions de nouveaux hivers de l’IA. Ses diverses applications commerciales permettent de perfectionner en permanence des plateformes sociales, des structures de production et la consommation de biens par les individus. Si bien qu’il serait absurde que les grandes firmes cessent d’y investir. La preuve en est que beaucoup se méfient de ces avancées, publiquement et en fanfares, sans que les innovations n’en mordent moins.

Aussi, nous avons ici beaucoup évoqué le domaine gouvernemental d’intervention dans la sphère en pleine expansion de l’IA, et pour cause : son pouvoir d’influence sur les opinions est décisif.

Des résultats très concluants semblent apparaître tout de même grâce aux recherches effectuées par les gouvernements. Cependant, les résultats ne profitent pas toujours au grand public, et restent quelquefois dans les mains de certains. À l’inverse, les recherches effectuées/financées par les GAFA, par exemple, sont associées à des biens et services que tout le monde consomme, et à très grande ampleur. Que ce soit Siri, Alexa ou une autre intelligence artificielle de Google, ce sont des créations auxquelles nous consentons par l’utilisation de certains dispositifs que nous avons choisis, pour améliorer la qualité de notre consommation de ces réseaux.

Aucunement à des fins d’agression et de contraintes des citoyens donc, a contrario de ceux que nous voyons apparaître, par exemple, dans l’empire du Milieu.

1 comment
  1. Ce résumé de l’histoire de l’I.A. est exact. J’ai vécu les années 80 avec beaucoup d’espoirs lors de l’accès à des machines PC plus rapides, qui permettaient enfin de faire tourner des projets IA un peu ambitieux. Mais il manque dans ce texte un épisode fondamental : la relance des réseaux neuronaux par la publication de Hopfield sur les mémoires associatives. Ce fut une véritable révolution ! Les premières simulations sur PC, qui reproduisaient enfin certaines caractéristiques du fonctionnement cérébral, ont suscité un mouvement continu jusqu’à nos jours, en passant par les réseaux bayésiens, les circuits convolutifs etc … Je pense que ce point manque dans ce texte, qui, paradoxalement n’a pas bénéficié de grosses dotations budgétaires à l’époque. Mais était-ce nécessaire ? Cordialement. D.R.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Previous Post

Le marketing de la mort, retour sur la crise des opioïdes aux États-Unis

Next Post

Guy Millière, “La gauche européenne refuse de voir l’antisémitisme musulman”