Science

L’IA et le cerveau humain: vers l’inévitable fusion

9 juillet 2019

author:

L’IA et le cerveau humain: vers l’inévitable fusion

Les progrès exponentiels de l’IA posent forcément la question de l’obsolescence de notre système cognitif. Quelle sera la place de l’humain quand la singularité livrera aux IA toutes les activités économiques et scientifiques ? Loin d’être purement anxiogène, l’IA est un exemple parfait de pharmakon, à la fois danger et solution avec laquelle nous devrons cohabiter mais surtout coévoluer.

Pourquoi la symbiose est possible 

La confusion entre conscience et intelligence

Pour démontrer la complémentarité de l’IA et du cerveau humain, il est indispensable de clarifier deux notions trop souvent confondues.

L’intelligence, artificielle ou biologique, désigne un système capable de résoudre des problèmes complexes. Une forêt est un système résolvant des problèmes complexes, mais elle n’est aucunement consciente d’elle-même ni de sa mission. La conscience, artificielle ou biologique, désigne un système de contrôle, de protection et d’auto-modification de soi. Un simple arthropode possède déjà une ébauche de conscience du monde et de lui-même.

Si aujourd’hui les IA dépassent déjà le cerveau humain dans des tâches spécialisées et demain dans presque toutes les disciplines, elles n’ont aucunement accès à la conscience, même au niveau simple des animaux.

Le mythe du cortex supérieur conscient

L’appareil cognitif humain fut longtemps décrit comme un empilement de structures issues de l’évolution. À sa base le cerveau « reptilien » assurant les réflexes de survie et les automatismes physiologiques. Juste au-dessus se place le cerveau limbique « paléo-mammalien », chargé des comportements animaux plus complexes (émotions, socialisation). Enfin, dominant et contrôlant les structures inférieures, le cortex supérieur, particulièrement développé chez l’humain, siège de la conscience et des capacités analytiques.

Bien que philosophiquement et théologiquement confortable, relativement cohérent d’un point de vue évolutif, ce modèle est entaché d’une lourde erreur : la conscience n’est pas une fonction de l’encéphale supérieur.

En 1970 le neurologiste Benjamin Libet a découvert un décalage de 300 millisecondes entre le début des processus mentaux de réaction motrice et la conscience de cette décision. Il est même possible d’anticiper notre réaction à un stimulus en observant simplement le bruit de fond de l’activité électrique du cerveau. Le coup de grâce fut apporté en 2008 : entre une décision analytique du cortex supérieur et la conscience de cette décision le délai peut atteindre dix secondes.

Les réseaux cérébraux

Depuis les années 2000 un consensus scientifique se dégage autour d’un nouveau modèle. Le cerveau est un ensemble de réseaux cognitifs mobilisant simultanément plusieurs zones distinctes, parfois éloignées. Chaque réseau est chargé de réaliser une gamme étroite et cohérente de tâches. Ils fonctionnent en parallèle, en coordination ou en alternance.

Cinq réseaux majeurs ont été identifiés : les réseaux d’attention ventraux et dorsaux, le réseau de saillance (centre d’aiguillage), le réseau mode défaut (émotionnel et social), le réseau central d’exécution (rationnel, logique et méticuleux) et le système de récompense. Ils coexistent avec des réseaux secondaires, on peut citer à titre d’exemples le réseau du langage (aire de Wernicke et Broca) et les 5 réseaux de la mémoire.

Dans le cadre de l’interface humain-machine les modules d’IA formeront des réseaux artificiels venant compléter les réseaux biologiques, comme le système limbique et le néocortex se sont joints aux parties plus primitives du cerveau biologique.

L’origine de la conscience

Le néocortex n’étant pas le siège de la conscience, on aurait pu croire qu’elle viendrait se nicher dans un réseau cognitif. Le sentiment de conscience apparaît quand l’activité des réseaux est dégradée au profit d’échanges intensifs entre les réseaux. La conscience est une sensation consécutive à un décloisonnement fonctionnel de l’appareil cognitif.

La conscience est toujours en retard sur l’action, le chercheur Ezéquiel Morsella la décrit comme un spectateur. Mais elle n’est pas passive et impuissante. En confrontant les données de plusieurs réseaux, la conscience évalue la pertinence des actions passées et élabore de nouvelles solutions. Notre volonté n’est rien d’autre que notre capacité à modifier nos réseaux cognitifs pour les forcer à modifier leur fonctionnement.

L’évolution a pourvu l’humain et les animaux supérieurs d’un outil d’amélioration de soi et d’apprentissage extrêmement puissant. Chez l’humain cette fonction de métacognition est particulièrement développée, nous avons conscience du monde, de nous, des autres et du fait que nous et les autres avons une conscience.

Comme tout phénomène émergeant, la conscience dépend du bon fonctionnement de ses structures sous-jacentes. Si les réseaux neuraux sont détériorés par des atteintes structurelles ou trompés par de fausses informations, la conscience ne peut émerger.

Pourquoi la symbiose n’est pas un risque mais une solution

Le cerveau humain ne progressera (presque) plus

Le cerveau humain, bien qu’extrêmement performant pour créer des algorithmes de décision avec des quantités raisonnables de données, est handicapé par plusieurs limites auxquelles les IA ne sont pas soumises.

La première est évidement sa capacité de calcul. Les humains les plus doués peuvent réaliser quelques opérations simples par seconde, dans le même intervalle de temps n’importe quel processeur moderne en réalise des milliards.

Notre capacité à stocker des données, calculée en fonction des connexions possibles entre neurones du cortex supérieur, est théoriquement de 2.5 petabyte. Bien qu’impressionnant ce chiffre est loin d’être suffisant pour enregistrer l’intégralité des données fournis par nos sens. La mémoire eidétique (« absolue ») n’est qu’un mythe.

Si la croissance exponentielle des capacités des systèmes de stockage numérique (x100 par décennie) se poursuit au même rythme la mémoire humaine sera à la portée d’un simple téléphone portable d’ici 2040. L’amélioration biologique de notre mémoire s’annonce difficile, une voie imaginable serait de rendre les neurones plus compacts, comme chez les oiseaux, pour en mettre plus dans le même volume de cerveau.

Vaincu en capacité, la mémoire humaine fait aussi pâle figure en terme de qualité et de fiabilité. La construction a posteriori, sous l’influence d’émotions et inconsciente des souvenirs, rend hasardeuse l’analyse factuelle. Il est même possible de créer des faux souvenirs beaucoup plus facilement et discrètement que dans des systèmes informatiques équipés de signature numérique et de registre des modifications infalsifiables.

La bande passante en entrée/sortie du cerveau humain est extrêmement limitée. Nos organes des sens et nos réseaux cérébraux dédiés doivent convertir plusieurs gigabits/secondes d’information en format compréhensible pour notre cerveau. En réduisant drastiquement la quantité d’information, ces processus sont souvent à l’origine d’erreurs. Le même problème s’applique en sortie, nombreux sont les humains qui pensent bien plus vite qu’ils ne parlent ou écrivent. Supprimer ce goulet d’étranglement est une des principales motivations du projet Neuralink d’Elon Musk.

Le cerveau consomme déjà 20% des calories d’un adulte, et pas moins de 50% chez les enfants de 5 ans. Il est peu probable qu’il puisse dépasser ces niveaux. La haute fréquence des maladies neurologiques liés à l’oxydation des neurones laisse à penser que les progrès, même avec des outils d’édition du génome, seront lents et difficiles.

Les IA vont nous dépasser

Le cerveau humain est capable de concevoir des algorithmes ayant un rapport qualité/quantité de donnée/besoin de calcul tout à fait remarquable, résistant aux fausses données et aux erreurs. Mais ne travaillant qu’a partir d’approximations et ayant une capacité de calcul et de mémorisation limitée il ne peut atteindre la perfection. Pire, dans le cadre du big data notre incapacité à acquérir, stocker et traiter des quantités massives de données nous condamne à voir les machines évoluer aisément dans un espace intellectuel hors de notre portée.

Même si les IA restent inconscientes, un risque subsiste. L’IA pourrait avoir un comportement catastrophique en effectuant bêtement son travail avec une abnégation destructrice. Pour dépasser ce risque, l’humain doit intégrer les modules ultra performants de l’IA directement dans son système cérébral. Notre conscience augmentée bénéficiera des résultats des cogitations de l’IA et des données de sa mémoire numérique infaillible. Loin d’être mis en danger par la machine, notre libre arbitre n’en sera que perfectionné et renforcé.

Notre personnalité persistera

Une des caractéristiques essentielles qui séparent le cerveau humain de l’IA est qu’il n’enregistre pas les souvenirs dans des bibliothèques de données classées selon des critères normalisés. Pour compenser nos modestes capacités de stockage et de bande passante, la mémorisation à long terme n’est déclenchée qu’en présence d’un ensemble de données cohérentes et pertinentes. Elles doivent contenir un contexte, un récit, des mécanismes causaux logiques et surtout des émotions. Elles constituent alors un schéma mémoriel, format de stockage des données dans la mémoire à long terme des cerveaux biologiques.

Une fois intégrés dans un schéma mémoriel, les souvenirs remontent tous ensemble dans la conscience si un seul de leurs constituants est reconnu par le cortex supérieur. Ce système est très efficace pour remettre en jeu des solutions aux situations semblables vécues (ou comptées) par le passé. Les schémas mémoriels mêlant de multiples souvenirs sont la substance même de la personnalité et du caractère de l’individu. L’IA, qui possède à la fois une capacité de stockage extrême et des outils de recherche et de classification très performants, n’a pas besoin d’utiliser ce genre de dispositif pour stocker des ensembles d’informations utiles. Ce faisant elle ne peut développer l’expérience individuelle qui forge les personnalités et les motivations des êtres biologiques.

Pourquoi la recherche en IA a besoin du cerveau humain

Si l’humain va devoir intégrer l’IA dans son système cognitif, les progrès de l’IA furent et sont encore pour longtemps dépendant des progrès des neurosciences. Plus qu’une source d’inspiration initiale, le cerveau humain apporte régulièrement des solutions quand la recherche piétine.

Alan Turing et l’impossible programmation

La recherche sur l’IA ne démarre sérieusement qu’en 1950. Alan Turing publie alors un texte fondateur, Computing machinery and intelligence. Il y démontre que l’IA est inaccessible via une démarche d’ingénierie classique. Le code nécessaire serait long d’au moins un gigaoctet. Même aujourd’hui des systèmes cohérents et non bugués comprenant un milliard de lignes de codes sont impossibles à concevoir. Le système informatique du chasseur-bombardier F35, qui en comprend à peine 30 millions, est considéré comme dépassant les limites de ingénierie humaine.

Pour résoudre ce problème Alan Turing proposa de s’inspirer du vivant en reproduisant le programme initial d’un cerveau d’un enfant (qu’il décrit abusivement comme un carnet rempli de pages blanches) et en lui donnant des outils d’apprentissage. C’est le concept d’apprentissage automatisé ou machine learning. Complété par les réseaux de neurones artificiels et la sélection évolutive, l’apprentissage automatique est le cœur de la recherche sur l’intelligence artificielle.

Les réseaux de neurones artificiels et le machine learning

En 1943, le neurophysiologiste Warren McCulloch et le mathématicien Walter Pitts proposent un modèle décrivant le fonctionnement des neurones à l’aide de circuits électriques, établissant ainsi une base théorique pour les réseaux neuronaux. Quinze ans plus tard Frank Rosenblatt invente le perceptron, premier réseau artificiel de neurones capable d’apprendre.

Les réseaux de neurones artificiels apprennent via le paramétrage du biais du neurone et du poids des synapses les reliant. L’apprentissage automatisé ou machine learning consiste à faire évoluer ces variables pour obtenir de meilleurs résultats en sortie. Ce réglage ne se fait pas au hasard, il est possible de calculer un gradient qui estime le sens et l’ampleur des modifications à apporter à chaque synapse et neurone. Le cycle se répète pour affiner le système.

Les scientifiques sont très enthousiastes, sans doute trop. Reprenant les déclarations de son inventeur Frank Rosenblatt, le New York Times écrit en 1958 que les IA seront bientôt capables de marcher, parler, voir, écrire, se reproduire et être conscients de leur existence.

Pourtant si on le compare à un vrai cerveau organique, le perceptron n’était qu’une ébauche extrêmement simplifiée.
La couverture de Perceptrons (1969) illustre les limites des réseaux neuronaux des années 50-70. Ils étaient incapables de caractériser les différences entre les deux motifs, ce qu’un enfant peut faire en suivant les traits.

Même si les concepts existaient sur le papier pour résoudre ces problèmes, la modeste puissance des ordinateurs de l’époque ne permettait pas de les tester. Il faudra attendre les années 1980 pour voir les premiers réseaux récurrents et multicouches relancer l’ascension de l’IA.

Evolutionnary computing

Evolutionary programming ou la programmation par simulation de l’évolution est une forme particulière de machine learning. Elle résulte de la fusion de deux concepts nés dans les années 60-70, les algorithmes génétiques de Lawrence J. Fogel et John Henry Holland et les stratégies évolutives de Ingo Rechenberg et Hans-Paul Schwefel. Au début des années 90 les capacités des ordinateurs devinrent suffisantes pour soutenir des mondes virtuels où les différents algorithmes sont mis en compétition.

Dans les simulations les algorithmes non performants sont éliminés, les survivant sont hybridés pour donner naissance à de nouveaux programmes qui sont à leur tour soumis au même processus. Même les erreurs dans la copie des programmes deviennent des sources d’innovation parfois bénéfiques, comme les mutations dans l’ADN. Le Robot Aibo de Sony a appris à marcher avec ce process.

Le deep learning sauvé par la biologie

Le deep learning ou apprentissage profond est une évolution du machine learning qui se distingue par le très grand nombre de couches de neurones. Bien qu’en théorie illimitée, l’accumulation de couches atteint en pratique très rapidement ses limites. Il devient impossible de calculer le gradient qui permet de régler le poids des synapses et des biais des neurones, ce qui stoppe le processus d’apprentissage. Deux solutions, directement inspirées par la biologie, contribuent aujourd’hui à surmonter partiellement ce problème.

La première est l’utilisation de réseaux de convolutions permettant de traiter en plusieurs étapes un problème. Il est alors possible de calculer un gradient au niveau de chaque sous-couche.

Dans le cas d’une analyse d’image la première couche se contentera de mesurer la luminosité, la seconde de repérer les pixels ayant la même couleur que leur voisin, la troisième de rechercher les lignes directrices, la quatrième identifiera des structures, la cinquième recensera les composants simples (yeux, bouches) et la sixième reliera les composants pour inférer des concepts plus abstraits comme des personnes ou des animaux.

La seconde solution est le neurone pyramidal. En reliant des couches éloignées directement, comme une autoroute, il renforce l’interconnexion de l’ensemble. Ces voies rapides permettent (en théorie) de faire fonctionner jusqu’à 1200 couches neurones.

Une autre inspiration biologique à l’origine du boom du deep learning est l’introduction d’erreurs dans les neurones artificiels. Ces erreurs ou Dropout aident les IA à généraliser les données (qui sont de toute façon imparfaites, comme les images bruitées) qui les nourrissent en créant de nouvelles données avec un bruit différent. Elles obligent les IA à adopter des systèmes de décision plus robustes (rasoir d’Occam) capables de surmonter l’erreur. Une autre astuce consiste à diviser les réseaux en sous-systèmes caractérisés par des neurones dysfonctionnels différents. Leurs apprentissages sont ensuite combinés pour créer un algorithme synthétique particulièrement robuste.

De l’interdépendance à l’interface humain machine


Ghost In The Shell, Masamune Shirow.

La clef de la problématique de l’IA est l’origine et la fonction de la conscience. La diversité de ses composants fait du cerveau animal et humain un espace spécialement configuré pour l’émergence de la conscience. Rien ne nous interdit de développer l’IA sans limite de puissance brute, mais sans jamais lui donner une configuration autorisant cette émergence. L’IA se bornerait à réaliser les tâches spécialisées qu’une conscience humaine viendrait lui soumettre.

L’Humain augmenté, intégrant l’IA comme un simple réseau cognitif parmi d’autres, combinerait la capacité biologique de créer très rapidement des modèles simples et efficaces et celle d’acquérir des données en masse, sans limite de stockage, pour peaufiner ses algorithmes de décision jusqu’à la perfection. Il pourrait explorer l’univers des big data et des modélisations lourdes qui aujourd’hui ne peuvent être abordés qu’à travers des outils informatiques externes. L’interface humain-machine s’affirme comme la seule solution pour sécuriser l’activité de l’IA et enclencher notre seconde révolution cognitive.

One Comment
  1. yoananda

    Thèse intéressante, marier "notre" conscience avec la puissance de calcul de l'IA ... pourquoi pas. Quelques petites remarques, sans conséquences sur le fond : * vous n'avez pas mentionné les réseaux de neurones adversariaux. Pour un article parlant de "fusion cerveau-IA" je trouve ça étonnant. * vous parlez des "erreurs" du cerveau. Bien que je puisse comprendre l'usage de ce vocabulaire, vu le reste de l'article, je trouve ça maladroit. Le cerveau est (j'affirme sans démontrer, je sais que c'est contestable, mais je simplifie) est une machine bayiesienne. A ce titre, il ne fait pas d'erreurs, il fait des inférences, elles sont toutes partiellement fausses, ou suffisamment vraies. Tout est "biais cognitif", il n'y a pas de pensée fausse car il n'y a pas de pensées juste, il y a juste des approximations utiles * vous parlez de libre arbitre, et la, vu le reste de l'article qui se veut scientifique, je ne vois pas ce que cette notion religieuse (chrétienne) vient faire la ! Le libre arbitre a été inventé par les pères de l'église pour justifier pourquoi tant de souffrance sur terre alors que Dieu est censé être bon, omniscient et omnipotent : et bien nous aurions choisis ... de souffrir ! (lol) ... Cette notion n'a aucun fondement scientifique et plus la recherche avance, moins elle "trouve" de libre arbitre (Robert Sapolsky par exemple qui vulgarise bien à ce sujet). * dans l'absolu, l'IA ne fait pas mieux que nous en terme de nature, c'est aussi une machine bayésienne. Elle pourra inférer sur plus de données, certes, mais ça ne supprimera pas les biais, ils sont les même que notre cerveau. A priori je vois mal ce que l'IA pourra faire de mieux, si ce n'est proposer une forme d'intelligence collective, voire ... collectiviste (puisque tout le monde ira sûrement puiser dans le même "pool" de données). ======== Et c'est la que réside le danger (pour faire simple, dans la conséquence de cette intelligence collectiviste : l'eusocialité). Ce qui m'étonne c'est que des libéraux ne semble pas voir ce paradoxe ... L'IA ne va pas augmenter notre supposé libre arbitre, c'est l'inverse, elle va nous donner les "meilleurs" choix, donc, supprimer le choix. Pourquoi l'IA vous donnerait-elle 2 options plutôt que la meilleure ? pourquoi refuseriez vous le meilleur choix possible ? Je m'étonne de tous ces articles sur ce futur merveilleux prométhéen, ou l'on va se débarrasser des limitations de l'évolution, mais, sans rien proposer de mieux que l'évolution.

Leave a comment

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *