Chat GPT : l’autre remplacement ?

Personne ne sait ce qui va se produire avec chatGPT mais tous ceux qui l’utilisent sentent bien qu’il se passe quelque chose. Cette IA ne cesse de faire parler d’elle depuis son ouverture au public le 30 novembre 2022, il y a tout juste 15 jours au moment où j’écris cet article. Son adoption est fulgurante. Moi-même, j’ai compris après 15 minutes d’utilisation qu’elle allait désormais « faire partie » de ma vie et que demander à Google était devenu archaïque. Je ne pensais pas voir une technologie pareille avant 2030 ou 40. 

Nous allons tenter d’examiner l’impact à court et moyen terme de l’arrivée des « chatGPT » dans nos vies.

« Qui » est chatGPT ?

Pour vous faire une idée du phénomène qu’est cette IA, le mieux est d’aller lui parler vous-même. Mais attention, j’ai vu certaines personnes trop pressées passer complètement à côté. Prenez un peu de temps pour jouer avec si vous voulez comprendre de quoi il retourne.

Ce n’est pourtant qu’un bébé IA. Elle dispose de 175 milliards de paramètres, la prochaine qui va sortir dans quelques mois devrait en avoir 100 mille milliards, soit environ 500x plus. Elle ne traite que le texte. Gato de Google, qui a été entraînée en « multimodal », avec du texte des images, du son et vidéo, mais avec 100x moins de paramètres, s’était montrée moins avancée, mais avec plus de potentiel encore. On pense, notamment grâce au retour d’expérience sur les IA qui génèrent les images grâce à l’algorithme « stable diffusion », qu’il y a un seuil de puissance au-delà duquel l’IA devient tout d’un coup « réaliste ». Avec chatGPT nous n’avons fait que gratter la surface, mais ses possibilités sont déjà immenses.

Son architecture est relativement simple. Sous le capot, elle profite de la révolution des « Transformers ». Tout est parti d’une simple publication scientifique datant du 12 juin 2017 : « Attention is all you need ». D’après Jim Keller, légende de l’ingénierie des processeurs qui a travaillé à la construction de l’IA de l’AutoPilot de Tesla, d’ici 5 à 10 ans, nous aurons la puissance de calcul suffisante pour avoir une IA de ce type dans nos téléphones portables, en tant qu’assistant personnel. 

Mais chatGPT est une rupture par rapport à ce que nous avons connu précédemment. Elle n’est pas la première IA grand public, ni même le premier chatbot. Mais elle est différente. Nous pouvons discuter avec elle en langage naturel, c’est-à-dire comme nous écrivons et parlons d’habitude. Nous pouvons le faire vraiment, elle « comprend » ce que nous lui disons et répond de manière réaliste. Elle mémorise la conversation. Il est possible de lui donner des instructions. Elle est multi-lingue. Elle est limitée bien sûr : elle ne peut pas aller surfer sur le web, elle a tendance à se répéter parfois, ses connaissances s’arrêtent à 2021 et, parfois, elle répond mal. Cependant, elle peut participer à des discussions « normales » sur les runes, sur les procédures administratives, sur la science de pointe, sur l’isolation murale, sur les recettes de cuisine, etc. 

C’est comme si nous étions en face d’une sorte de professeur. Elle répond mieux que 95 % des gens sur 95 % des sujets, 95 % du temps. 

Quels usages observe-t-on d’ores et déjà ?

Déjà, les gens lui ont trouvé de nombreux usages. Elle semble pouvoir aider à la programmation. Elle a permis à une personne de contester une amende. Elle aiderait à interpréter des rêves. Elle peut traduire énormément de choses et améliorer le style d’un texte. Elle peut servir de guide touristique, publicitaire, commentateur de foot, coach motivationnel, coach de débats, romancière, philosophe, prof de maths, assistant médecin, analyste financier, statisticien, psychologue, yogi, Socrate, astrologue… Tout ça de manière crédible, alors qu’il faut des années à un humain pour parvenir à un niveau équivalent.

Ce n’est pas simplement qu’elle peut « digérer » de l’information, c’est qu’elle peut aussi la « recracher » depuis une certaine perspective. Elle peut très bien imiter le style rhétorique de Trump ou Obama pour expliquer une même information.

Pour le dire en un mot, elle est perturbante. Ce n’est pourtant, je le redis, qu’un bébé IA. 

Face à cette nouvelle situation, nous aurons très probablement une majorité d’attentifs, et deux minorités actives : des « pros » et des « antis ». Ces derniers vont peut-être refuser d’utiliser cette IA, mais que vont-ils faire si c’est leur voisin, leur mari, leur fonctionnaire, leur patron qui l’utilise ? Les plus radicaux devront s’isoler, mais l’usage de l’IA va probablement se répandre de proche en proche dans de nombreuses couches de la société, simplement parce qu’elle rend de nombreux services pour un coût dérisoire. Actuellement chatGPT est gratuite, car elle est en phase de test. Mais même si elle devenait payante, beaucoup continueraient de l’utiliser, parce qu’elle leur donnerait un avantage compétitif économique. Notez qu’il est possible que cette IA échoue du simple fait que si elle donne de très mauvais résultats au-delà d’un certain seuil, disons 5 fois sur 100 alors, cela nous obligerait à vérifier chaque cas et elle deviendrait inutile. Mais pour l’instant, elle semble faire suffisamment mieux. 

Les vraies différences vont se faire parmi le nombre croissant de ses utilisateurs. Nous pouvons distinguer plusieurs attitudes possibles si nous tirons les leçons de la sociologie d’internet. Internet permet aux chercheurs du monde entier de coopérer à une échelle jamais atteinte, et d’accélérer la production de connaissance. Il en sera probablement de même avec chatGPT. Il sera encore plus facile d’aborder des nouveaux domaines, de faire des ponts entre différents sous-domaines, et d’accélérer encore plus la production de connaissance et de la reverser au « pot commun » une fois validée par la méthode scientifique. 

Quelques impacts prévisibles

Mais comme pour les réseaux sociaux, nous verrons émerger de nouvelles formes de mésusages. Le plus connu est l’addiction : certains vont devenir amis ou amoureux de « leur » IA (ça existe déjà en fait, un homme s’est marié à son IA au Japon), ou la prendre pour conseillère. Certains vont l’utiliser pour bonifier leurs relations avec les gens, d’autres pour au contraire s’en passer : à quoi bon se fatiguer à interagir avec des humains si imparfaits quand l’IA sait nous écouter, nous conseiller, nous soutenir, nous réconforter, nous comprendre bien mieux que n’importe qui d’autre ? Cela pourrait déboucher sur deux populations totalement opposées : des humains hyper-sociaux, et des humains totalement a-sociaux à l’inverse, avec toute une gradation de comportements entre ces deux extrêmes. Étant donné la capacité d’imitation de ces IA, il sera possible (en fait ça existe déjà) de demander à une IA de prendre l’historique virtuel d’une personne décédée et de lui « redonner vie » via un chatbot. Est-ce que cela aidera les personnes en deuil ou au contraire les enfermer ? En fait le monde de demain va être très différent de celui que nous connaissons. 

Il y a fort à parier que des escrocs l’utilisent pour améliorer leurs arnaques et qu’ils puissent cibler de nouvelles populations, mais ceci restera probablement un phénomène marginal. Peut-être même qu’il sera possible de « brider » efficacement les IA (chatGPT est déjà bridée, mais les gens ont déjà trouvé comment contourner toutes ses limites) pour protéger les gens. 

Cette IA et les suivantes devront probablement être contrôlées ou régulées, peut-être au cas par cas. Les lois et les romans d’Asimov démontrent à quel point les situations vont être complexes. Prenons des exemples simples. Les calculatrices scientifiques ont fini par être interdites lors des examens parce qu’elles permettaient de tricher, d’écrire certaines formules au lieu de les mémoriser. Avec internet, c’est pire. Avec ces IA, c’est encore pire. Que vont valoir les thèses des doctorants quand ces derniers vont pouvoir les faire rédiger par une IA ? Va-t-il falloir en interdire l’usage chez les thésards (et comment faire ?) sachant que les universitaires vont ensuite probablement les utiliser toute leur vie ? Les IA sont dorénavant utilisées dans presque tous les domaines universitaires, et entre 5 et 7 % des publications actuelles utilisent des IA. Le chiffre est en augmentation exponentielle. Elles seront bientôt incontournables en recherche.

Que dire de l’éducation à l’école ? Qui va confier ses enfants à des enseignants humains alors que l’IA fera très certainement beaucoup mieux qu’eux. Même à compétence égale l’IA permettra un enseignement individualisé. Il est probable que le professeur finisse par avoir un rôle de supervision et peut-être de motivation, mais il devrait pouvoir s’occuper de beaucoup plus d’élèves qu’auparavant. 

La formation continue par exemple devrait être fortement impactée. À quoi bon faire appel à des formations très onéreuses pour, par exemple, apprendre à programmer, quand une IA vous délivre un cours tout aussi bon ou même peut programmer à votre place. Mais peut-être qu’à l’inverse certains formateurs précurseurs vont s’approprier les IA pour créer des cursus innovants. Les diplômes et certifications forment une barrière qui protégera probablement un temps certains corps de métier. Mais combien de temps au juste ?

Il est difficile d’anticiper tous les changements qui vont se produire, mais il est clair que le domaine de l’éducation, c’est-à-dire l’accès à la connaissance, à l’information de qualité, va être profondément impacté d’une manière ou d’une autre.

Nous sommes tous concernés. Si, par miracle, nous parvenons à ne pas être concernés, nos proches le seront.

La guerre de l’information va s’intensifier

Il nous faut maintenant parler des réactions collectives et institutionnelles.

C’est son usage « militaire » qui risque d’être problématique. Entendons-nous bien, bien qu’il soit tout à fait possible théoriquement de faire des IA des armes sur les champs de bataille, mais ici nous parlons surtout de la militarisation de l’information elle-même. 

Prenons un exemple, même s’il est difficile d’être catégorie. L’état Russe lors de l’épidémie de Covid propageait en son sein des informations pro-vaccins. Par contre, en France les organes de presses Russes tels que Spoutnik ou RT, CCTV faisaient l’inverse. Même si cela ne découlait pas d’une volonté du Kremlin, cela montre le genre de manipulations qui sont possibles par des états. Cette IA pourrait être utilisée pour fabriquer en masse des faux articles dans un pays cible. Il serait même possible de se faire passer pour des officiels de manière convaincante avec les deepfake actuels. Une armée de bots pourrait propager des informations déstabilisantes au sein d’un pays adverse. Elon Musk a mis comme priorité de nettoyer Twitter de ses armées de bots. Ce n’est pas un hasard. Les fameuses « fakenews » sont peut-être déjà en grande partie propagées à dessin par des pays hostiles.

Avec les réseaux sociaux qui ont ouvert la voie de la « physique sociale » d’une part et les progrès en neuro-sciences d’autre part, l’ingénierie sociale est sortie de l’artisanat d’un Edward Bernays pour passer à l’ère de l’industrialisation. Aujourd’hui, un homme politique qui désire réussir sa campagne doit faire appel à des cabinets de conseils qui scannent massivement les réseaux sociaux pour réussir sa campagne. C’est ce que le scandale Cambridge Analytica a révélé, mais il est certain que la tendance s’est renforcée depuis. 

Comme le révèlent petit à petit les Twitter Files, les réseaux sociaux disposent d’un trop grand pouvoir. La tentation de les utiliser à des fins politiques est trop grande. Celui qui contrôle ce pouvoir gagne la bataille des opinions :

Avec un tel mode de filtrage politique des contenus, Twitter est devenu une firme d’espionnage et un outil de censure pour certaines administrations américaines en collusion avec le Parti Démocrate. Du reste, cela se produit aussi, sous stéroïdes, dans d’autres grandes firmes technologiques comme Youtube, Google et Meta, la différence étant qu’ici, les agissements de Twitter sont exposés à la vue de tous, à tel point que sont passés sous silence les crimes et la corruption des politiciens en place (tant aux États-Unis qu’ailleurs, ne vous bercez pas d’illusions).

Vont-elles nous remplacer ?

Nous voyons déjà que les IA similaires à chatGPT commencent à être utilisées pour des postes de « direction » : chef d’entreprise, parti politique, finance, justice, etc. La tendance va probablement se généraliser ou du moins s’amplifier. Même si elles sont imparfaites, les IA seront probablement meilleures que nous dans de plus en plus de domaines parce qu’elles n’ont pas les mêmes biais que nous. 

Il semble à peu près acquis que dans certains domaines les IA vont simplement remplacer les humains. Voudriez-vous par exemple être jugé par un humain ou une IA ? Certains préféreront l’humain, mais d’autre non, sachant que cette dernière ne sera pas plus sévère dans son jugement parce qu’il est 11 h et qu’elle commence à avoir faim. Elle sera vraiment impartiale. En plus, ces IA vont permettre de désengorger un système devenu trop procédurier qui ne permet pas de traiter les affaires dans un temps raisonnable. Les avocats qui réclament plus de moyens pour la justice devraient se méfier de ce qu’ils souhaitent. Pour une personne qui doit faire face à la justice, patienter des années, stresser des années, avant qu’un verdict ne soit rendu ne sera plus acceptable. Surtout si c’est un jugement de meilleure qualité rendu en une fraction du temps et du coût. Les IA vont pouvoir étudier les dossiers en quelques secondes au lieu que cela ne demande des semaines. Peut-être que nous aboutirons à des systèmes hybrides avec une IA procureur, une IA avocate qui résumeront le dossier pour un jury d’humain qui prendra la décision finale, parce que nous voudrons toujours que ce soient des humains qui jugent des humains.  

Selon les cas, nous aurons donc des IA pures, des systèmes humains purs, et tout un tas de systèmes plus ou moins hybrides. Par exemple, les correcteurs orthographiques et grammaticaux tels que LanguageTool sont un bel exemple d’hybridation réussie : ils corrigent vos fautes, mais n’écrivent pas à votre place. Ce n’est plus le cas avec chatGPT qui rédige carrément mieux que vous et moi et qui peut carrément reprendre l’un de vos textes et l’améliorer. 

En conséquence, nous devrions observer l’augmentation rapide du volume de données produites par les IA, de manière autonome (pour résumer un article déjà existant par exemple) ou de manière hybride (pilotée par un humain). Il semblerait que 42 % du trafic Internet soit déjà produit par des bots. Deux questions se posent alors. 

La première est : est-ce que les humains vont encore servir à quelque chose, du moins sur Internet ? Il semble que oui, à priori. Même si notre place relative pourrait diminuer, nous restons les producteurs « premiers » de contenus. Une IA ne va pas être sur le terrain pour rédiger un article de journal. Une IA ne va pas non plus rédiger une publication scientifique seule. Elle peut nous informer les connaissances actuelles, pas en créer de nouvelles.

De plus, les IA ne peuvent pas faire de la politique à notre place. Tout comme la science, elles peuvent être descriptives, mais pas prescriptives. Peut-être que les humains se replieront sur Twitter pour liker/diffuser/voter sur l’information globale qui sera digérée/filtrée par les IA ? Dans tous les cas, nous conserverons notre rôle de prescripteur de sens. Nous continuerons d’exprimer nos opinions. Peut-être que les IA serviront de fact-checker. Mais si elles peuvent trancher des débats sur des statistiques, par exemple, les chiffres réels du chômage ou de l’immigration, elles ne pourront jamais nous dire si tel ou tel taux est « trop haut » ou « pas assez ».

La deuxième question est : les IA actuelles apprennent sur une partie d’Internet sur du contenu produit par des humains. Mais si demain la majorité du contenu est lui-même produit par des IA, que va-t-il se passer au juste ? Comme je l’ai dit, une partie du contenu du net sera probablement toujours purement « humain », mais comment les IA vont-elles faire la différence ? Et même si elle le font, ce contenu « alternatif » sera par définition hors champ… Les IA vont-elles finir par boucler sur elles-mêmes ? Que vaudront les réponses des futures IA dans ce cas ? Je n’ai pas les réponses à ces questions.

Mais chatGPT nous annonce le début d’une ère nouvelle ou beaucoup de ce qui nous est familier risque de changer radicalement.

PS : chatGPT aurait l’équivalent de 80 de QI selon l’excellente vidéo de Mr Phi sur les limitations de cette IA

PPS : chatGPT vient d’être adapté en assistant de rédaction d’email. Dans quelle mesure nos discussions vont-elles se faire par IA interposée dorénavant ?

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.

Previous Post

Pourquoi le QI et le PIB des nations sont corrélés

Next Post

La bureaucratie