Avec l’écologie, le féminisme et l’immigration, la morale est au cœur de nombreux débats en occident, et nous avons tous été arraisonnés à ce sujet d’une manière ou d’une autre. Or, de ce que j’observe, il n’y a pas vraiment de débat sur la morale dans l’espace public (ou alors, ils ont lieu à des heures où personne ne regarde), mais de simples injonctions à « LA » morale, comme s’il n’y en avait qu’une et que la question était entendue. J’en veux pour preuve, un exemple parmi d’autres, la récente scission de la zététique.
Je ne remets pas en cause la posture moraliste. Ces sujets sont bel et bien du domaine de la morale. En revanche, je me place ici dans une perspective post-humaniste. En d’autres mots, je critique l’humanisme sous-jacent à ces débats. Il n’y a pas qu’une seule morale possible même si, pour faire société, il faut bien en choisir une.
Je pense que l’humanisme est dépassé, et qu’il se « crispe » sur une position altruiste pathologique, si je puis dire. Comme il n’est plus la bonne grille d’analyse, notre société se retrouve prise dans un immense paradoxe d’Abilène, une situation dans laquelle les membres d’un groupe prennent une décision collective qui, bien que contraire aux souhaits de chacun, est prise, car ils supposent que c’est ce que les autres membres du groupe veulent…
Comme le débat et la raison n’ont plus court sur LES morales, ce sont les émotions et les postures qui prennent le relais face à LA morale imposée.
Nous nous retrouvons ainsi face à de plus en plus de moraline ou d’hypermorale telle que définie par Arnold Gehlen comme un mélange d’eudémonisme et d’humanitarisme (voir à ce sujet l’excellente vidéo d’Ego Non) :
- l’eudémonisme : le but de la vie humaine est le bonheur,
- l’humanitarisme : l’amour maternel étendu à l’humanité toute entière, l’altruisme international.
L’hypermorale est donc une posture qui dérive de l’utilitarisme, qui revient à considérer que « le plus grand bien pour le plus grand monde » est forcément souhaitable, et dans laquelle l’altruisme est hypertrophié. En langage courant, ça revient à un bête « je suis plus altruiste que toi, donc j’ai raison ».
Cela peut sembler réducteur étant donné la complexité des débats philosophiques sur la morale, mais en tant que méméticien, je pense que les idées politiques qui se répandent et qui ont de la force sont réductibles à une sorte de PPCM (plus petit commun multiple) compréhensible par tous, qui expriment une sorte de pré-conscient collectif, un point de schelling qui évite de se perdre dans des considérations métaphysiques sans fin.
Examinons donc cette problématique du « je suis plus altruiste que toi » sous la forme d’une question : existe-t-il un absolu moral ?
La déconstruction est un peu longue, comme tout raisonnement, mais, une fois faite, elle se résume en une phrase simple qui permet de le reconstruire si besoin est. Si vous me suivez, vous ne tomberez plus dans le piège des hypermoralistes.
La construction de l’absolu moral
Je pars du principe qu’on ne peut pas construire a priori un système moral absolu cohérent (même s’il y a eu quelques tentatives discutables de la part des déontologistes), mais que l’on peut construire des systèmes moraux et les comparer, et dire « celui-ci est supérieur à celui-la » (même si le critère de comparaison reste arbitraire, au fond).
Du point de vue mathématique, on parle de « pré-ordre », quand on peut classer des éléments les uns par rapport aux autres, sans forcément pouvoir tous les comparer. Je ferme la parenthèse mathématique. Peut-on alors aboutir à un système qui serait meilleur que tous les autres ? Auquel cas, on aurait bel et bien un système moral absolu.
C’est assez simple en fait : plus un système inclut de monde, plus il sera considéré comme moral (un peu dans l’idée de l’impératif catégorique de Kant). Je vais donc définir une échelle morale. Chaque barreau sur l’échelle est « supérieur » au précédent, et donc, d’un point de vue moraliste, si vous vous placez sur un barreau supérieur, vous « gagnez ». (Je ne parle pas du détournement par des gens malhonnêtes de cet argument, je me situe dans une position idéale pour examiner la valeur de l’argument en lui-même.)
L’égoïsme est inférieur au népotisme, lui-même inférieur au tribalisme, inférieur au nationalisme, inférieur à l’humanisme. Et là, normalement, c’est le maximum, on a inclus tout ce qu’on pouvait, soit, tous les humains. Non ?
Eh bien non. Ce n’est valable que dans un système humaniste. Par exemple, les anti-spécistes proposent d’élargir l’altruisme aux animaux, du moins certains, notamment ceux qui sont proches de nous (les sentients), les mammifères en premier lieu, les animaux dotés d’un système nerveux dans un second temps.
Traité
Néoréactionnaire
Le premier livre de NIMH
Traité
Néoréactionnaire
Le premier livre de NIMH
Le niveau ultime de la morale
Nous pourrions déjà arguer une première « limitation » : l’altruisme ne fonctionne vraiment que si on voit l’autre comme une « autre soi-même », et non pas comme un « fondamentalement différent ». En fait, l’altruisme peut posséder un fond d’égoïsme si on adopte un point de vue plus laxe sur ce dernier : après tout, on a besoin des autres pour survivre et être heureux ! Mais laissons ça de côté.
Est-ce que le niveau « anti-spéciste » est le dernier et ultime niveau ? Non. Il y a 2 autres possibilités. Le premier consiste à considérer qu’il est important d’être altruiste envers les générations futures (certes humaines). Dans cette branche de la morale, on retrouve les « longtermistes », tel que Nick Bostrom ou Hans Jonas qui se demandent comment améliorer le plus possible le sort des futures générations. Enfin, il existe un « dernier » niveau (à ma connaissance du moins) qui vise à inclure des choses qui ne sont pas des organismes. Ce niveau n’est pas consensuel, mais il est très intuitif pour ceux qui ont une vision holistique, systémique ou thermodynamique. Il inclut différentes choses selon les sensibilités. Ce peut être les écosystèmes, ou bien tout ce qui manifeste de l’intelligence (incluant des colonies de microbes donc), ou l’ensemble du conscient, ce que certains pourraient appeler « Dieu » ou « Gaïa ». On pourrait aussi inclure les IA en tant que « système cognitif complexe inorganique ».
Si vous avez bien suivi, on peut étendre l’échelon « humaniste » selon 3 axes : l’un peut être considéré comme « spatial » quand on l’étend géographiquement à d’autres formes de vies semblables à nous, l’autre peut être considéré comme temporel quand on l’étend au futur, et enfin le dernier peut être considéré comme des niveaux de complexité d’information différents quand on l’étend à d’autres systèmes cognitifs.
Ces 3 axes ne peuvent pas se classer entre eux : est-ce que les animaux sont plus importants que les générations futures d’humains ou les écosystèmes ou les IA ? Et que des dires IA conscientes du futur ? (C’est pour ça qu’on parle de pré-ordre.) Ironiquement, les IA vont sûrement nous aider bientôt à décoder certains langages des animaux, auquel cas la cause animale et artificielle pourraient fusionner partiellement.
Quand on inclut ces derniers niveaux alors, être altruiste signifie transmettre le meilleur monde possible pour tout ce qui existe et existera.
En pratique, cela qui signifie s’améliorer soi-même autant que possible pour le profit du reste du monde. Par exemple, fumer devient une aberration puisque vous abîmez votre corps. Si vous êtes une femme qui va faire des enfants, vous transmettez des tares épigénétiques à vos enfants et donc vous diminuez le bien-être futur de l’ensemble. Donc, être altruiste dans ce « niveau » revient à faire tout pour être en bonne santé et prospère pour transmettre un meilleur avenir à vos enfants et au reste du monde et du vivant et ne pas être une charge pour les autres. Être en bonne santé peut être vu comme de l’égoïsme ou comme de l’altruisme.
Altruisme et égoïsme deviennent presque indifférenciables si on pousse la logique morale à son terme. Je dis « presque » parce qu’il y a quand même des nuances plus ou moins subtiles qui vont apparaître en fonction des circonstances. L’égoïsme, ce n’est pas de l’altruisme. « L’égoïsme altruiste » ou « l’altruisme égoïste » n’existent que pour une personne capable d’empathie. Sinon, c’est vraiment de l’égoïsme.
À titre personnel, j’estime que l’évolution nous a déjà façonnés de la sorte et que nos instincts d’animaux sociaux sont déjà l’expression de cet « égoïsme altruiste ». Cette vision des choses est appuyée par les travaux des éthologues et on la retrouve dans la psycho-evo (voir la série de Homo Fabulous sur la morale).
Horreur
Augmentée
Sélection de textes de
Zero HP Lovecraft
Horreur
Augmentée
Sélection de textes de
Zero HP Lovecraft
L’absurdité de l’absolu
Définir un « bien absolu » aboutit à une autre absurdité pratique. On ne peut pas se préoccuper de tous les êtres existants et à venir tout court, et on ne peut pas le faire sans se préoccuper de soi-même. Le bien sera toujours relatif à une personne, à sa subjectivité, au contexte dans lequel elle se place. Une morale sera toujours relative à un but, et au final, qui peut dire quel est le « vrai » ou le « meilleur » but ?
Disons que le meilleur but soit le plus grand possible. Si l’intérêt d’une personne doit s’effacer devant celui de l’humanité, alors, pour la même raison, l’intérêt de l’humanité doit s’effacer devant celui de l’ensemble du vivant. Auquel cas, peut-être que pour le bien du « vivant » sur terre, il serait préférable que l’humanité disparaisse. Allez savoir !
Donc le mieux serait la fin de l’humanité ? C’est difficile à avaler pour un humain tout de même. C’est pourtant tout à fait défendable du point de vue rationnel. Mais alors, à l’inverse, pourquoi le bien de l’humanité serait-il supérieur au bien d’un échelon inférieur comme la nation ? Si on ne peut pas dire que le bien des animaux est supérieur à celui des humains, alors on ne peut pas dire l’inverse non plus dans la direction opposée sur l’échelle morale.
À moins de déclarer que les humains sont « supérieurs » aux animaux (ce qui est le fondement de l’humanisme : l’humain est la mesure de toute chose, il est exceptionnel). Le problème, c’est que cette posture ne peut être que théorique. Dès qu’on passe à la pratique, on va définir des critères objectifs de supériorité. Mais si on fait ça, rien ne va empêcher de déclarer, sur des critères similaires, que des humains sont supérieurs à d’autres humains. Choisissez le critère que vous voulez, et faites l’exercice pour vous-même.
Il faut déjà exclure tous les critères récusés par la science : le langage, les outils, la culture, etc. Mais admettons, si on dit que l’humain est plus intelligent et si on fixe un seuil, alors certains humains seront en dessous de ce seuil. Même si on parle des outils ou de langage, certains humains seront forcément « au-dessus » d’autres. Peu importe le critère, s’il est objectif, on va classer les humains avec.
Il nous reste donc les critères fictifs. Si on parle d’âme, quelqu’un d’autre pourra venir que pour lui, certains humains n’ont pas d’âme (voir la controverse de Valladolid), ou bien, il pourra proposer une autre fiction qui lui convient mieux. On n’en sort pas, à moins d’imposer quelque chose par la force.
Et c’est là tout le problème de l’hypermoraliste. Dans la logique du plus-disant altruiste, pour sauver l’humanité, il est obligé de lui donner un critère de supériorité sur les animaux. Son critère est forcément moral, ce qui l’oblige du coup à se considérer comme supérieur à ceux qui ne partagent pas cette morale : les nationalistes ou les tribalistes ou les individualistes. Inconsciemment, ils se rapprochent des animaux en terme moraux. Ce faisant, il est de facto sur la pente glissante de la déshumanisation, et c’est pour cela qu’en face, on ressent de la terreur morale. Voilà où l’humanisme nous mène dans le contexte actuel, et on retrouve cette tendance refoulée dans de nombreux discours : à défaut de déshumaniser, on pathologise. Ce n’est pas un hasard, c’est une conséquence. La conséquence du fait que la morale n’est plus discutée, mais imposée.
L’individu, la tribu, la nation n’ont pas plus à s’effacer devant l’humanité que l’humanité devant le reste du vivant.
Que construire à la place ?
Il existe de nombreuses conceptions de la morale, mais j’estime qu’il nous faut construire un système moral post-humaniste, car je ne défends évidemment pas un retour au nationalisme « pur » qui souffre du même problème que l’humanisme « pur ».
À ma connaissance, ce système n’existe pas encore, bien qu’il y ait des embryons ici et là.
Ce système moral devra forcément être relativiste et subjectif. Il devra s’adapter dynamiquement au contexte auquel il s’applique, et parvenir à mettre d’accord le plus de monde possible pour fonctionner en société.
Comme il n’y a pas d’échelon absolu, il faut les prendre « tous », du moins, tous ceux qui ont de l’importance en pratique pour les gens, tous les échelons qui sont défendus par les gens, et les équilibrer. Quand je dis « équilibrer » j’entends : en fonction du contexte. Dans tel contexte, ce sont tels échelons qui sont pertinents, et dans tel autre contexte, ce sont tels autres échelons.
Actuellement, l’humanisme est limité à deux échelons : l’individu, l’humanité, au présent. C’est beaucoup trop réducteur, même si ça peut suffire comme base, ne serait-ce que pour ne pas avoir à réécrire toutes les lois. Nous avons besoin de l’échelon « vivant » pour gérer les problèmes écologiques, nous avons besoin de l’échelle « tribale » en réponse aux dérives technocratiques.
Le droit va déjà dans ce sens puisque certains juristes ont introduit la notion de droit des peuples autochtones, il y a aussi des tentatives d’introduire la notion d’écosystème ici et là (voir le lac Erié). Plutôt que de bricoler au coup par coup, je pense qu’il faut carrément refonder une hiérarchie des normes du droit différente de celle héritée de l’époque humaniste, un peu comme dans zoopolis, la tentative la plus aboutie à ce jour pour inclure certains animaux dans la citoyenneté.
Je pense que nous pourrions élaborer un système moral/légal mieux adapté aux défis et contraintes de notre époque, avec des outils de collaboration en ligne, tels que ceux qui sont étudiés par les partisans de la démocratie liquide, des projets open-source (qui ont démontré leur savoir-faire dans le domaine collaboratif distribué), et (rêvons un peu) des états-réseaux à base IA et de blockchain.
Nous allons être obligés de revoir notre système légal et moral de fond en comble. D’abord pour des raisons écologiques comme je l’ai dit, mais aussi parce qu’il y a un nouvel acteur qui arrive : les IA. Nous avons déjà une notion de « personne morale » (pour les entreprises) qui a été construite lors du passage au capitalisme. Nous aurons probablement besoin d’étendre cette notion à celle de « personne numérique » voire de « personne animale » ou « personne systémique ».
Quel que soit ce nouveau système moral, il faudra qu’il soit cohérent, réaliste et extensible au maximum de situations concrètes s’il veut pouvoir être adopté. Le système humaniste n’a pas besoin d’être aboli, il a fait (relativement) ses preuves. Je suggère de l’amender, de s’en servir comme base.
Ce nouveau système moral post-humaniste devra forcément être pluraliste. Le système humaniste avait l’avantage de pouvoir être unique, l’humanité étant prise comme un tout et comme le seul tout qui compte, il était possible de l’envisager en tant que système unique universel. Ce ne sera plus possible. Il faudra donc commencer par trouver un cadre qui permet la cohabitation de plusieurs systèmes moraux.
Dans tous les cas, nous devons nous réarmer philosophiquement pour discuter le système moral dominant hérité de l’humanisme.