Ce qui m’embête souvent avec
Guénon, ce n’est pas Guénon lui-même, toujours important et instructif, mais
bien 80% des guénoniens qui me donnent envie d’enlever l’accent sur le é tant
ils grimacent. De ces grimaces, je ne ferai pas la liste, encore qu’elle soit
parfois fort drolatique. Mais j’en pointerai tout de même une : la
méfiance a priori envers la science,
ses méthodes et certaines de ses conclusions. Ceux qui rejettent toute
recherche scientifique oublient qu’il y a deux façons d’aborder la
science : celle des rationalistes et celle des vrais chercheurs. Comme il
y a d’ailleurs deux façons d’aborder la tradition : en fossilisant le
passé ou en suivant le fil d’or jusque vers le futur, un fil d’or qui
transcende le temps sans le nier. Je mettrais volontiers les rationalistes
hargneux et les traditionalistes fossilisateurs sur la même île déserte et
pendant qu’ils s’entrebattraient, on pourrait construire un monde vivant et
viable !
Fil d’or qui transcende le temps
sans le nier, disais-je. Les auteurs de l’antiquité profonde ne parlent jamais
du temps au singulier mais toujours des temps, au pluriel. Parfois les temps
désignent des cycles, comme dans le Livre de Daniel ou l’Apocalypse (un temps,
des temps et la moitié d’un temps) ; ce type de comput est le seul cas où
les auteurs s’autorisent à parler d’un temps au singulier. Lorsqu’il s’agit
d’englober le long terme, la durée, il est toujours question des temps. C’est
vrai en sumérien, en chaldéen, en hébreu, en égyptien et, si je ne m’abuse, en
persan avestique. On ne commence à trouver le temps au singulier, dans le sens
de durée, qu’avec le grec pré-classique (Hésiode, les présocratiques) et la
divinisation de Chronos. Les Chinois antiques vont beaucoup plus loin. Si l’on
comprend en profondeur la structure du I Jing, on s’aperçoit que le temps a
pour eux une structure quantique, corpusculaire, discontinue, dont
l’imbrication en écailles de tortue donne le sentiment de continuité.
Le
temps/les temps. Le grand mystère. Il est relativement facile d’aborder le
monde manifesté en pensant l’espace : il se déploie devant nos yeux, nos
oreilles, notre toucher. Pour les yeux qui savent voir, le visible devient tout
aussi aisément le langage de l’invisible. Mais le temps ? Pour
l’apprivoiser, il faut trouver un moyen de le repérer et dès que l’on veut
dépasser la simple alternance jour/nuit, lumière/obscurité, dépasser aussi la
simple sensation subjective du vieillissement, il n’y a pas mille solutions, il
faut compter des cycles astronomiques. Nous avons découvert un indice dans la
préhistoire profonde, au Magdalénien pour tout dire. Si l’on étudie la grotte
des Combarelles et que l’on compte les animaux gravés et peints, on s’aperçoit
que les 116 chevaux correspondent en jours à la révolution synodique de Mercure
ou à la demi révolution sidérale de Vénus, que les 19 ours permettent de
calculer des cycles lunaires en relation avec l’année sidérale et les 14 rennes
d’harmoniser les deux. Donc dès les premières traces archéologiques de notre
humanité, le souci du repérage temporel semble présent. Il n’est pas
utilitaire : pour suivre un troupeau de bovins et se tailler un bon
cuissot, mieux vaut mieux se fier aux traces de passage et aux odeurs qu’au
calendrier ! Pourtant l’on trouve des calendriers lunaires gravés sur os
dans les grottes les plus archaïques.
Mais
très vite — et nous sommes là aux sources de nombre de sacralisations
ultérieures — nos ancêtres vont se trouver obligés d’envisager des cycles
beaucoup plus longs. Quand on nous raconte que la précession des équinoxes a
été découverte par Hipparque vers -134, cela ne tient pas la route. Encore
qu’il l’ait peut-être redécouverte et calculée. Mais la précession s’est
forcément imposée comme fait, et de manière dramatique, au Magdalénien
justement. C’est toute la question du repérage précis de l’année. Avec un
système d’observation basé sur la longueur et l’orientation des ombres, il est
très difficile de définir exactement les solstices et les équinoxes, il y a un
flou de plusieurs jours. Donc le meilleur système, c’est celui que reprendront
les Egyptiens : le lever héliaque d’une étoile brillante. Pour des raisons
objectives qui tiennent à la répartition des étoiles observables, il n’y a
qu’une seule candidate possible dans l’hémisphère nord : Sirius. Mais du
fait de la précession des équinoxes et des pôles qui induit aussi un
balancement nord-sud et sud-nord du ciel observable, Sirius n’est pas toujours
visible plus au nord que le 27e parallèle. Vers -15000, lorsque
commence la « décoration » de la grotte des Combarelles, Sirius
devient de plus en plus difficilement observable et elle ne le redeviendra
vraiment qu’après -7000. Huit mille ans
sans repère stellaire pratique, cela fait un bail ! Loin d’être un constat
tardif, la précession et donc la conscience, si ce n’est encore le calcul
exact, de très longs cycles est un donné d’expérience dès les débuts de
l’astronomie. C’est sans doute même la disparition de Sirius qui va pousser les
hommes de l’hémisphère nord à affiner leurs observations astronomiques
Cela
signifie que la conscience temporelle, dès les origines de l’humanité, doit
prendre en compte deux faits d’expérience vécue : le temps comme flux
« linéaire » lié à l’expérience de transformations irréversibles
(l’arbre tombé ne se relève pas) et le temps cyclique, avec de très longs
cycles dépassant la vie humaine et même les trois ou quatre générations de la
mémoire sociale non fixée par des chants généalogiques, à l’intérieur desquels
on peut dégager des cycles plus courts, un temps cyclique inscrit dans les
astres. Qualitativement, il y a donc au moins deux temps. Si l’on ajoute une
troisième expérience, celle de l’extase, d’une durée qui n’est qualitativement
ni celle de l’irréversible ni celle du cycle, on ne peut parler que
« des » temps. Or cette intuition vécue des peuples archaïques est
corroborée et précisée aujourd’hui par la physique de pointe. Sauf en
relativité générale où l’on traite le temps comme une dimension (si ce n’est un
temps complexe à deux ou trois dimensions), il s’agit de la résultante de
phénomènes irréversibles, de phénomènes périodiques (donc cycliques), sans
parler des potentiels avancés où la causalité se fait du futur vers le passé,
de sa quantification (chronons, temps de Planck) et, pour couronner le tout,
ces temps sont aussi fonction du temps-dimension, donc on a affaire à une
réalité fractale qui, de plus, de par l’interaction avec le « vide
quantique », a du jeu. Le temps des horloges est décidément une
simplification abusive.
Au cœur
des déroulements irréversibles, il y a ce que l’on a nommé l’évolution. Il
s’agit plutôt d’une complexification croissante qui n’a de sens qu’à l’échelle
de l’univers puis, par une sorte d’écho fractal, à celui d’un écosystème
planétaire. Nous sommes là très loin du darwinisme pur et dur. Et cela
n’empêche pas cet univers en complexification de pulser aussi selon des cycles
enchevêtrés dans des cycles. Pour éclairer un peu le problème, j’inclus ici une
partie du chapitre introductif de nos recherches sur ce que Pascal Pastor et
moi avons nommé « loi générale de complexification ».
Revenons aux questions de fond
posées par l’existence de la loi de complexification. Notons immédiatement
qu’elle se déploie dans le temps. Mais qu’est-ce que le temps ? Tout comme
l’évolution, cette dimension apparaît avec le Big Bang, lequel est le premier
événement irréversible de l’univers. Même si nous ne pouvons rien dire de la
nature de ce dernier durant une infime fraction de seconde, le temps de Planck
(5,35.10--44 secondes), cette durée infinitésimale est déjà une durée. Même si
interviennent durant ce laps très bref ce que Costa de Beauregard nomme des
potentiels avancés, pour lesquels la causalité s’opère du futur vers le passé[1], il
n’en demeure pas moins que la première composante du réel tel que nous le
connaissons, apparue avant toute autre, est le temps — et qu’il se forge dans
des conditions telles que l’univers ne les connaîtra jamais plus. Nous ne
pouvons rien dire des transitions énergétiques au temps de Planck, sauf qu’elles font apparaître l’espace-temps,
substrat de toute réalité physique. Sans doute comportait-il alors plus de
dimensions que n’en révèle notre expérience sensorielle ou même nos instruments
de mesure, les cosmologistes en discutent, mais il est certain qu’il comportait
ou qu’il élaborait au moins ces dernières et particulièrement le temps.
Une
seconde remarque s’impose : le Big Bang apparaît au regard des physiciens comme
une singularité, l’état le plus hautement improbable que l’on puisse concevoir.
Or qui dit improbable dit information, par la définition même de cette
dernière, que l’on prenne ce terme au sens de message ou à celui, plus
fondamental, de « ce qui donne forme ». Encore une fois, nous ne
pouvons rien dire des transitions énergétiques au temps de Planck, sauf qu’elles font apparaître de
l’information ou, en d’autres termes, de la néguentropie. Nous ignorons si
elles comportent de l’entropie, cette dernière n’est accessible à l’analyse
qu’après cet instant infime, lorsque les interactions fondamentales commencent à
se différencier, mais la singularité même
du Big Bang est néguentropique. Or la complexification que mesure notre loi
générale d’évolution est une localisation d’états néguentropiques : le Big Bang
répond parfaitement à cette définition.
Le fait
que les deux composantes d’une évolution quelle qu’elle soit, temps et
néguentropie, soient nées à l’intérieur de la première réalité quantique de
l’univers nous suggère dès l’abord que sa description relève de la physique
fondamentale plus encore que de la biologie ou des sciences humaines. D’autre
part, le fait que l’on puisse exprimer cette évolution par une loi analogue à
toutes les autres lois physiques repose
ipso facto la question du hasard — la nécessité étant assurée par
l’existence même d’une régularité mathématique.
La
présence d’information — d’improbable — aux origines mêmes de l’univers
implique que ce dernier ait du jeu, des degrés internes de liberté, et cela dès
l’apparition de régularités physiques. Une des pires façons de penser le couple
entropie/néguentropie serait de le traduire en termes de désordre et d’ordre,
notions éminemment relatives, et de confondre le premier avec le hasard au sens
métaphysique. Lorsque l’on parle, scientifiquement, de forme aléatoire, cela
signifie simplement que l’on ne peut ni déduire ni induire : une suite
aléatoire, en mathématiques, est une suite de nombres que l’on ne peut pas
prévoir par le calcul, qui n’obéit à aucun algorithme. En d’autres termes,
l’aléatoire n’a de sens que par rapport à nos capacités de raisonnement et à
notre savoir antérieur. Il existe des limites infrangibles dues aux conditions
d’acquisition du savoir, aux conditions d’expérience, telles les relations
d’incertitude d’Heisenberg qui expriment le fait que toute mesure perturbe le
système, qu’en microphysique cette perturbation n’est pas négligeable et que,
donc, toute précision sur une donnée entraîne nécessairement un flou sur celle qui lui est associée, par exemple
position et vitesse d’une particule. Cette incertitude est vraie quel que soit
l’observateur, du moment que ce dernier appartient à l’univers physique, même
et surtout s’il s’agit d’une autre particule. En d’autres termes, l’aléatoire
apparaît comme la limite du déterminisme. Ce point est essentiel.
De
telles limitations intrinsèques apparaissent jusque dans le domaine logique et
déterministe par excellence que sont les mathématiques. Gregory Chaitin,
examinant la définition algorithmique des suites aléatoires a pu tirer
plusieurs conclusions déroutantes[2]. Tout
d’abord, il ajuste la définition : « L’idée fondamentale est que
l’information contenue dans une telle suite ne peut être comprimée ou mise sous
une forme plus réduite. (...) Une suite de chiffres est aléatoire quand le plus
petit algorithme nécessaire pour [l’engendrer] contient approximativement le
même nombre de bits que la suite. » En d’autres termes, on peut corréler
aléatoirité et information, donc, et c’est nous qui introduisons cette
conséquence, aléatoirité et néguentropie. Chaitin assimile, lui, comme conséquence
de cette définition, suite aléatoire et programme minimal (ou algorithme
minimal) en informatique[3],
avant de démontrer que la minimalité d’un programme ou l’aléatoirité d’une
suite ne sont pas démontrables.
A bien
des égards, l’univers fonctionne comme l’ordinateur virtuel qu’utilise Chaitin
pour sa démonstration, si on l’observe en termes d’information plutôt que de
mouvement ou d’énergie, et ses algorithmes sont, au moins, les « lois de
la nature », son déterminisme. Mais, pour engendrer ces lois ou ce déterminisme,
il faut des algorithmes minimaux qui, eux, sont information pure et donc nous
apparaissent comme aléatoires. En d’autres termes, l’aléatoire n’est pas
seulement la limite du déterminisme mais sa condition d’apparition, comme
l’axiome est la limite et la condition d’un système formel en mathématique,
voir le théorème de Gödel.
Mais
une telle définition entraîne des conséquences extrêmement importantes. Tout
d’abord, il devient impossible de définir cet aléatoire fondamental en termes
de « hasard » au sens philosophique courant, c’est à dire comme
absence de sens ou d’intentionnalité : rien n’est plus intentionnel qu’un
programme informatique et pourtant, s’il est minimal, sa forme sera aléatoire.
Rencontrer de l’aléatoire dans la nature signifie que l’on atteint la part
d’information irréductible et rien d’autre ; en tirer des conclusions
métaphysiques positives ou négatives est impossible, « hasard » et
intentionnalité se ressemblent formellement au point de rendre le choix entre
les deux scientifiquement indécidable. Dans les deux cas, on sortirait du
principe d’économie pour introduire une hypothèse supplémentaire. Nous sommes
là devant une limite éminemment kantienne.
Enfin,
n’oublions pas que, en pratique, l’aléatoirité ou la minimalité sont
indémontrables. Comment, en ce cas, aurions nous la certitude d’avoir atteint
le noyau d’information pure ? Ce que signifie le recours à l’aléatoire ou, si
l’on préfère, le caractère statistique des lois scientifiques, ce sont les
limites de l’observable, l’incertitude inhérente à toute mesure et, répétons
le, quel que soit l’observateur appartenant à l’univers. Par contre, il aisé de
démontrer qu’une suite n’est pas aléatoire, qu’un programme n’est pas minimal,
ou qu’un déterminisme est à l’oeuvre. C’est cette rupture de symétrie qui
entraîne, par exemple, l’accroissement du déterminisme avec les grands nombres
que l’on peut relier à un accroissement de l’observabilité ; c’est elle aussi
qui est responsable de l’illusion intellectuelle selon laquelle l’aléatoire se
confondrait avec le non-sens.
Ce que
nous venons de déduire des démonstrations de Gregory Chaitin forme la base
théorique de ce qu’il est convenu d’appeler les « théories du
chaos », terme on ne peut plus mal choisi et auquel nous préférons l’expression
de Prigogine, « théories des systèmes dissipatifs », théories qui ont
à voir avec notre questionnement puisqu’elles tentent de décrire de manière
thermodynamique des genèses ou des évolutions. Prigogine écrit à ce propos :
« L’opposition entre déterminisme et aléatoire est deux fois battue en
brèche. L’état attracteur simple, qui garantit la possibilité de prévoir de
façon déterministe l’état futur d’un système, peut (...) être interprété comme
la résultante de comportements microscopiques eux-mêmes représentés comme
essentiellement aléatoires. Mais inversement, une description macroscopique en
termes d’équations différentielles, qui semble incarner le déterminisme causal
puisqu’elle rattache la variation du système à un moment donné à l’état de ce
système en cet instant, engendre ici un comportement observable de type
aléatoire. C’est désormais autour des thèmes de la stabilité et de
l’instabilité que s’organisent nos descriptions du monde, et non autour de
l’opposition entre hasard et nécessité[4]. »
Le
terme de « théories du chaos » nous semble cependant mal choisi,
encore tributaire de cette opposition que Prigogine considère comme dépassée
dans la problématique scientifique globale, mal choisi car il tend à penser
l’univers en termes d’une dialectique du désordre et de l’ordre encore
confondus avec entropie et néguentropie. Le déséquilibre qui engendre la
dynamique des systèmes dissipatifs n’est pas un désordre ou, du moins, pas le
même désordre que celui qu’envisageait la seconde loi de la thermodynamique. Il
est fondamentalement cet aléatoire créateur de déterminisme, condition de toute
genèse et de toute évolution, surgissement d’information. L’existence d’une loi
d’évolution globale, de la complexification telle que nous la décrivons, en
fait pour le moins un « désordre » orienté, téléonomique. Ou, pour le
dire autrement, il se pourrait que la vieille « cause finale » de la
scolastique revienne nous narguer sous la forme d’un attracteur temporel
informatif peut-être source des potentiels avancés de Costa de Beauregard.
C’est
essentiel : le fondement de l’univers n’est pas la matière ni même
l’énergie, mais une information pure qui va se déployer et se manifester de
plus en plus finement, y compris au travers de cycles. Certains de ces cycles
sont observables par les yeux de chair, en particulier les cycles
astronomiques, saisonniers, etc. D’autres ne sont accessibles que de manière
intuitive. Mais à l’intérieur du déploiement de l’univers, il ne s’agit pas de
simples remises à zéro du compteur, absurdes et désespérantes. On peut le voir
métaphoriquement comme une spirale, un hélicoïde qui a du sens : un sens
physique, une orientation ; et un sens spirituel, une signifiance.
Là, il
faut introduire une remarque qu’aucun traditionaliste n’a encore faite, à ma
connaissance. Lorsque les Hindous chiffrent la théorie des quatre âges, ils
réduisent la durée à chaque étape. Ils le font de façon simple et, à mon sens,
plus symbolique que scientifique. Mais avec les outils mathématiques dont ils
disposaient à l’époque, c’était la
meilleure approximation possible d’une loi exponentielle et même d’une loi
exponentielle fractale puisque les textes expliquent que, à l’intérieur de
chaque âge, on retrouve la loi des quatre âges. Devant ce constat, il y a deux
façons de l’aborder. On peut fossiliser le comput hindou, le répéter comme des
perroquets et « y croire » en écartant les données du réel si elles
ne se soumettent pas à la croyance cristallisée. Je connais nombre de
guénoniens ou d’hindouisants qui s’en tiennent à cette démarche. L’autre façon,
c’est d’essayer d’en comprendre le sens profond et, en s’appuyant sur des
données dont les rédacteurs du Védanta ne pouvaient pas disposer mais qui nous
sont accessibles aujourd’hui, refaire le travail de comput. C’est le sens de
nos recherches sur la « loi générale de complexification ». Nous
voulions vérifier la présence ou non d’une loi exponentielle dans le
déploiement de la création.
Deuxième
remarque. L’exponentielle, aussi tendue soit-elle, ne suffit pas. Une autre
leçon de la théorie des 4 âges, c’est que l’accélération doit être pensée en
couplage avec des « cycles », c’est à dire des phénomènes
périodiques. Mathématiquement, de telles pulsations se traduisent par une ou
des fonctions d’onde. La représentation symbolique graphique peut fort bien
être un hélicoïde mais dès qu’on veut le traduire en langage algébrique, il
faut passer par une fonction périodique et, très précisément, par une analyse
de Fourier. Et cela nous ouvre d’étonnantes perspectives car une analyse de
Fourier, c’est une recherche de résonances. En Alchimie, on parlait d’un art de
musique et Pythagore, de musique des sphères.
Enfin,
la composition d’une exponentielle « porteuse » et d’une analyse de
Fourier, d’une grande vague cosmique et de cycles internes plus ou moins grands
est fort intéressante. Elle permet de préciser des « seuils ». La
complexification ne se fait pas de manière uniforme. Il y a des phases
d’émergence, des sortes de sauts quantiques, suivis de phases de croissance et
de déclin relatif. Attention, ce déclin aboutit parfois à une disparition mais
pas toujours. Ou, plus exactement, il n’y a extinction (d’un écosystème, d’un
mode de civilisation) qu’à l’échelle globale. Les algues bleues n’ont
pratiquement pas bougé depuis 2 milliards d’années et des broutes, date de leur
émergence, mais elles ont perdu leur rôle d’agents de transformation de
l’atmosphère terrestre. Le « grand cycle des algues bleues », lui,
s’est achevé quand le rôle moteur a été repris par les eucaryotes pour
l’émergence d’une autre potentialité, d’une autre information, vers -1,5
milliard d’années. Sur la Terre du moins, l’écosystème dominé par les algues
bleues est définitivement achevé et son information « résorbée » ou,
si j’ose, « recyclée ».
Enfin,
la même courbe permet de rendre compte de l’histoire du cosmos depuis le Big
Bang, de la succession des espèces vivantes sur la Terre et de l’accumulation
des savoirs humains. On peut
calculer ces points temporels de passage, mais on s’aperçoit alors qu’il y a du
flou, une fourchette dont l’amplitude décroît avec l’accélération
exponentielle. Toutefois, s’il y a un certain flou dans les dates, du à un
principe quantique d’incertitude, on retrouve une précision tout à fait nette
si on ne cherche plus à dater mais si l’on prend comme unité de référence
l’intervalle entre deux seuils. Nous ne sommes plus alors dans l’espace-temps
réel, où cet intervalle décroît temporellement, mais dans un espace
« abstrait », un espace d’information, de signification pure, l’espace
des Idées platoniciennes par exemple. Du
Big Bang à nos jours, nous avons pu repérer 34 points. On peut alors les
compter de 2 en 2, de 3 en 3, etc. On
obtient alors des groupes de points reliés par le sens. C’est tout à fait
étonnant. Par exemple, si on les regroupe de 10 en 10, on va trouver dans le
même groupe l’apparition des vertébrés, l’invention du biface et la découverte
du zéro en mathématique, c’est à dire l’émergence, à des niveaux différents de
la spirale cyclique, de la symétrie axiale d’ordre 2. Ou bien, en comptant de 5
en 5, on peut regrouper l’apparition des eucaryotes, la différenciation entre
insectivores et herbivores/carnivores, le premier outil (chopper), la chasse en
groupe au gros gibier accompagnée d’une spécialisation de l’outillage lithique,
l’écriture et la révolution industrielle, c’est à dire une diversification qui implique la
coopération.
Le
point ultime de la courbe se situerait entre 2017 et 2023. Cette fois,
l’incertitude n’est pas due à une fourchette mais au fait qu’il s’agit d’un
seuil « explosif », où l’on passe une porte, à la limite, toutes les
nanosecondes ! Même si c’est le point d’inflexion d’une courbe en S, il
s’agit d’une forme de singularité analogue à ce que fut le Big Bang dans le
domaine physique, d’où ce flou.
Bon,
résumons en clair, si j’y parviens. L’univers naît d’une information colossale
qui se déploie comme une musique pleine de pulsations et de résonances dont le
tempo serait de plus en plus frénétique. Comme la forme de cette accélération
rythmique est la même quelle que soit l’échelle à laquelle on l’observe, quel
que soit le zoom pour parler un langage de cinéaste, on aboutit localement à de
nouvelles explosions d’information et la prochaine est prévisible pour notre
humanité quelque part entre 2017 et 2023. Cela ne veut pas dire que notre
humanité va disparaître, mais qu’elle va traverser une transformation majeure,
un seuil eschatologique.
A
partir de ce constat, plusieurs problèmes se posent. Tout d’abord, sommes nous
prêts pour une telle aventure ? Ce n’est pas certain et ce seuil là risque
d’être précédé d’une fameuse panique. Plus il s’approche et plus il risque d’y
avoir des attitudes aberrantes. Donc attention, restons centrés et attendons
nous à tout. Les « petits seuils » franchis jusqu’ici, s’ils ont
permis de déployer la grande musique du monde, ont déjà suscité des paniques,
des blocages, des retards, des chutes.
Et comme disait Cocteau : « Sauter une marche ne sert à rien,
il faut toujours la remonter après. » Sauf que, là, il faudrait avoir
vraiment franchi tout ce qui précède pour passer sans se brûler les ailes.
Relire la première épître aux Corinthiens.
Autre
problème : la triche. On ne peut pas aller contre le tempo, il est
consubstantiel à l’univers, tissé dans sa trame profonde. Mais certains peuvent
toujours essayer de modeler l’humanité selon leur visée idéologique avant le
passage, de tricher sur les conditions préalables. Et attention, on peut
tricher avec sincérité et générosité. Comme dit le proverbe, l’enfer est pavé
de bonnes intentions. La tentation de jouer au démiurge est d’autant plus forte
que le seuil à venir pourrait donner à l’humanité, ou à la part de l’humanité
qui passera la porte, je n’en sais rien et personne ne peut le savoir, une
réelle capacité démiurgique.
Et
c’est là où nous subodorons une ou des interventions d’infléchissement à
rebrousse-temps ou par des êtres capables de voir à l’avance plus que leurs
contemporains. Il y a un exercice périlleux mais instructif en histoire,
l’uchronie : si tel événement n’avait pas eu lieu, que se serait-il
passé ? Ou, à l’inverse, si tel événement évité s’était produit... ?
C’est en jouant avec cette méthode que je me suis aperçue, il y a longtemps,
que les Anglais devraient élever des statues à Jeanne d’Arc. Parce qu’enfin, si
Charles VII n’avait pas été sacré, si Henri V puis Edouard IV avaient
effectivement unifié les deux royaumes, l’Angleterre serait devenue, comme me
l’écrivait Aimé Michel avec qui j’en ai beaucoup discuté, « une sorte de
grande Corse au nord de la France » et l’anglais, bien loin de devenir la
langue véhiculaire planétaire de notre époque, serait resté une sorte de patois
local. Le Royaume-Uni franco-anglais aurait équilibré l’Europe en faisant pièce
à l’empire germanique, il n’y aurait peut-être pas eu de révolution française
et, en tout cas, l’Amérique du nord ne serait pas ce qu’elle est aujourd’hui.
Le
problème, c’est que Jeanne d’Arc n’a pas été seule à sauver l’indépendance, la
langue et la culture anglaises. Jusqu’ici, j’ai relevé 6 occurrences où l’union
a failli se faire et où elle a capoté sur de l’imprévisible ; quant à ce
qui concerne plus directement l’Amérique du nord, on compte jusqu'à 11 échecs
de l’implantation française. Qui donc disait : « une fois, c’est un
hasard ; deux fois, une coïncidence ; trois fois, une
conjuration » ? Et 17 fois, c’est quoi ? La patrouille du
temps ?
Voici
la liste résumée de ces 17 occurrences.
Le 7
décembre 1087, Guillaume le Conquérant, fondateur du royaume d’Angleterre meurt
à Rouen, alors qu’il tentait de conquérir aussi les territoires de Philippe 1er
de France. Son successeur ne poursuivra pas dans cette voie.
En
avril 1216, le dénommé Jean sans Terre a tellement exaspéré les barons anglais
qu’ils offrent le trône d’Angleterre à Philippe Auguste pour son fils Louis. Ce
dernier rameute son ost et traverse le channel, il ne tarde pas à prendre
Londres, dès juillet. Patatras. Le 19 octobre, Jean sans Terre meurt ; le
pape et les barons vont préférer la continuité dynastique, Henri III est élu
roi bien qu’il soit encore enfant et Louis n’a plus qu’à se rembarquer.
En
1340, Edouard III d’Angleterre, fils d’Isabelle de France et donc petit-fils de
Philippe le Bel, prétend à la couronne de France en tant que descendant direct,
contre Philippe de Valois (choisi par les pairs du royaume). C’est la première
phase de la guerre de cent ans. Les Anglais remportent des succès militaires
jusqu'à faire prisonnier en 1356 Jean le Bon, fils et successeur de
Philippe. Tout va basculer sur... la
météo. Le 12 avril 1360, alors que la conquête est presque achevée, qu’il ne
reste plus qu’à rentrer dans Paris, un terrible orage de grêle tue les chevaux
de l’armée anglaise. Faute de monture ou par le choc psychique de l’événement,
Edouard renonce au titre de roi de France le 8 mai suivant. Jean le Bon est
libéré. Même s’il s’agit d’une France amputée de l’Aquitaine... En 1362 puis
1369, la peste noire est en Angleterre, ce qui entraîne une catastrophe
économique et empêche Edouard de réagir avec force lorsque Charles V rompt le
traité de Brétigny et tente de se réapproprier la suzeraineté sur l’Aquitaine.
En
1420, Charles VI de France et Isabeau de Bavière déshéritent leur fils Charles
et le déclarent banni du royaume, au profit de Henri V d’Angleterre, leur
gendre. Les deux couronnes de France et d’Angleterre sont déclarées
« unies à perpétuité ». En 1422, mort presque coup sur coup de
Charles VI et d’Henri V. L’héritier naturel, bien que déclaré illégitime, de
Charles VI est Charles VII. Celui de Henri V est Edouard IV, mineur, sous la
régence du duc de Bedford. On connaît la suite, l’aventure de Jeanne d’Arc et
le sacre de Charles VII à Reims en 1429. C’est le tournant, bien qu’il faille
attendre 1453 pour la fin des hostilités et 1475 pour le traité de Picquigny qui
consacre la séparation des deux royaumes.
En
1788, l’état économique et politique de l’Angleterre est tel, avec les accès de
folie du roi George III, que les responsables anglais songent sérieusement à
offrir le trône au roi de France (l’Angleterre a toujours maintenu la fiction
de l’union des royaumes). L’inertie de Loménie de Brienne fait capoter le
projet. Cet épisode est généralement passé sous silence dans les manuels (ne
parlons pas des choses qui fâchent).
En
1804, au camp de Boulogne, Napoléon éconduit tour à tour les deux inventeurs de
la marine à vapeur, Jouffroy d’Abbans et Fulton. Résultat, lorsque l’année
suivante la flotte française tente de traverser la manche, elle est à voiles,
victime de la tempête et ne peut rien faire.
En
1562, le huguenot français Ribault fonde une colonie en Caroline du sud. Il
sera vaincu en 1565 par l’amiral espagnol Menendez et, malgré une action de
représailles française en 1568, les Espagnols restent maîtres du terrain. Mais c’est cette tentative qui donne aux Anglais
l’idée d’envoyer leur propre expédition de conquête en 1584 (fondation de
la Virginie).
Les
droits des rois de France ont cependant été établis par Ribault. Charles IX,
Henri III puis Henri IV reconnaissent formellement ces droits mais ne les revendiquent
pas de manière active. En particulier, ils ne permettent pas l’établissement
des huguenots outre-Atlantique et préfèrent coloniser Terre-Neuve. Ce choix
semble un pur caprice. Notons qu’avec un tel exode, on aurait pu faire
l’économie des guerres de religion.
Vers
1670. Cavelier de la Salle fonde la Louisiane. Mais en 1686-87, les Espagnols,
alliés aux Anglais, revendiquent toute la côte. Il existe une colonie française
à Saint-Domingue, d’où aurait pu partir un appui, mais le roi de France a d’autres
chats à fouetter. L’avènement du roi d’Espagne Philippe V, un Bourbon,
intervient trop tard pour gêner la colonisation anglaise.
En
1688, après les troubles dynastiques d’Angleterre, les partisans canadiens et
américains de Jacques II Stuart se rallient à Louis XIV. Mais Frontenac ne
parvient pas à s’emparer de New York, faute à la malchance persistante, et les
jacobites se rapprochent du pouvoir anglais.
En
1714, lors du traité d’Utrecht, la France abandonne la baie d’Hudson, Terre
Neuve et l’Acadie contre la reconnaissance du Bourbon espagnol.
Entre
1714 et 1763, stagnation démographique des colons français malgré une forte
natalité, faute de politique d’émigration active. Pendant ce temps, la
population d’origine anglaise s’accroît.
En
1746, lors de la guerre de succession d’Autriche, Beauharnais, gouverneur
français du Canada, veut reconquérir l’Acadie. Il demande 2000 hommes, Louis XV
lui en accorde plus de 8000 dont 5000 marins. L’escadre de 12 navires est
commandée par le duc d’Anville. Tempête, scorbut, elle est décimée et d’Anville
se suicide. Son successeur, La Jonquière, qui doit ramener en France les débris
de l’expédition, est écrasé le 3 mars 1747 au cap Finisterre.
Après
la guerre de Sept Ans (1754-63), le Canada français est cédé à l’Angleterre,
ainsi que la rive gauche du Mississippi, la Louisiane occidentale à l’Espagne.
En
1778, le Congrès américain, encore « insurgent », appuie le projet de
La Fayette de reconquête du Canada français.
Il doit renoncer à son projet faute d’hommes en état de combattre. On
saura plus tard que l’expédition fut sabotée par Washington, anti-français et
anti-catholique. La France, entrée en guerre aux côtés des Insurgents, l’amiral
d’Estaing laisse par deux fois échapper l’escadre anglaise. En fait, il s’agit
encore d’un sabotage par des protestants français qui craignent qu’en cas de
reconquête du Canada, la liberté de culte leur soit retirée en France.
Louis
XVI tente de reprendre pied en Amérique du Nord par l’ouest (Alaska). C’est le
motif de l’expédition de La Pérouse. On sait qu’elle se termine tragiquement
aux environs d’Hawaii en 1788. Cette traversée sera réussie en 1792, mais par
l’anglais Vancouver.
Enfin,
Bonaparte, après avoir voulu remettre en valeur la Louisiane, décide
brutalement de la vendre aux USA. Aucune explication claire de ce revirement.
Cette
fois, ce sont 11 échecs successifs. Le résultat en sera, lors de l’assemblée
constitutionnelle américaine, l’adoption de l’anglais comme langue des
documents fédéraux, adoption réalisée à 1
voix de majorité. Cette faible (euphémisme) marge a empêché l’anglais
d’être proclamé langue officielle (donc seule reconnue pour la presse,
l’enseignement, etc.). Il n’empêche qu’il est alors devenu langue véhiculaire
de fait. Intéressant : en 1996, le Sénat a bloqué un projet de loi de la
Chambre des Représentants visant à faire de l’anglais la langue officielle des
USA, au nom du 1er amendement.
Quelle
leçon tirer de tout cela ? Tout se passe comme si, tout au long de
l’histoire, la langue et la culture anglaises avaient été protégées, ainsi que
les efforts d’expansion colonisatrice anglais. Comme si une convergence
d’événements répétitifs, dont certains n’ont tenu qu’à un fil (la mort subite
de Jean sans Terre, les caprices de Napoléon, des tempêtes), avaient préparé au
moins depuis 1087 l’imperium americanum que nous voyons se mettre en
place sous nos yeux. Une puissance invisible agit manifestement sur l’histoire.
Les Américains sont persuadés que c’est la Providence et qu’ils sont le nouveau
peuple élu, voir les discours présidentiels depuis les Pères Fondateurs jusqu'à
George W. Parlons plutôt d’un facteur X.
Ce même
« facteur de perturbation », comme dirait Chauvin, a joué lors de la
seconde guerre mondiale. Je n’apprécie
pas Hitler. On avait affaire avec lui à une parodie de tradition et non au
véritable fil d’or et l’une des preuves, c’est le témoignage de ceux qui l’ont
approché lors de ses transes. Mais si l’on regarde à la loupe certains points
d’inflexion de cette guerre, on s’aperçoit qu’il y a trois événements
illogiques. D’abord la défaite française, car l’armée était loin d’être en
carton-pâte comme le veut la version officielle de l’histoire. Elle tient à une
suite de « hasards » malheureux et convergents. Ensuite la résistance
britannique devant le blitz. C’est l’inverse, une suite de
« hasards » heureux et convergents dont le plus significatif est
rapporté par Anthony Cave Brown dans le premier tome de La guerre secrète. Il s’agit de la connaissance des codes allemands
et de la machine Enigma. Or, raconte Cave Brown, en 1937 c’est à la France
qu’un transfuge avait offert la machine et les codes. Les Polonais la
possédaient également. Les Anglais ne l’eurent que quelques mois plus tard et
durent en grande partie la reconstituer. Pourtant, ni les Français ni les
Polonais ne purent l’utiliser pleinement. Les Anglais durent à l’un des pères
de l’informatique, Alan Turing, de pouvoir construire leur propre machine, le
projet Ultra, et de l’utiliser avec efficience. Cela renforce l’évidence d’un
facteur de perturbation.
Enfin, lorsque les USA sont
entrés en guerre, eux étaient particulièrement mal préparés militairement. Mais
le facteur X a favorisé la mise au point de la bombe A tandis que les génies
concurrents de Peenemünde se heurtaient à des « hasards » malheureux
incompréhensibles. Je renvoie au petit roman de Chauvin, Les Veilleurs du temps.
La guerre d’Irak actuelle rentre
parfaitement dans cette logique et le plus étrange, c’est l’attitude de Chirac.
Il est rare que le bonhomme fasse preuve d’une telle fermeté. Mais ce qui est
significatif, c’est qu’une fois de plus une vision du monde française soit en
balance avec une vision du monde anglo-saxonne lors d’un de ces épisodes
« X ». Or le facteur de perturbation est bel et bien intervenu en
amont, lors de l’élection de Bush, et toujours de la même façon. Ce n’était pas
une tempête ni la migraine de Napoléon mais une machine à voter qui pédalait
dans la semoule en Floride. Etrange, non ? Puis le 11 septembre, en plein
milieu du passage de seuil technologique actuel, autre coïncidence
troublante...
[1]Olivier
Costa de Beauregard, Le second principe
de la science du temps, Seuil, Paris, 1969.
[2]Gregory
Chaitin, « Les suites aléatoires et les démonstrations
mathématiques », Pour la Science,
197., pp.40-45.
[3]Programme
exprimé sous forme binaire, comme suite de 0 et de 1.
[4]Ilya
Prigogine et Isabelle Stenger, La
nouvelle alliance : métamorphoses de la science, Gallimard, Paris, 1979,
réed. augmentée Gallimard, Folio-essais, 1986, pp.13-14.