Sunday, May 10, 2015

Une vieille réflexion sur Guénon et les temps...



Ce qui m’embête souvent avec Guénon, ce n’est pas Guénon lui-même, toujours important et instructif, mais bien 80% des guénoniens qui me donnent envie d’enlever l’accent sur le é tant ils grimacent. De ces grimaces, je ne ferai pas la liste, encore qu’elle soit parfois fort drolatique. Mais j’en pointerai tout de même une : la méfiance a priori envers la science, ses méthodes et certaines de ses conclusions. Ceux qui rejettent toute recherche scientifique oublient qu’il y a deux façons d’aborder la science : celle des rationalistes et celle des vrais chercheurs. Comme il y a d’ailleurs deux façons d’aborder la tradition : en fossilisant le passé ou en suivant le fil d’or jusque vers le futur, un fil d’or qui transcende le temps sans le nier. Je mettrais volontiers les rationalistes hargneux et les traditionalistes fossilisateurs sur la même île déserte et pendant qu’ils s’entrebattraient, on pourrait construire un monde vivant et viable !
Fil d’or qui transcende le temps sans le nier, disais-je. Les auteurs de l’antiquité profonde ne parlent jamais du temps au singulier mais toujours des temps, au pluriel. Parfois les temps désignent des cycles, comme dans le Livre de Daniel ou l’Apocalypse (un temps, des temps et la moitié d’un temps) ; ce type de comput est le seul cas où les auteurs s’autorisent à parler d’un temps au singulier. Lorsqu’il s’agit d’englober le long terme, la durée, il est toujours question des temps. C’est vrai en sumérien, en chaldéen, en hébreu, en égyptien et, si je ne m’abuse, en persan avestique. On ne commence à trouver le temps au singulier, dans le sens de durée, qu’avec le grec pré-classique (Hésiode, les présocratiques) et la divinisation de Chronos. Les Chinois antiques vont beaucoup plus loin. Si l’on comprend en profondeur la structure du I Jing, on s’aperçoit que le temps a pour eux une structure quantique, corpusculaire, discontinue, dont l’imbrication en écailles de tortue donne le sentiment de continuité.
                Le temps/les temps. Le grand mystère. Il est relativement facile d’aborder le monde manifesté en pensant l’espace : il se déploie devant nos yeux, nos oreilles, notre toucher. Pour les yeux qui savent voir, le visible devient tout aussi aisément le langage de l’invisible. Mais le temps ? Pour l’apprivoiser, il faut trouver un moyen de le repérer et dès que l’on veut dépasser la simple alternance jour/nuit, lumière/obscurité, dépasser aussi la simple sensation subjective du vieillissement, il n’y a pas mille solutions, il faut compter des cycles astronomiques. Nous avons découvert un indice dans la préhistoire profonde, au Magdalénien pour tout dire. Si l’on étudie la grotte des Combarelles et que l’on compte les animaux gravés et peints, on s’aperçoit que les 116 chevaux correspondent en jours à la révolution synodique de Mercure ou à la demi révolution sidérale de Vénus, que les 19 ours permettent de calculer des cycles lunaires en relation avec l’année sidérale et les 14 rennes d’harmoniser les deux. Donc dès les premières traces archéologiques de notre humanité, le souci du repérage temporel semble présent. Il n’est pas utilitaire : pour suivre un troupeau de bovins et se tailler un bon cuissot, mieux vaut mieux se fier aux traces de passage et aux odeurs qu’au calendrier ! Pourtant l’on trouve des calendriers lunaires gravés sur os dans les grottes les plus archaïques.
                Mais très vite — et nous sommes là aux sources de nombre de sacralisations ultérieures — nos ancêtres vont se trouver obligés d’envisager des cycles beaucoup plus longs. Quand on nous raconte que la précession des équinoxes a été découverte par Hipparque vers -134, cela ne tient pas la route. Encore qu’il l’ait peut-être redécouverte et calculée. Mais la précession s’est forcément imposée comme fait, et de manière dramatique, au Magdalénien justement. C’est toute la question du repérage précis de l’année. Avec un système d’observation basé sur la longueur et l’orientation des ombres, il est très difficile de définir exactement les solstices et les équinoxes, il y a un flou de plusieurs jours. Donc le meilleur système, c’est celui que reprendront les Egyptiens : le lever héliaque d’une étoile brillante. Pour des raisons objectives qui tiennent à la répartition des étoiles observables, il n’y a qu’une seule candidate possible dans l’hémisphère nord : Sirius. Mais du fait de la précession des équinoxes et des pôles qui induit aussi un balancement nord-sud et sud-nord du ciel observable, Sirius n’est pas toujours visible plus au nord que le 27e parallèle. Vers -15000, lorsque commence la « décoration » de la grotte des Combarelles, Sirius devient de plus en plus difficilement observable et elle ne le redeviendra vraiment qu’après -7000.  Huit mille ans sans repère stellaire pratique, cela fait un bail ! Loin d’être un constat tardif, la précession et donc la conscience, si ce n’est encore le calcul exact, de très longs cycles est un donné d’expérience dès les débuts de l’astronomie. C’est sans doute même la disparition de Sirius qui va pousser les hommes de l’hémisphère nord à affiner leurs observations astronomiques
                Cela signifie que la conscience temporelle, dès les origines de l’humanité, doit prendre en compte deux faits d’expérience vécue : le temps comme flux « linéaire » lié à l’expérience de transformations irréversibles (l’arbre tombé ne se relève pas) et le temps cyclique, avec de très longs cycles dépassant la vie humaine et même les trois ou quatre générations de la mémoire sociale non fixée par des chants généalogiques, à l’intérieur desquels on peut dégager des cycles plus courts, un temps cyclique inscrit dans les astres. Qualitativement, il y a donc au moins deux temps. Si l’on ajoute une troisième expérience, celle de l’extase, d’une durée qui n’est qualitativement ni celle de l’irréversible ni celle du cycle, on ne peut parler que « des » temps. Or cette intuition vécue des peuples archaïques est corroborée et précisée aujourd’hui par la physique de pointe. Sauf en relativité générale où l’on traite le temps comme une dimension (si ce n’est un temps complexe à deux ou trois dimensions), il s’agit de la résultante de phénomènes irréversibles, de phénomènes périodiques (donc cycliques), sans parler des potentiels avancés où la causalité se fait du futur vers le passé, de sa quantification (chronons, temps de Planck) et, pour couronner le tout, ces temps sont aussi fonction du temps-dimension, donc on a affaire à une réalité fractale qui, de plus, de par l’interaction avec le « vide quantique », a du jeu. Le temps des horloges est décidément une simplification abusive.
                Au cœur des déroulements irréversibles, il y a ce que l’on a nommé l’évolution. Il s’agit plutôt d’une complexification croissante qui n’a de sens qu’à l’échelle de l’univers puis, par une sorte d’écho fractal, à celui d’un écosystème planétaire. Nous sommes là très loin du darwinisme pur et dur. Et cela n’empêche pas cet univers en complexification de pulser aussi selon des cycles enchevêtrés dans des cycles. Pour éclairer un peu le problème, j’inclus ici une partie du chapitre introductif de nos recherches sur ce que Pascal Pastor et moi avons nommé « loi générale de complexification ».

Revenons aux questions de fond posées par l’existence de la loi de complexification. Notons immédiatement qu’elle se déploie dans le temps. Mais qu’est-ce que le temps ? Tout comme l’évolution, cette dimension apparaît avec le Big Bang, lequel est le premier événement irréversible de l’univers. Même si nous ne pouvons rien dire de la nature de ce dernier durant une infime fraction de seconde, le temps de Planck (5,35.10--44 secondes), cette durée infinitésimale est déjà une durée. Même si interviennent durant ce laps très bref ce que Costa de Beauregard nomme des potentiels avancés, pour lesquels la causalité s’opère du futur vers le passé[1], il n’en demeure pas moins que la première composante du réel tel que nous le connaissons, apparue avant toute autre, est le temps — et qu’il se forge dans des conditions telles que l’univers ne les connaîtra jamais plus. Nous ne pouvons rien dire des transitions énergétiques au temps de Planck, sauf qu’elles font apparaître l’espace-temps, substrat de toute réalité physique. Sans doute comportait-il alors plus de dimensions que n’en révèle notre expérience sensorielle ou même nos instruments de mesure, les cosmologistes en discutent, mais il est certain qu’il comportait ou qu’il élaborait au moins ces dernières et particulièrement le temps.
                Une seconde remarque s’impose : le Big Bang apparaît au regard des physiciens comme une singularité, l’état le plus hautement improbable que l’on puisse concevoir. Or qui dit improbable dit information, par la définition même de cette dernière, que l’on prenne ce terme au sens de message ou à celui, plus fondamental, de « ce qui donne forme ». Encore une fois, nous ne pouvons rien dire des transitions énergétiques au temps de Planck, sauf qu’elles font apparaître de l’information ou, en d’autres termes, de la néguentropie. Nous ignorons si elles comportent de l’entropie, cette dernière n’est accessible à l’analyse qu’après cet instant infime, lorsque les interactions fondamentales commencent à se différencier, mais la singularité même du Big Bang est néguentropique. Or la complexification que mesure notre loi générale d’évolution est une localisation d’états néguentropiques : le Big Bang répond parfaitement à cette définition.
                Le fait que les deux composantes d’une évolution quelle qu’elle soit, temps et néguentropie, soient nées à l’intérieur de la première réalité quantique de l’univers nous suggère dès l’abord que sa description relève de la physique fondamentale plus encore que de la biologie ou des sciences humaines. D’autre part, le fait que l’on puisse exprimer cette évolution par une loi analogue à toutes les autres lois physiques repose ipso facto la question du hasard — la nécessité étant assurée par l’existence même d’une régularité mathématique.
                La présence d’information — d’improbable — aux origines mêmes de l’univers implique que ce dernier ait du jeu, des degrés internes de liberté, et cela dès l’apparition de régularités physiques. Une des pires façons de penser le couple entropie/néguentropie serait de le traduire en termes de désordre et d’ordre, notions éminemment relatives, et de confondre le premier avec le hasard au sens métaphysique. Lorsque l’on parle, scientifiquement, de forme aléatoire, cela signifie simplement que l’on ne peut ni déduire ni induire : une suite aléatoire, en mathématiques, est une suite de nombres que l’on ne peut pas prévoir par le calcul, qui n’obéit à aucun algorithme. En d’autres termes, l’aléatoire n’a de sens que par rapport à nos capacités de raisonnement et à notre savoir antérieur. Il existe des limites infrangibles dues aux conditions d’acquisition du savoir, aux conditions d’expérience, telles les relations d’incertitude d’Heisenberg qui expriment le fait que toute mesure perturbe le système, qu’en microphysique cette perturbation n’est pas négligeable et que, donc, toute précision sur une donnée entraîne nécessairement un flou sur celle qui lui est associée, par exemple position et vitesse d’une particule. Cette incertitude est vraie quel que soit l’observateur, du moment que ce dernier appartient à l’univers physique, même et surtout s’il s’agit d’une autre particule. En d’autres termes, l’aléatoire apparaît comme la limite du déterminisme. Ce point est essentiel.
                De telles limitations intrinsèques apparaissent jusque dans le domaine logique et déterministe par excellence que sont les mathématiques. Gregory Chaitin, examinant la définition algorithmique des suites aléatoires a pu tirer plusieurs conclusions déroutantes[2]. Tout d’abord, il ajuste la définition : « L’idée fondamentale est que l’information contenue dans une telle suite ne peut être comprimée ou mise sous une forme plus réduite. (...) Une suite de chiffres est aléatoire quand le plus petit algorithme nécessaire pour [l’engendrer] contient approximativement le même nombre de bits que la suite. » En d’autres termes, on peut corréler aléatoirité et information, donc, et c’est nous qui introduisons cette conséquence, aléatoirité et néguentropie. Chaitin assimile, lui, comme conséquence de cette définition, suite aléatoire et programme minimal (ou algorithme minimal) en informatique[3], avant de démontrer que la minimalité d’un programme ou l’aléatoirité d’une suite ne sont pas démontrables.
                A bien des égards, l’univers fonctionne comme l’ordinateur virtuel qu’utilise Chaitin pour sa démonstration, si on l’observe en termes d’information plutôt que de mouvement ou d’énergie, et ses algorithmes sont, au moins, les « lois de la nature », son déterminisme. Mais, pour engendrer ces lois ou ce déterminisme, il faut des algorithmes minimaux qui, eux, sont information pure et donc nous apparaissent comme aléatoires. En d’autres termes, l’aléatoire n’est pas seulement la limite du déterminisme mais sa condition d’apparition, comme l’axiome est la limite et la condition d’un système formel en mathématique, voir le théorème de Gödel.
                Mais une telle définition entraîne des conséquences extrêmement importantes. Tout d’abord, il devient impossible de définir cet aléatoire fondamental en termes de « hasard » au sens philosophique courant, c’est à dire comme absence de sens ou d’intentionnalité : rien n’est plus intentionnel qu’un programme informatique et pourtant, s’il est minimal, sa forme sera aléatoire. Rencontrer de l’aléatoire dans la nature signifie que l’on atteint la part d’information irréductible et rien d’autre ; en tirer des conclusions métaphysiques positives ou négatives est impossible, « hasard » et intentionnalité se ressemblent formellement au point de rendre le choix entre les deux scientifiquement indécidable. Dans les deux cas, on sortirait du principe d’économie pour introduire une hypothèse supplémentaire. Nous sommes là devant une limite éminemment kantienne.
                Enfin, n’oublions pas que, en pratique, l’aléatoirité ou la minimalité sont indémontrables. Comment, en ce cas, aurions nous la certitude d’avoir atteint le noyau d’information pure ? Ce que signifie le recours à l’aléatoire ou, si l’on préfère, le caractère statistique des lois scientifiques, ce sont les limites de l’observable, l’incertitude inhérente à toute mesure et, répétons le, quel que soit l’observateur appartenant à l’univers. Par contre, il aisé de démontrer qu’une suite n’est pas aléatoire, qu’un programme n’est pas minimal, ou qu’un déterminisme est à l’oeuvre. C’est cette rupture de symétrie qui entraîne, par exemple, l’accroissement du déterminisme avec les grands nombres que l’on peut relier à un accroissement de l’observabilité ; c’est elle aussi qui est responsable de l’illusion intellectuelle selon laquelle l’aléatoire se confondrait avec le non-sens.
                Ce que nous venons de déduire des démonstrations de Gregory Chaitin forme la base théorique de ce qu’il est convenu d’appeler les « théories du chaos », terme on ne peut plus mal choisi et auquel nous préférons l’expression de Prigogine, « théories des systèmes dissipatifs », théories qui ont à voir avec notre questionnement puisqu’elles tentent de décrire de manière thermodynamique des genèses ou des évolutions. Prigogine écrit à ce propos : « L’opposition entre déterminisme et aléatoire est deux fois battue en brèche. L’état attracteur simple, qui garantit la possibilité de prévoir de façon déterministe l’état futur d’un système, peut (...) être interprété comme la résultante de comportements microscopiques eux-mêmes représentés comme essentiellement aléatoires. Mais inversement, une description macroscopique en termes d’équations différentielles, qui semble incarner le déterminisme causal puisqu’elle rattache la variation du système à un moment donné à l’état de ce système en cet instant, engendre ici un comportement observable de type aléatoire. C’est désormais autour des thèmes de la stabilité et de l’instabilité que s’organisent nos descriptions du monde, et non autour de l’opposition entre hasard et nécessité[4]. »
                Le terme de « théories du chaos » nous semble cependant mal choisi, encore tributaire de cette opposition que Prigogine considère comme dépassée dans la problématique scientifique globale, mal choisi car il tend à penser l’univers en termes d’une dialectique du désordre et de l’ordre encore confondus avec entropie et néguentropie. Le déséquilibre qui engendre la dynamique des systèmes dissipatifs n’est pas un désordre ou, du moins, pas le même désordre que celui qu’envisageait la seconde loi de la thermodynamique. Il est fondamentalement cet aléatoire créateur de déterminisme, condition de toute genèse et de toute évolution, surgissement d’information. L’existence d’une loi d’évolution globale, de la complexification telle que nous la décrivons, en fait pour le moins un « désordre » orienté, téléonomique. Ou, pour le dire autrement, il se pourrait que la vieille « cause finale » de la scolastique revienne nous narguer sous la forme d’un attracteur temporel informatif peut-être source des potentiels avancés de Costa de Beauregard.

                C’est essentiel : le fondement de l’univers n’est pas la matière ni même l’énergie, mais une information pure qui va se déployer et se manifester de plus en plus finement, y compris au travers de cycles. Certains de ces cycles sont observables par les yeux de chair, en particulier les cycles astronomiques, saisonniers, etc. D’autres ne sont accessibles que de manière intuitive. Mais à l’intérieur du déploiement de l’univers, il ne s’agit pas de simples remises à zéro du compteur, absurdes et désespérantes. On peut le voir métaphoriquement comme une spirale, un hélicoïde qui a du sens : un sens physique, une orientation ; et un sens spirituel, une signifiance.
                Là, il faut introduire une remarque qu’aucun traditionaliste n’a encore faite, à ma connaissance. Lorsque les Hindous chiffrent la théorie des quatre âges, ils réduisent la durée à chaque étape. Ils le font de façon simple et, à mon sens, plus symbolique que scientifique. Mais avec les outils mathématiques dont ils disposaient à l’époque, c’était la meilleure approximation possible d’une loi exponentielle et même d’une loi exponentielle fractale puisque les textes expliquent que, à l’intérieur de chaque âge, on retrouve la loi des quatre âges. Devant ce constat, il y a deux façons de l’aborder. On peut fossiliser le comput hindou, le répéter comme des perroquets et « y croire » en écartant les données du réel si elles ne se soumettent pas à la croyance cristallisée. Je connais nombre de guénoniens ou d’hindouisants qui s’en tiennent à cette démarche. L’autre façon, c’est d’essayer d’en comprendre le sens profond et, en s’appuyant sur des données dont les rédacteurs du Védanta ne pouvaient pas disposer mais qui nous sont accessibles aujourd’hui, refaire le travail de comput. C’est le sens de nos recherches sur la « loi générale de complexification ». Nous voulions vérifier la présence ou non d’une loi exponentielle dans le déploiement de la création.
                Deuxième remarque. L’exponentielle, aussi tendue soit-elle, ne suffit pas. Une autre leçon de la théorie des 4 âges, c’est que l’accélération doit être pensée en couplage avec des « cycles », c’est à dire des phénomènes périodiques. Mathématiquement, de telles pulsations se traduisent par une ou des fonctions d’onde. La représentation symbolique graphique peut fort bien être un hélicoïde mais dès qu’on veut le traduire en langage algébrique, il faut passer par une fonction périodique et, très précisément, par une analyse de Fourier. Et cela nous ouvre d’étonnantes perspectives car une analyse de Fourier, c’est une recherche de résonances. En Alchimie, on parlait d’un art de musique et Pythagore, de musique des sphères.
                Enfin, la composition d’une exponentielle « porteuse » et d’une analyse de Fourier, d’une grande vague cosmique et de cycles internes plus ou moins grands est fort intéressante. Elle permet de préciser des « seuils ». La complexification ne se fait pas de manière uniforme. Il y a des phases d’émergence, des sortes de sauts quantiques, suivis de phases de croissance et de déclin relatif. Attention, ce déclin aboutit parfois à une disparition mais pas toujours. Ou, plus exactement, il n’y a extinction (d’un écosystème, d’un mode de civilisation) qu’à l’échelle globale. Les algues bleues n’ont pratiquement pas bougé depuis 2 milliards d’années et des broutes, date de leur émergence, mais elles ont perdu leur rôle d’agents de transformation de l’atmosphère terrestre. Le « grand cycle des algues bleues », lui, s’est achevé quand le rôle moteur a été repris par les eucaryotes pour l’émergence d’une autre potentialité, d’une autre information, vers -1,5 milliard d’années. Sur la Terre du moins, l’écosystème dominé par les algues bleues est définitivement achevé et son information « résorbée » ou, si j’ose, « recyclée ».
                Enfin, la même courbe permet de rendre compte de l’histoire du cosmos depuis le Big Bang, de la succession des espèces vivantes sur la Terre et de l’accumulation des savoirs humains.             On peut calculer ces points temporels de passage, mais on s’aperçoit alors qu’il y a du flou, une fourchette dont l’amplitude décroît avec l’accélération exponentielle. Toutefois, s’il y a un certain flou dans les dates, du à un principe quantique d’incertitude, on retrouve une précision tout à fait nette si on ne cherche plus à dater mais si l’on prend comme unité de référence l’intervalle entre deux seuils. Nous ne sommes plus alors dans l’espace-temps réel, où cet intervalle décroît temporellement, mais dans un espace « abstrait », un espace d’information, de signification pure, l’espace des Idées platoniciennes par exemple.  Du Big Bang à nos jours, nous avons pu repérer 34 points. On peut alors les compter de 2 en 2, de 3 en 3, etc.  On obtient alors des groupes de points reliés par le sens. C’est tout à fait étonnant. Par exemple, si on les regroupe de 10 en 10, on va trouver dans le même groupe l’apparition des vertébrés, l’invention du biface et la découverte du zéro en mathématique, c’est à dire l’émergence, à des niveaux différents de la spirale cyclique, de la symétrie axiale d’ordre 2. Ou bien, en comptant de 5 en 5, on peut regrouper l’apparition des eucaryotes, la différenciation entre insectivores et herbivores/carnivores, le premier outil (chopper), la chasse en groupe au gros gibier accompagnée d’une spécialisation de l’outillage lithique, l’écriture et la révolution industrielle, c’est à dire  une diversification qui implique la coopération.
                Le point ultime de la courbe se situerait entre 2017 et 2023. Cette fois, l’incertitude n’est pas due à une fourchette mais au fait qu’il s’agit d’un seuil « explosif », où l’on passe une porte, à la limite, toutes les nanosecondes ! Même si c’est le point d’inflexion d’une courbe en S, il s’agit d’une forme de singularité analogue à ce que fut le Big Bang dans le domaine physique, d’où ce flou.

                Bon, résumons en clair, si j’y parviens. L’univers naît d’une information colossale qui se déploie comme une musique pleine de pulsations et de résonances dont le tempo serait de plus en plus frénétique. Comme la forme de cette accélération rythmique est la même quelle que soit l’échelle à laquelle on l’observe, quel que soit le zoom pour parler un langage de cinéaste, on aboutit localement à de nouvelles explosions d’information et la prochaine est prévisible pour notre humanité quelque part entre 2017 et 2023. Cela ne veut pas dire que notre humanité va disparaître, mais qu’elle va traverser une transformation majeure, un seuil eschatologique.
                A partir de ce constat, plusieurs problèmes se posent. Tout d’abord, sommes nous prêts pour une telle aventure ? Ce n’est pas certain et ce seuil là risque d’être précédé d’une fameuse panique. Plus il s’approche et plus il risque d’y avoir des attitudes aberrantes. Donc attention, restons centrés et attendons nous à tout. Les « petits seuils » franchis jusqu’ici, s’ils ont permis de déployer la grande musique du monde, ont déjà suscité des paniques, des blocages, des retards, des chutes.  Et comme disait Cocteau : « Sauter une marche ne sert à rien, il faut toujours la remonter après. » Sauf que, là, il faudrait avoir vraiment franchi tout ce qui précède pour passer sans se brûler les ailes. Relire la première épître aux Corinthiens.
                Autre problème : la triche. On ne peut pas aller contre le tempo, il est consubstantiel à l’univers, tissé dans sa trame profonde. Mais certains peuvent toujours essayer de modeler l’humanité selon leur visée idéologique avant le passage, de tricher sur les conditions préalables. Et attention, on peut tricher avec sincérité et générosité. Comme dit le proverbe, l’enfer est pavé de bonnes intentions. La tentation de jouer au démiurge est d’autant plus forte que le seuil à venir pourrait donner à l’humanité, ou à la part de l’humanité qui passera la porte, je n’en sais rien et personne ne peut le savoir, une réelle capacité démiurgique.
                Et c’est là où nous subodorons une ou des interventions d’infléchissement à rebrousse-temps ou par des êtres capables de voir à l’avance plus que leurs contemporains. Il y a un exercice périlleux mais instructif en histoire, l’uchronie : si tel événement n’avait pas eu lieu, que se serait-il passé ? Ou, à l’inverse, si tel événement évité s’était produit... ? C’est en jouant avec cette méthode que je me suis aperçue, il y a longtemps, que les Anglais devraient élever des statues à Jeanne d’Arc. Parce qu’enfin, si Charles VII n’avait pas été sacré, si Henri V puis Edouard IV avaient effectivement unifié les deux royaumes, l’Angleterre serait devenue, comme me l’écrivait Aimé Michel avec qui j’en ai beaucoup discuté, « une sorte de grande Corse au nord de la France » et l’anglais, bien loin de devenir la langue véhiculaire planétaire de notre époque, serait resté une sorte de patois local. Le Royaume-Uni franco-anglais aurait équilibré l’Europe en faisant pièce à l’empire germanique, il n’y aurait peut-être pas eu de révolution française et, en tout cas, l’Amérique du nord ne serait pas ce qu’elle est aujourd’hui.
                Le problème, c’est que Jeanne d’Arc n’a pas été seule à sauver l’indépendance, la langue et la culture anglaises. Jusqu’ici, j’ai relevé 6 occurrences où l’union a failli se faire et où elle a capoté sur de l’imprévisible ; quant à ce qui concerne plus directement l’Amérique du nord, on compte jusqu'à 11 échecs de l’implantation française. Qui donc disait : « une fois, c’est un hasard ; deux fois, une coïncidence ; trois fois, une conjuration » ? Et 17 fois, c’est quoi ? La patrouille du temps ?
                Voici la liste résumée de ces 17 occurrences.
                Le 7 décembre 1087, Guillaume le Conquérant, fondateur du royaume d’Angleterre meurt à Rouen, alors qu’il tentait de conquérir aussi les territoires de Philippe 1er de France. Son successeur ne poursuivra pas dans cette voie.
                En avril 1216, le dénommé Jean sans Terre a tellement exaspéré les barons anglais qu’ils offrent le trône d’Angleterre à Philippe Auguste pour son fils Louis. Ce dernier rameute son ost et traverse le channel, il ne tarde pas à prendre Londres, dès juillet. Patatras. Le 19 octobre, Jean sans Terre meurt ; le pape et les barons vont préférer la continuité dynastique, Henri III est élu roi bien qu’il soit encore enfant et Louis n’a plus qu’à se rembarquer.
                En 1340, Edouard III d’Angleterre, fils d’Isabelle de France et donc petit-fils de Philippe le Bel, prétend à la couronne de France en tant que descendant direct, contre Philippe de Valois (choisi par les pairs du royaume). C’est la première phase de la guerre de cent ans. Les Anglais remportent des succès militaires jusqu'à faire prisonnier en 1356 Jean le Bon, fils et successeur de Philippe.  Tout va basculer sur... la météo. Le 12 avril 1360, alors que la conquête est presque achevée, qu’il ne reste plus qu’à rentrer dans Paris, un terrible orage de grêle tue les chevaux de l’armée anglaise. Faute de monture ou par le choc psychique de l’événement, Edouard renonce au titre de roi de France le 8 mai suivant. Jean le Bon est libéré. Même s’il s’agit d’une France amputée de l’Aquitaine... En 1362 puis 1369, la peste noire est en Angleterre, ce qui entraîne une catastrophe économique et empêche Edouard de réagir avec force lorsque Charles V rompt le traité de Brétigny et tente de se réapproprier la suzeraineté sur l’Aquitaine.
                En 1420, Charles VI de France et Isabeau de Bavière déshéritent leur fils Charles et le déclarent banni du royaume, au profit de Henri V d’Angleterre, leur gendre. Les deux couronnes de France et d’Angleterre sont déclarées « unies à perpétuité ». En 1422, mort presque coup sur coup de Charles VI et d’Henri V. L’héritier naturel, bien que déclaré illégitime, de Charles VI est Charles VII. Celui de Henri V est Edouard IV, mineur, sous la régence du duc de Bedford. On connaît la suite, l’aventure de Jeanne d’Arc et le sacre de Charles VII à Reims en 1429. C’est le tournant, bien qu’il faille attendre 1453 pour la fin des hostilités et 1475 pour le traité de Picquigny qui consacre la séparation des deux royaumes.
                En 1788, l’état économique et politique de l’Angleterre est tel, avec les accès de folie du roi George III, que les responsables anglais songent sérieusement à offrir le trône au roi de France (l’Angleterre a toujours maintenu la fiction de l’union des royaumes). L’inertie de Loménie de Brienne fait capoter le projet. Cet épisode est généralement passé sous silence dans les manuels (ne parlons pas des choses qui fâchent).
                En 1804, au camp de Boulogne, Napoléon éconduit tour à tour les deux inventeurs de la marine à vapeur, Jouffroy d’Abbans et Fulton. Résultat, lorsque l’année suivante la flotte française tente de traverser la manche, elle est à voiles, victime de la tempête et ne peut rien faire.

                En 1562, le huguenot français Ribault fonde une colonie en Caroline du sud. Il sera vaincu en 1565 par l’amiral espagnol Menendez et, malgré une action de représailles française en 1568, les Espagnols restent maîtres du terrain. Mais c’est cette tentative qui donne aux Anglais l’idée d’envoyer leur propre expédition de conquête en 1584 (fondation de la Virginie).
                Les droits des rois de France ont cependant été établis par Ribault. Charles IX, Henri III puis Henri IV reconnaissent formellement ces droits mais ne les revendiquent pas de manière active. En particulier, ils ne permettent pas l’établissement des huguenots outre-Atlantique et préfèrent coloniser Terre-Neuve. Ce choix semble un pur caprice. Notons qu’avec un tel exode, on aurait pu faire l’économie des guerres de religion.
                Vers 1670. Cavelier de la Salle fonde la Louisiane. Mais en 1686-87, les Espagnols, alliés aux Anglais, revendiquent toute la côte. Il existe une colonie française à Saint-Domingue, d’où aurait pu partir un appui, mais le roi de France a d’autres chats à fouetter. L’avènement du roi d’Espagne Philippe V, un Bourbon, intervient trop tard pour gêner la colonisation anglaise.
                En 1688, après les troubles dynastiques d’Angleterre, les partisans canadiens et américains de Jacques II Stuart se rallient à Louis XIV. Mais Frontenac ne parvient pas à s’emparer de New York, faute à la malchance persistante, et les jacobites se rapprochent du pouvoir anglais.
                En 1714, lors du traité d’Utrecht, la France abandonne la baie d’Hudson, Terre Neuve et l’Acadie contre la reconnaissance du Bourbon espagnol.
                Entre 1714 et 1763, stagnation démographique des colons français malgré une forte natalité, faute de politique d’émigration active. Pendant ce temps, la population d’origine anglaise s’accroît.
                En 1746, lors de la guerre de succession d’Autriche, Beauharnais, gouverneur français du Canada, veut reconquérir l’Acadie. Il demande 2000 hommes, Louis XV lui en accorde plus de 8000 dont 5000 marins. L’escadre de 12 navires est commandée par le duc d’Anville. Tempête, scorbut, elle est décimée et d’Anville se suicide. Son successeur, La Jonquière, qui doit ramener en France les débris de l’expédition, est écrasé le 3 mars 1747 au cap Finisterre.
                Après la guerre de Sept Ans (1754-63), le Canada français est cédé à l’Angleterre, ainsi que la rive gauche du Mississippi, la Louisiane occidentale à l’Espagne.
                En 1778, le Congrès américain, encore « insurgent », appuie le projet de La Fayette de reconquête du Canada français.  Il doit renoncer à son projet faute d’hommes en état de combattre. On saura plus tard que l’expédition fut sabotée par Washington, anti-français et anti-catholique. La France, entrée en guerre aux côtés des Insurgents, l’amiral d’Estaing laisse par deux fois échapper l’escadre anglaise. En fait, il s’agit encore d’un sabotage par des protestants français qui craignent qu’en cas de reconquête du Canada, la liberté de culte leur soit retirée en France.
                Louis XVI tente de reprendre pied en Amérique du Nord par l’ouest (Alaska). C’est le motif de l’expédition de La Pérouse. On sait qu’elle se termine tragiquement aux environs d’Hawaii en 1788. Cette traversée sera réussie en 1792, mais par l’anglais Vancouver.
                Enfin, Bonaparte, après avoir voulu remettre en valeur la Louisiane, décide brutalement de la vendre aux USA. Aucune explication claire de ce revirement.
                Cette fois, ce sont 11 échecs successifs. Le résultat en sera, lors de l’assemblée constitutionnelle américaine, l’adoption de l’anglais comme langue des documents fédéraux, adoption réalisée à 1 voix de majorité. Cette faible (euphémisme) marge a empêché l’anglais d’être proclamé langue officielle (donc seule reconnue pour la presse, l’enseignement, etc.). Il n’empêche qu’il est alors devenu langue véhiculaire de fait. Intéressant : en 1996, le Sénat a bloqué un projet de loi de la Chambre des Représentants visant à faire de l’anglais la langue officielle des USA, au nom du 1er amendement.
                Quelle leçon tirer de tout cela ? Tout se passe comme si, tout au long de l’histoire, la langue et la culture anglaises avaient été protégées, ainsi que les efforts d’expansion colonisatrice anglais. Comme si une convergence d’événements répétitifs, dont certains n’ont tenu qu’à un fil (la mort subite de Jean sans Terre, les caprices de Napoléon, des tempêtes), avaient préparé au moins depuis 1087 l’imperium americanum que nous voyons se mettre en place sous nos yeux. Une puissance invisible agit manifestement sur l’histoire. Les Américains sont persuadés que c’est la Providence et qu’ils sont le nouveau peuple élu, voir les discours présidentiels depuis les Pères Fondateurs jusqu'à George W. Parlons plutôt d’un facteur X.
                Ce même « facteur de perturbation », comme dirait Chauvin, a joué lors de la seconde guerre mondiale.  Je n’apprécie pas Hitler. On avait affaire avec lui à une parodie de tradition et non au véritable fil d’or et l’une des preuves, c’est le témoignage de ceux qui l’ont approché lors de ses transes. Mais si l’on regarde à la loupe certains points d’inflexion de cette guerre, on s’aperçoit qu’il y a trois événements illogiques. D’abord la défaite française, car l’armée était loin d’être en carton-pâte comme le veut la version officielle de l’histoire. Elle tient à une suite de « hasards » malheureux et convergents. Ensuite la résistance britannique devant le blitz. C’est l’inverse, une suite de « hasards » heureux et convergents dont le plus significatif est rapporté par Anthony Cave Brown dans le premier tome de La guerre secrète. Il s’agit de la connaissance des codes allemands et de la machine Enigma. Or, raconte Cave Brown, en 1937 c’est à la France qu’un transfuge avait offert la machine et les codes. Les Polonais la possédaient également. Les Anglais ne l’eurent que quelques mois plus tard et durent en grande partie la reconstituer. Pourtant, ni les Français ni les Polonais ne purent l’utiliser pleinement. Les Anglais durent à l’un des pères de l’informatique, Alan Turing, de pouvoir construire leur propre machine, le projet Ultra, et de l’utiliser avec efficience. Cela renforce l’évidence d’un facteur de perturbation.
Enfin, lorsque les USA sont entrés en guerre, eux étaient particulièrement mal préparés militairement. Mais le facteur X a favorisé la mise au point de la bombe A tandis que les génies concurrents de Peenemünde se heurtaient à des « hasards » malheureux incompréhensibles. Je renvoie au petit roman de Chauvin, Les Veilleurs du temps.
La guerre d’Irak actuelle rentre parfaitement dans cette logique et le plus étrange, c’est l’attitude de Chirac. Il est rare que le bonhomme fasse preuve d’une telle fermeté. Mais ce qui est significatif, c’est qu’une fois de plus une vision du monde française soit en balance avec une vision du monde anglo-saxonne lors d’un de ces épisodes « X ». Or le facteur de perturbation est bel et bien intervenu en amont, lors de l’élection de Bush, et toujours de la même façon. Ce n’était pas une tempête ni la migraine de Napoléon mais une machine à voter qui pédalait dans la semoule en Floride. Etrange, non ? Puis le 11 septembre, en plein milieu du passage de seuil technologique actuel, autre coïncidence troublante...


[1]Olivier Costa de Beauregard, Le second principe de la science du temps, Seuil, Paris, 1969.
[2]Gregory Chaitin, « Les suites aléatoires et les démonstrations mathématiques », Pour la Science, 197., pp.40-45.
[3]Programme exprimé sous forme binaire, comme suite de 0 et de 1.
[4]Ilya Prigogine et Isabelle Stenger, La nouvelle alliance : métamorphoses de la science, Gallimard, Paris, 1979, réed. augmentée Gallimard, Folio-essais, 1986, pp.13-14.