Anthropocène ou entropocène ?
« Anthropie » et « entropie », ça se prononce pareil en français, pas tout-à-fait en anglais mais ça reste similaire [8]. L’un est relatif à l’Homme (Homo Sapiens), l’autre désigne une grandeur thermodynamique. Aucun rapport ? En effet, jusqu’à qu’on ait eu à nommer la nouvelle ère géologique [26] que nous, humains, sommes doucement en train de créer (pollution, destruction des conditions de la Vie, etc.).
>>english translation
Sommaire
I. Dérégulocène, capitalocène et autres
II. 1. L’entropie, une mesure du désordre ?
II. 2. La … néguentropie ?
II. 3. Entropie vs complexité
III. 1. L’entropie : à éviter absolument ?
III. 2. Peut-on “consommer l’entropie” avec modération ?
IV. L’entropocène
Conclusion
I. Dérégulocène, capitalocène et autres
Alors que certains voudraient la nommer d’après un lieu précis, ou passer à une ère plus orientée vers le futur (« Alienocène » de F. Neyrat ou le « Chthulucène » de D. Haraway (« khthonios », signifiant « de la Terre »), d’autres proposent le « Plantationocène » pour les « plantations des Amériques comme étape clé de la transition vers une nouvelle ère géologique » [3], ou encore le « Myxocène » [1] (muxa, « vase ») pour les zones mortes infestées de méduses et d’algues toxiques*. L’Anthropocène pourrait aussi être défini de plusieurs manières différentes : 1ère bombe atomique, grandes extinctions, maitrise du feu [29], accumulation de plastiques ou … d’os de poulet [9].
Sa définition varie donc largement, ainsi que sa date de commencement : certains scientifiques hésitent donc à baptiser cette nouvelle ère [27]. D’autant plus qu’elle sera tout bonnement trop courte par rapport à la définition actuelle [10] : géologiquement, la durée d’Homo Sapiens de quelques milliers de siècles [28], et son autodestruction en quelques siècles à peine, sera plus perçu comme une « crise » entre deux ères [10].
Le suffixe –cène est donc discutable, mais la définition d’une nouvelle ère semble avoir déjà percé parmi de nombreux milieux académiques [30]. En dehors des sciences naturelles, c’est plutôt « anthropos » (« homme » en grec) qui fait débat : les dommages infligés au système Terre sont-ils vraiment imputables à parts égales aux populations des pays du Sud, aux perdants de la mondialisation, aux victimes (passées et futures) de l’impérialisme, voire même aux peuples autochtones ou de chasseurs-cueilleurs existant encore sous diverses latitudes [11, 29] ?
Le « Capitalocène » fut proposé comme remplacement [12], en opposant le capitalisme aux systèmes tribal, communal puis féodal, mais le système communiste sans accumulation de capital a été prouvé tout aussi destructeur de la nature [29, 30] (même si le marxisme pourrait théoriquement être considéré écologiste).
Alors quoi ? Le « Mégalocène » [11], l’âge où la folie de quelques-uns a été imposé au plus grand nombre ? Ou le « Dérégulocène » , le moment où « les capacités d’emprise progressivement acquises par une espèce particulière n’ont plus été régulées par les interactions de cette espèce avec l’ensemble du vivant », peut-être ? Cette approche propose de ne pas accuser des structures mentales, des « abstractions » (comme le capitalisme), car elles nous permettraient juste de nous défausser quant à notre responsabilité, et occulteraient des mécanismes évolutifs importants. Cependant, cette vision occulte le fait que certains comportements humains puissent être plus délétères que d’autres en matière d’environnement (« si tout le monde est coupable, personne ne l’est » [29]).
Enfin, contre ou en complément de l’anthropocène, « l’entropocène » a été proposée. Mais pour voir qu’elles sont ses forces et faiblesses, il faut d’abord parler d’entropie.
II.1. L’entropie : une mesure du désordre ?
L’entropie est une grandeur thermodynamique qui quantifie de combien de manières différentes (“microétats”) on peut arranger des particules élémentaires donnant in fine les mêmes propriétés à large échelle (“macroétats”). Ce concept fut beaucoup discuté et détourné, car il est à la base des lois de la thermodynamique indiquant que, sans apport supplémentaire venant d’un milieu extérieur, tout système isolé tend irréversiblement à retourner à l’équilibre (“la mort”), en ayant dissipé son énergie utile (ou exergie).
L’entropie pourrait même être une mesure de l’incertain, de l’imprévisible [20], ou de l’incertitude. Les façons d’arranger les particules d’un système physique a aussi été repris, par analogie, en théorie de l’information, et a permis de définir l’entropie d’un ensemble de données binaires. Cependant, même si l’entropie a été élargie au cours de l’Histoire a des domaines autres que la thermodynamique, un nettoyage sémantique semble de moins en moins l’associer au “désordre” (il y a donc rétrécissement de la définition). On pourrait alors définir cette grandeur comme ce qui empêche un système de changer (ou de se transformer) spontanément [46].
II.2. La … néguentropie ?
Définition : Évolution d’un système qui présente un degré croissant d’organisation. Synon. Entropie négative.
Le français Brillouin, en s’inspirant des travaux de l’américain C. Shannon, baptise la « néguentropie », la quantité d’information qui permet de structurer les systèmes physiques en évacuant leur entropie [4]. De même, l’autrichien E. Schrödinger (celui qui n’aime pas les chats?) constate que la vie, en s’auto-organisant, lutte ainsi contre le 2e principe de la thermodynamique d’accroissement de l’entropie en se « nourrissant de néguentropie » [18]. Mais à une échelle locale, et grâce au soutien continu des réactions nucléaires du Soleil et de l’activité géologique de la Terre. La notion de néguentropie est donc nécessairement limitée dans le temps ou l’espace, ou ne s’applique qu’à un système ouvert, car l’entropie globale ne peut décroître, elle. Dans la même veine, des physiciens mécanistes ont conceptualisé en 1876 le « démon de Maxwell », une entité surhumaine qui pourrait séparer les molécules d’un mélange en fonction de leurs propriétés (vitesse, masse …) : ainsi, ce « démon » pourrait re-séparer le café du lait de votre capuccino, diminuant l’entropie du système {cappuccino}. Mais l’information utilisée pour diminuer l’entropie de ce système (limité dans l’espace) a été constituée grâce à une source d’énergie externe (ou un “réservoir de basse entropie”, par des mesures et des calculs sur ordinateurs par exemple), donc avec création d’entropie (sous forme de chaleur et de dissipation, plus grande que la « néguentropie » créée dans le cappuccino). Dans tous les cas, le 2e principe de la thermodynamique s’applique donc toujours bien. « L’information n’est pas gratuite ».
II.3. Entropie VS complexité
L’entropie (informationnelle) d’une image est maximale si elle est totalement aléatoire [31] (donc désordonnée au maximum), et peut alors être définie très simplement (« il y a des 0 et des 1 partout » = définition simple), même si elle contient pourtant un maximum d’ information inconnue (l’entropie statistique étant aussi maximale car donnée par le nombre de configurations possibles). A l’extrême opposé, une image de teinte unique (ex : toute blanche) contient une entropie minimale, car la quantité d’information inconnue est nulle. Le cas intermédiaire est le plus intéressant, car il contient toute sorte de motifs complexes (voir d’ailleurs ici (d’@vdcga91) pour des exemples).
Ceci est aussi vrai pour un système thermodynamique : le cappuccino totalement mélangé est l’état de plus haute entropie (maximum de configurations pour les molécules, incertitude maximale sur leur emplacement), mais pas le plus complexe (car à chaque endroit il y a du lait et du café). Le plus complexe est le cas intermédiaire, où les turbulences du processus de mélange créent des structures complexes, fractales [22], et plutôt belles (voir image).
L’information nécessaire pour décrire le système {cappuccino} croît de pair avec l’entropie : très simple au début (bas : café, haut : lait), plus grande au milieu (café dans des ilots de lait, et inversement…) pour devenir maximale à la fin du mélange (plus aucune redondance reconnaissable, juste du café-au-lait).
L’information, malgré le fait qu’elle ait un signe négatif dans la définition de Shannon, peut donc être tout-à-fait considérée comme une entropie au sens thermodynamique : elle est le résultat d’augmentation du désordre, on parle donc bien de l’information non-accessible. Le problème vient du fait que nous n’avons pas forcément une bonne représentation du “désordre”. Augmenter le désordre (donc l’information) d’un système, ça peut aussi vouloir dire le rendre utile et intelligible pour nous humains, d’assembler des choses entres elles pour faire naître d’autres propriétés, par émergence. Ainsi, l’information peut à l’inverse être également une régression de l’entropie (une « néguentropie ») seulement lorsqu’elle devient non-aléatoire (donc lorsqu’on diminue la part d’information inconnue), qu’elle devient quelque chose de suffisamment complexe pour être utile, et beau. En tout cas pour nous, humains. Probablement qu’une machine avec une puissance de calcul infinie (type “démon de Maxwell”) pourrait appréhender l’univers en mesurant l’état de chaque particule qui le composent, mais nous, nous sommes obligés de trouver des lois, des formules mathématiques et physiques pour condenser l’information le plus possible et la rendre intelligible. Ainsi, nous augmentons la complexité, nous mettons du sens, et nous trouvons ça beau ([40]). (notons donc néguentropie = information accessible, au sens humain VS entropie = information “au sens physique”, inconnue pour nous).
Cependant, nous ne cherchons pas la complexité maximale, mais une complexité qu’on peut qualifier d’ « optimale » : on collecte d’abord des données (ex : positions des planètes), puis on repère des motifs, des régularités (“pattern” en anglais) qui peuvent se traduire en des formules physiques (ex : formules de Kepler), et enfin on en déduit éventuellement une loi générale (ex : la gravité universelle de Newton) [33]. Lors de ce processus, on a largement réduit l’information inconnue (au sens physique, donc l’entropie), et on a atteint un petit degré de complexité. Mais ces lois générales sont peu appliquées telles quelles en pratique : dans le cas de Newton par exemple (2e loi de la dynamique des corps), on préférera utiliser une formule plus complexe mais plus pratique pour chaque cas donné (loi de Bernoulli pour certains fluides par exemple), augmentant alors légèrement la complexité. Gardons aussi à l’esprit que pour arriver à conceptualiser ces belles formules (et donc diminuer l’entropie informationnelle), il faut bien un apport d’énergie externe. L’information n’est vraiment pas gratuite.
L’information (au sens humain, qui nous est accessible) est alors plus entropique qu’un état uniforme (d’entropie nulle, sans information), mais pas trop (pour rester intelligible, elle ne doit pas tendre vers trop de désordre). La “néguentropie” semble donc être relative à un état d’entropie maximale, et non à l’état d’entropie zéro.
Pour terminer de constater que “information (au sens physique, inconnue) = entropie”, on peut voir que l’information requise pour décrire l’Univers est de plus en plus grande depuis le Big Bang (où celui-ci n’était qu’un point, donc une information nulle le décrivait). Ainsi l’entropie-information croît bel et bien. Mais il se pourrait que l’information (intelligible par l’humain) décroisse, si le maximum de complexité a été atteint. Mathématiquement, cette complexité c’est celle de Kolmogorov (ou de Solomonoff [19]), avec une définition purement formulatoire, mais qui colle plutôt bien lorsqu’il s’agit de définir rigoureusement ce que l’on définit par « complexité » **.
Encart (pour pousser jusqu’au bout les concepts) : l’information au sens humain augmente s’il y a assemblage de structures complexes à partir de systèmes uniformes, ou au contraire à partir d’aléatoire. Pourtant, dans le 2e cas, l’information au sens physique (et donc l’entropie) a diminué (voir tableau ci-dessous). Cette contradiction conceptuelle vient du fait que nous avons plein de définitions de « l’information », parfois contradictoires (voir [22] p. 280), alors que l’information au sens physique (de Shannon) est, elle, bien définie [49].
La néguentropie est par ailleurs un concept assez flou, car il n’a pas le même sens si l’on considère l’information au sens purement physique, ou humain. Nous la résumerons ainsi : un apport d’énergie extérieur peut servir à ordonner des choses de façon à ce que de nouvelles propriétés émergent (ex : la Vie), et on peut appeler cette nouvelle information « néguentropie ». Par abus, l’apport d’énergie peut aussi être appelé néguentropie. Cette information peut avoir augmenté l’entropie du système (création d’information physique pure), ou l’avoir diminué (dans ce cas, de l’entropie est quand-même créée hors du système sous forme de dissipation thermodynamique), voir tableau ci-dessus. FIN DE L’ENCART
III.1. L’entropie : à éviter absolument ?
L’entropie semble être une notion plutôt neutre. En 1er lieu elle permet de mélanger, d’assembler les choses : apparition de la Vie par exemple, qui est un certain ordre (succession des bases dans l’ADN) mais plus désordonné que des tas d’atomes de carbone, d’oxygène, d’azote (et de tout le reste). A la fin, elle finit par désorganiser tout ça▪, mais après avoir passé le maximum de complexité. A consommer avec modération, donc.
L’entropie pourrait alors se définir par le degré de mélange d’un système : au début elle crée de l’information utile (pour nous), puis progressivement inintelligible. Mais seulement au niveau global. Un système non-isolé (comme la Terre) reçoit et dissipe globalement l’énergie du Soleil pour diminuer, dans des petits îlots, l’entropie locale. Il est donc primordial de bien séparer le local du global : on peut avoir l’illusion de baisser l’entropie à un endroit sur Terre, tout en l’augmentant au global.
Les systèmes numériques, qui sont a priori des « néguentropes », multiplient donc l’information (utile) en rejetant de l’entropie sous une autre forme, c’est-à-dire du CO2 et une dispersion de matériaux, notamment de métaux (ces matériaux sont présents en très petite quantité dans les appareils). Donc, contrairement à l’idée que l’informatique sera « la solution aux problèmes environnementaux que notre ère industrielle a posé à notre planète » [5], il faut bien voir que — quand bien même la source d’énergie (le Soleil) est extérieure au système Terre — l’entropie résultante du processus de création d’information reste, elle, dans le système (sous la forme de pollution, CO2+dispersion de matériaux). En plus, le numérique étant un facilitateur de l’économie, il facilite aussi les émissions de CO2 [6], qui sont des molécules très stables et très simples, dispersées, et sans direction préférentielle (gaz), donc assez entropiques (et anthropiques pour certaines, c’est bien elles qui posent problème!). Nous n’arrivons pas à évacuer l’entropie (thermodynamique) du numérique, pourtant créateur d’informations utiles pour l’humain (donc augmentant potentiellement l’ordre local). Plus généralement, nous n’arrivons pas à éliminer le surplus d’entropie que nous créons sous forme de CO2, de chaleur …
Car il est certain que nous n’accorderions que peu d’importance à augmenter l’entropie en dehors de notre planète, même de façon exponentielle, tant que notre système Terre (le seul propice à notre espèce qui y a évolué durant des millions d’années) ne se dégrade pas. Nous créons bien des « surplus d’entropie », car il s’agit de transformer et de disperser des matériaux (ressources fossiles, minerais), de façon quasi-instantanée comparé à leur temps de formation (10 millions d’années) et à leur temps de re-transformation totale (10 000 ans pour le CO2 par exemple).
Nous avons peut-être un bug évolutif : avec la maîtrise du feu, nous rejetions auparavant de l’entropie principalement sous forme de chaleur (et un peu de CO2), à partir d’une source externe (le Soleil), ce qui pouvait être facilement compensé par les écosystèmes. Mais depuis la Révolution Industrielle, le relargage d’entropie est trop rapide, et nous ne sommes pas habitués (évolutivement) à ce que notre environnement ne puisse pas suivre la cadence [47].
Il nous faut aussi aborder un autre aspect important que définit l’entropie : l’irréversibilité. En général, plus les systèmes sont gros (macroscopiques), moins ils sont réversibles, et donc plus ils créent d’entropie. Pour augmenter sa vitesse de déplacement, il faut une machine (corps humain, véhicule) dont la consommation d’énergie croît avec la taille, donc qui produit de plus en plus d’entropie : ainsi les frottements dans un fluide (dissipant sous forme de chaleur) évoluent d’abord proportionnels à la vitesse, puis à son carré (puissance deux) si celle-ci dépasse un certain seuil (dit de « turbulence »). On peut donc penser que limiter la création d’entropie, c’est être plus soutenable, avoir moins de pertes. La photosynthèse est par exemple un processus quasi-réversible, qui minimise les pertes.
Mais l’irréversibilité est quand-même nécessaire, car elle définit la « flèche du temps » (le fait que les processus se déroulent dans un sens et pas dans l’autre) [22]. Un processus est irréversible car il produit de l’entropie, et cela permet de multiplier les futurs états possibles de l’Univers*** (car l’information au sens physique, et l’incertitude, augmentent) : on évite ainsi un déterminisme absolu quand à tout état ultérieur du monde [31, 45]****. Ce pourrait être par ce processus que l’on a un libre-arbitre (mais cette discussion concerne plutôt le fonctionnement de notre cerveau).
Dans une vision plus philosophique, on pourrait dire qu’un des aspects de “l’entropocène” est justement une augmentation du libre-arbitre par une grande dépense d’énergie utile : pour exercer toujours plus ton libre-arbitre, comme acheter une grosse voiture polluante, voler vers Cancún tous les ans, manger ce que tu veux tout le temps, etc., il te faut créer toujours plus d’entropie. Il faut alors, encore une fois, veiller à ne pas en abuser, à ne pas faire n’importe quoi : l’entropie crée en premier lieu de l’irréversibilité sous forme d’information physique, ce qui multiplie les futurs possibles, mais au-delà d’un certain seuil les futurs intéressants pour l’espèce humaine se raréfient, car l’imprévisible et l’incertitude physique deviennent trop élevés (la qualité de l’information s’étant dégradée).
III.2. Peut-on “consommer l’entropie” avec modération ? (la production maximale d’entropie)
Un principe qui émerge en sciences naturelles stipule qu’un organisme maximise le flux d’énergie qui le traverse, car cela lui permet de produire un maximum d’entropie. Même si ce principe de production maximal d’entropie ne fait pas l’unanimité dans la communauté scientifique, tant pour sa démonstration que son champ d’application, il possède néanmoins quelques bases solides et est considéré utile, puisqu’il permet d’expliquer beaucoup de phénomènes [35, 43, 48].
Des systèmes de plus en plus complexes dissiperaient donc de plus en plus d’énergie, sûrement dû au fait qu’ils créent de plus en plus d’information. Il y a une corrélation, mais y-a-t-il réelle causalité ? Les systèmes sont-ils condamnés à dissiper le plus d’énergie possible [32], ou la dissipation d’énergie est-elle juste une caractéristique émergente de ces systèmes [48] ? La flèche du temps semble en tout cas favoriser l’émergence de systèmes les plus dissipatifs possibles (voir figure ci-bas, gauche).
Mais ce principe s’applique en fait aux systèmes très loin de l’état d’équilibre [36]. Par temps d’abondance, où les flux sont possibles, on tend à maximiser le rejet d’entropie et la dissipation d’énergie. Lorsque les flux sont bloqués, ou proche de l’équilibre (pénuries), on minimise plutôt (voir courbe de droite ci-dessus) [39]. Dis autrement, la minimisation de la dépense d’énergie proche de l’équilibre est équivalente à la maximisation des flux de dissipation très loin de l’équilibre [34]. Un processus dissiperait ainsi toujours un maximum d’énergie en fonctions de ses capacités, et de l’énergie qu’il a sa disposition (pour reprendre l’exemple précédent, l’écoulement turbulent d’un fluide dissipe donc plus qu’un écoulement laminaire car « il peut se le permettre », ayant une vitesse plus élevée, ou une viscosité plus faible [35]).
François Roddier va encore plus loin en affirmant que la dissipation maximale d’énergie sera délétère pour nos sociétés en fonction de l’énergie qu’on aura à notre disposition : avec une source abondante type fusion nucléaire, il serait probablement impératif de passer à un système englobant plus que la planète Terre, pour éviter un processus de dissipation très rapide de l’énergie dans un système fermé (la Terre), c’est-à-dire une guerre totale [36].
IV. L’entropocène, B. Stiegler
Bernard Stiegler reprend le principe de néguentropie [24, 25] et l’étend au principe d’automatisation. Selon lui, ce qui est automatisé devient fermé, il y a donc destruction du savoir (« au sens de savoir-vivre, savoir-faire et savoir-conceptualiser »). En outre, comme en thermodynamique, l’entropie augmente sans limite dans un système fermé : l’automatisation serait donc le moteur d’une entropocène, et il faudrait revenir à des « savoirs » qui sont néguentropiques, car ouverts. Le (regretté) philosophe Michel Serres semble aussi le rejoindre sur la néguentropie [23].
On sait maintenant que la néguentropie marche surtout avec un apport important d’énergie extérieure, et que de l’entropie est de toute façon créée (2e principe de la thermodynamique).
Je considère pour ma part que le système actuel globalisé se considère comme un système fermé par rapport au système Terre, et lui rejette donc son entropie impunément. L’humain doit donc surtout comprendre qu’il est totalement intégré et couplé à son environnement (tout comme la société est couplée au système Terre) pour que cela cesse ▪▪.
[ajout: Un mois après avoir écrit ces lignes, je suis tombé sur le très bon papier de J.H. Robbins (en anglais), qui avait aussi introduit ces idées , notamment l’entropocène ! En particulier, le fait que les technologies — néguentropes et ordonnées — auraient trouvé en nous le réservoir où “rejeter” leur entropie [44].]
Je dois tout-de-même m’astreindre à une mise en garde : il ne s’agit nullement ici de définir une « théorie du tout » en écologie, sorte de scientisme mal venu qui ignorerait les sciences humaines et sociales. Le but n’est que d’exposer des mécanismes tirés de sciences de base comme la Physique et pouvant apporter une clé de lecture, de dresser des parallèles qui méritent d’être explorés, sans prétendre résumer la complexité des enjeux anthropologiques, sociologiques et politiques sous-jacents [50], et surtout sans tomber dans un fatalisme (ce qui est le propre du dogme mécanicien, et la thermodynamique ne saurait y souscrire !).
Conclusion
On a vu que définir une nouvelle ère géologique « anthropo-cène » présentait des problèmes, tant pour son préfixe “anthropo-” que son suffixe “-cène”. Pourtant, il semble quand-même utile de considérer scientifiquement cette ère, pour mettre un mot sur la crise environnementale que nous alimentons.
On a ensuite défini l’entropie, et vu que c’est en fait une notion assez neutre, ce qui va à l’encontre des caricatures habituelles « d’augmentation croissante du chaos » qu’on lui attribue : l’entropie permet la flèche du temps, peut-être d’avoir un libre-arbitre et de lutter contre le déterminisme absolu. En plus d’être une caractéristique du mélange de corps, sa définition s’étend aussi au domaine de l’information, en résolvant un paradoxe : l’information au sens physique est bien une entropie à proprement parler, c’est l’information au sens humain (intelligible, utile) qui peut être une “néguentropie”, et le désordre peut donc diminuer par ajout d’information si on part d’un système désordonné, aléatoire, mélangé (mais elle peut au contraire augmenter si on part d’un système simple). Cela s’explique par la notion de complexité, qui tend à croître avec l’entropie, puis à décroître passé un certain seuil : l’information au sens humain a une certaine complexité pour avoir du sens. La planète Terre est la plus complexe et complète (la seule avec cratères, volcans, champ magnétique, lune, atmosphère [28]), ce qui a permis l’émergence de la Vie. La complexité est aussi associée pour nous à la beauté — notion subjective tout comme l’entropie qui est bien définie par rapport à notre point de vue d’humain.
Cette entropie peut être rejetée à l’extérieur du système sous forme de diverses pollutions physiques (ex : CO2, dilution de polluants, etc.) : tout l’enjeu est donc de bien définir le système, qui n’est jamais totalement isolé si on est sur Terre, pour ne plus rejeter une entropie qu’on pense voir éliminée vers l’extérieur, alors qu’elle reste en vase clos. Les nombreux incendies qui ravagent actuellement de monde sont d’ailleurs tout autant des marqueurs de production intense d’entropie.
Enfin, un principe de plus en plus utilisé stipule que les systèmes naturels s’auto-organisent pour produire toujours plus d’entropie, mais uniquement en réponse à l’énergie utile donc ils disposent. L’entropocène est donc peut-être aussi, paradoxalement, le moment où nous pouvons utiliser trop d’énergie bon marché, où nous pouvons exercer trop intensément notre libre-arbitre, insouciants des conséquences, ou plutôt pas évolutivement conçus pour les percevoir. Nous ne sommes d’ailleurs pas évolutivement conçus non plus pour traiter l’(énorme) quantité d’informations que nous créons désormais.
Notre époque ne marque donc pas seulement une production démesurée d’entropie, mais peut-être plutôt le manque de sens de cette production. Pour cette raison, et pour toutes celles qu’on a évoqué, nous sommes bien dans une crise majeure (à l’échelle des temps géologiques), qu’il peut convenir d’appeler « entropocène ».
“Le sujet que j’ai voulu embrasser est immense; car il comprend la plupart des sentiments et des idées que fait naître l’état nouveau du monde. Un tel sujet excède assurément mes forces; en le traitant, je ne suis point parvenu à me satisfaire.” (Alexis De Tocqueville)
* à vrai dire il y en a plein d’autres : Occidentalocène, Machinocène, Chimicocène , Industrialocène, Énergitocène, Molysmocène, Pyrocène
** à moins qu’on doive parler de sophistication ? [19]
*** « “Disorder” is growing, and that’s precisely what permits complexity to appear and endure for a long time” » [22]
**** cette liberté vient d’une incertitude quant à l’évolution de toute chose, qui peut sans doute être relié à la mécanique quantique [45]: elle postule (interprétation de Copenhague) justement que l’état des particules n’est pas défini jusqu’à qu’on le mesure. Ces mesures créent de l’information, et sont peut-être à l’origine de la création d’entropie [31].
▪ la “mort thermique” de l’univers n’est pourtant pas certaine : l’entropie globale ne peut pas décroître, mais peut rester constante. Il pourrait même y avoir d’autres entités qui exploitent l’entropie supplémentaire (i.e. la part d’information créée qui nous est inaccessible).
▪▪ Claude Lévi‑Strauss affirmait d’ailleurs dans Tristes Tropiques (1990 : 529–530) : « la civilisation peut être décrite comme un mécanisme prodigieusement complexe où nous serions tentés de voir la chance qu’a notre univers de survivre, si sa fonction n’était pas de fabriquer ce que les physiciens appellent entropie, c’est‑à‑dire de l’inertie. […] Plutôt qu’anthropologie, il faudrait écrire entropologie le nom d’une discipline vouée à étudier, dans ses manifestations les plus hautes, ce processus de désintégration »
Bonus (extension):
L’entropie, mot forgé par Clausius en 1865 à partir du grec “retournement à l’intéreur”+ “changement, révolution” “direction, mode”, d’une racine indo-européenne trek, trok, “tordre”. La terminaison -ie est donnée par analogie avec énergie. [17]
On pourrait tenter d’élargir “entropo-” aussi à l’entreprise, c’est-à-dire le moment où certains homo sapiens ont créés des structures imaginaires (des abstractions) ayant pour stratégie de fournir des biens ou des services. On retrouve le principe de direction, mais surtout de transformation.
Cela ferait remonter le début de “l’entropocène” bien avant celui de “l’Anthropocène”, car l’agriculture (la pire erreur de l’Humanité d’après la célèbre phrase de J. Diamond [2]) peut par exemple être vue sous cet angle, à l’opposition d’un mode de vie type chasseur-cueilleur. Certains y préféreront sans doute le début de la révolution cognitive. En tout cas, « l’entreprise » n’est pas égale au capitalisme (et l’entropocène au capitalocène), car elle ne suppose pas d’accumulation infinie, de propriété privée (au sens large), et les modes collectivistes peuvent aussi être considérés comme des entreprises (au sens large). Malheureusement, les puristes souligneront, à raison, que le préfixe est entropo- et pas entrepri-. Entreprise c’est « prendre de ses mains », ça vient « d’emprise ». On retrouve un peu du « changement de direction », mais la racine n’est quand-même pas tout-à-fait équivalente.
Perdu pour perdu, on peut s’amuser à considérer l’entropocène comme l’ère de “l’entre-soi” (cette fois il n’y a que les 4 premières lettres qui conviennent!) : ce moment où l’humain a voulu n’être plus que l’unique habitant de sa planète-mère (en supposant que ce soit seulement possible…), et a préféré l’extension des siens à la survie des autres.
D’ailleurs l’entre-soi s’étend même à nos cercles de discussion, à nos communautés, à nos bulles informationnelles, de plus en plus marquées …
Une autre piste intéressante est la croissance de l’information depuis quelques années. « Aujourd’hui, on sait tout, mais on ne fait rien » [37]. On a multiplié l’information [42] (aussi dans nos rencontres [41]), les canaux pour s’informer, et on en est saturé : le cerveau ne peut plus suivre, il se réfugie dans la simplicité [38]. Les « fake news » ? Ça permet de créer de l’information en un temps record, car pas besoin de les vérifier, d’étudier. Avec N×M d’énergie, je peux écrire N×M articles avec une complexité de 1 (fake news), ou N articles de complexité M (élaborés). On retrouve le duel complexité/désordre comme marqueur de l’entropocène.
Un lecteur m’a aussi soufflé “en-trop-o-cène”, merci à lui !
Il y a vraiment autant de définition de cette « nouvelle ère » que de gens qui y ont réfléchi [15]… ;)
Références :
[1] : Guillaume Lachenal, « Ci-gît l’anthropocène » (Nov 2019), Libération, https://www.liberation.fr/debats/2019/11/13/ci-git-l-anthropocene_1763191
[2] : J. Diamond, “The Worst Mistake in the History of the Human Race” (1987), http://www.ditext.com/diamond/mistake.html
[3] : FranceCulture, “L’anthropocène et la nouvelle crise de l’universel. Quand le monde se retourne contre la modernité” (2019), https://www.franceculture.fr/conferences/canal-u/lanthropocene-et-la-nouvelle-crise-de-luniversel-quand-le-monde-se-retourne-contre-la-modernite
[4] “Qu’est-ce que la néguentropie ?” (2015), https://www.connaissancedesenergies.org/quest-ce-que-la-neguentropie-151103
[5] Philippe Jacquet, « Naissance de la théorie de l’information », Bibnum [En ligne], Calcul et informatique, mis en ligne le 01 septembre 2009, consulté le 08 décembre 2019. URL : http://journals.openedition.org/bibnum/568
[6] FranceCulture, “Consommation numérique : la fabrique à CO2(.0)” (2018), https://www.franceculture.fr/emissions/la-methode-scientifique/consommation-numerique-la-pompe-a-co20
[7] Patricia Crifo, Michele Debonneuil, Alain Grandjean, « Croissance verte », (Novembre 2009), https://www.ecologique-solidaire.gouv.fr/sites/default/files/CEDD%20-%20Croissance%20verte.pdf
[8] “Anthropie” (2012), https://sites.google.com/site/etymologielatingrec/home/a/anthropie
[9] Benett et al., “The broiler chicken as a signal of a human reconfigured biosphere”, R. Soc. open sci. (Dec 2018), https://royalsocietypublishing.org/doi/10.1098/rsos.180325
[10] P. Thomas, “L’Anthropocène, le regard et les réflexions d’un géologue”, (2018), https://planet-terre.ens-lyon.fr/article/Anthropocene-geologie.xml
[11] Thierry Sallantin, « Ni anthropocène, ni capitalocène : le problème, c’est le mégalocène », https://www.partage-le.com/2018/04/30/9279/
[12] F. Legault, “Anthropocène ou Capitalocène? Quelques pistes de réflexion” (2016), https://revuelespritlibre.org/anthropocene-ou-capitalocene-quelques-pistes-de-reflexion,
[13] Vincent Mignerot, “Anthropocène, Capitalocène ou… Dérégulocène ?” (2019), https://vincent-mignerot.fr/anthropocene-capitalocene-ou-deregulocene/
[14] L’Alienocène par F. Neyrat, conf. “Panser l’Anthropocène” (2018), http://www.ieim.uqam.ca/spip.php?article11470&lang=fr
[15] Nicolas Hulot & Pablo Servigne & Alexia Soyeux au Climax Festival (2019) https://youtu.be/73smx5C8YHw?t=1141
[16] “ Thermodynamics Quotes”, https://todayinsci.com/QuotationsCategories/T_Cat/Thermodynamics-Quotations.htm
[17] Pierre de Menten de Horne, « Dictionnaire de chimie: Une approche étymologique et historique », (2015) ISBN 978–2804181758, https://tinyurl.com/wo9luqw
[18] Erwin Schrodinger, Roger Penrose — “What is Life?”-Cambridge University Press (1992), https://tinyurl.com/w829z54
[19] Lê Nguyen Hoang, “La formule du Savoir” (2018), https://www.goodreads.com/book/show/40529387-la-formule-du-savoir
[20] R. Branche, « La loi de l’entropie accroît l’imprévisibilité, et non pas le désordre » (2012), https://robertbranche.blogspot.com/2012/03/la-loi-de-lentropie-accroit.html
[21] V. Mignerot et L. Semal, « Anthropocène, Capitalocène ou… Dérégulocène ? » https://www.youtube.com/watch?v=GVXt2o6AGGY
[22] S. Caroll, « The Big Picture: On the origin of life, meaning, and the universe itself » (2016), https://tinyurl.com/s98ux4v
[23] Dialogue Michel Serres et Bernard Stiegler, “Le bond technologique néguentropique du XXIe siècle” (2012), https://www.youtube.com/watch?v=iREkxNVetbQ
[24] B. Stiegler, « De l’entropie à la néguentropie » (2016), https://www.youtube.com/watch?v=PW6fA9NjNQI
[25] B. Stiegler « Sortir de l’anthropocène », Multitudes (2015), https://www.multitudes.net/sortir-de-lanthropocene/
[26] Le Reveilleur, « L’Anthropocène » (2018), https://www.youtube.com/watch?v=n85obqP4CGE
[27] LeMonde, “Anthropocène : sujet géologique ou sociétal ?” (2016), https://www.lemonde.fr/sciences/article/2016/09/12/anthropocene-sujet-geologique-ou-societal_4996574_1650684.html
[28] Bonnet, RM, Woltjer, L., “Surviving 1000 CenturiesCan We Do It?”, Springer (2008), https://www.springer.com/gp/book/9780387746333
[29] A. Malm, “Le mythe de l’anthropocène” (2019), https://www.pressegauche.org/Le-mythe-de-l-anthropocene
[30] Nature news, “Humans versus Earth: the quest to define the Anthropocene” (2019), https://www.nature.com/articles/d41586-019-02381-2
[31] Veritasium, “What is NOT random”, https://www.youtube.com/watch?v=sMb00lz-IfE
[32] On pense évidemment à des citations type N. Georgescu-Roegen : “Tout se passe comme si l’espèce humaine avait choisi de mener une vie brève mais excitante, laissant aux espèces moins ambitieuses une existence longue mais monotone”, in Demain la Décroissance, Entropie, écologie, économie (1979).
[33] John Harte, “Maximum Entropy and Ecology: A Theory of Abundance, Distribution, and Energetics”, OSEE (2011), https://books.google.ca/books?id=uKEke6zrfBYC
[34] Zupanovic, “The Maximum Entropy Production Principle and Linear Irreversible Processes”, Entropy (2011), https://arxiv.org/abs/1003.3680
[35] Martyushev & Seleznev, “The restrictions of the Maximum Entropy Production Principle” Physica A: Statistical Mechanics and its Applications 410 (2014): 17–21, https://arxiv.org/abs/1311.2068
[36] F. Roddier, « Le syndrome de la reine rouge » (2012), https://www.institutmomentum.org/wp-content/uploads/2013/10/le-syndr%C3%B4me-de-la-reine-rouge.pdf
[37] Sarah Roubato, Lettre à Émile Zola, dans le livre “Lettres à ma génération” (ed Michel Lafon), https://www.wedemain.fr/Bonnes-feuilles-Lettres-a-ma-generation-manifeste-pour-une-jeunesse-solidaire_a1608.html
[38] Hubert Guillaud, « Technologie : l’âge sombre » (2018), http://www.internetactu.net/2018/09/10/technologie-lage-sombre
[39] Ichiro Aoki, “Entropy Principle for the Development of Complex Biotic Systems — Organisms, Ecosystems, the Earth”, Elsevier Insights (2012), https://tinyurl.com/rjtpjcb
[40] il faut cependant faire attention à ce que la Physique qu’on développe ne se fasse pas biaisée par un modèle mathématique qui soit “trop joli pour être faux”, voir https://blog.usejournal.com/has-physics-gone-astray-60cfca8ad62c
[41] Huffpost, “7 Ways To Deal With Dating Burnout” (2013), https://www.huffpost.com/entry/tk-ways-to-deal-with-dating-burnout_b_4059561
[42] Lifehack, “How to Stop Information Overload and Get More Done” (2019), https://www.lifehack.org/articles/productivity/how-to-fight-information-overload.html
[43] England, J. Dissipative adaptation in driven self-assembly. Nature Nanotech 10, 919–923 (2015), https://www.nature.com/articles/nnano.2015.250
[44] J.H. Robbins, “The Entropocene” (2017), http://journals.isss.org/index.php/proceedings61st/article/view/3232
[45] Ettore Majorana, “The value of statistical laws in physics and social
sciences”, Translated from “Scientia”, vol. 36, 1942, pp. 58–66, by R. N. Mantegna in “Quantitative Finance” 5 (2005) 133–140, https://link.springer.com/chapter/10.1007/978-3-540-48095-2_11
[46] https://www.cs.mcgill.ca/~rwest/wikispeedia/wpcd/wp/e/Entropy.htm
[47] Voir Rens & Grinevald, “Réflexions sur
le catastrophisme actuel” (1975) citant G. Bataille. La part maudite et N. Georgescu-Roegen, La Science économique, http://classiques.uqac.ca/contemporains/rens_ivo/reflexions_catastrophisme/reflexions_catastrophisme_texte.html
[48] H. T. Odum, “Environment, Power, and Society for the Twenty-First Century: The Hierarchy of Energy” (2007), https://www.jstor.org/stable/10.7312/odum12886
[49] J. E.J. Schmitz, “The Second Law of Life — Energy, Technology, and the Future of Earth As We Know It” (2007)
[50] J. Zin, “Les mésusages de l’entropie” (2020), https://jeanzin.fr/2020/04/24/les-mesusages-de-lentropie/