vendredi 4 avril 2025

Réchauffement climatique, que dit la physique ?

 

En 2006, le film d’Al Gore « Une vérité qui dérange » qui annonçait un cataclysme climatique a obtenu un grand retentissement mondial. Depuis lors on observe une déferlante médiatique qui martèle ad-nauseam que les émissions de CO2 produits par l’activité humaine provoqueraient un effet de serre induisant un réchauffement climatique dit anthropique qui aura demain des conséquences catastrophiques. En 2007, la justice britannique a démenti un grand nombre d’assertions du film mais cet événement fut quasiment passé sous silence.


Le principal argument d’autorité des médias est basé sur les rapports du GIEC dont on laisse entendre qu’il serait constitué d’une armée de scientifiques totalement indépendants. Ces rapports prétendent qu’il y aurait consensus scientifique sur un réchauffement climatique dont la source est liée à la production de CO2 d’origine humaine. Par conséquent des mesures drastiques de réduction de ces émissions sont obligatoires sous peine d’apocalypse à court terme. Malheureusement pour ces derniers, depuis la médiatisation du film « fondateur » qui commence à dater, nous n’avons toujours rien vu venir, les catastrophes restent toujours annoncées pour le lendemain.

A défaut de « consensus scientifique » qui est un oxymore, il serait plus juste de parler de « consensus médiatique ». Nous allons voir dans ce papier que les assertions concernant les effets délétères du CO2 anthropique ne reposent sur aucune base scientifique sérieuse car il existe de puissants phénomènes physiques ignorés du GIEC qui régulent la température de la planète [1].

1. La théorie dominante (dans les médias)

Les médias mainstream affirment que le GIEC collecte des milliers d’études scientifiques qui concordent toutes pour démontrer que le CO2 anthropique induit le réchauffement climatique actuel. Ces derniers se gardent bien de tenter de vulgariser le contenu de ces études qui, comme dans pratiquement tous les domaines, échappent à leurs compétences. Nous sommes donc dans un système de panique organisée qui n’est pas sans rappeler les terreurs et autres superstitions de nos ancêtres n’ayant aucune connaissance scientifique.
En substance, la théorie mainstream considérée comme canonique est basée sur la différence entre l’énergie solaire reçue par la Terre et celle qu’elle réémet dans l’espace. Cette dernière affirme que c’est le CO2 injecté artificiellement dans l’atmosphère qui absorbe une partie du rayonnement sortant induisant donc une augmentation de la température moyenne du globe puisque la Terre émettra alors moins d’énergie qu’elle n’en reçoit.
Pour tenter d’y voir plus clair, il est indispensable d’entrer dans quelques considérations techniques.

La Terre reçoit en permanence une certaine quantité de chaleur du soleil qui est proportionnelle à la distance Terre-Soleil. D’après la théorie du corps noir découverte en 1900 par Max Planck, la Terre réémet vers l’espace l’intégralité de cette chaleur sous la forme d’ondes électromagnétiques.
Le profil idéal en fréquences de la courbe d’émission d’un corps quelconque appelé « spectre de Planck » ne dépend que de la température. On remarque en passant que pour ce qui concerne le soleil dont la température de surface est d’environ 5500 K, la courbe d’émission de ce dernier correspond exactement à la plage couverte par l’œil humain ou « lumière visible » :

Courbes d’émissions types fonctions de la température

Dans le cas de la Terre, sa courbe d’émission a été mesurée par le réseau de satellites Nimbus. On constate alors des « trous » dans le profil de la courbe (voir figure ci-dessous) liés à des plages d’absorptions énergétiques dans l’atmosphère par effet de serre. Ces derniers correspondant à la vapeur d’eau ainsi qu’au fameux CO2 qui absorbent une partie du rayonnement émis à certaines longueurs d’ondes.


Mesures effectuées par Nimbus 4

La théorie défendue par le GIEC considère que si le taux de CO2 augmente artificiellement, alors l’absorption afférente augmentera également et diminuera donc la quantité de rayonnement réémis induisant un réchauffement global de la Terre.

Cette théorie est basée sur le modèle de Syukuro Manabe proposé dès les années 1960, il fut depuis lors la base de simulations informatiques successives avec une sophistication croissante liée aux progrès techniques des calculateurs.
Le principal défaut de ce modèle est de ne prendre en compte que les mécanismes liés à l’effet de serre atmosphériques. Il omet de considérer le système global atmosphère-océans ainsi que les multiples boucles de contre-réactions régulatrices de la température qui se cumulent pour éviter les sauts climatiques brutaux.

La chaleur solaire reçue par la Terre est évacuée par cette dernière selon trois mécanismes fondamentaux que sont le rayonnement, la conduction et la convection [2]. Ces mécanismes sont à la base de la compréhension scientifique de la machine climatique.
Les modèles des « réchauffistes » anthropiques négligent la plupart de ces derniers.

2. Régulation par le rayonnement de Planck, le colosse océan et le lutin atmosphère

En premier lieu, l’atmosphère ne peut être isolée d’un ensemble qu’elle constitue avec les océans qui couvrent environ 70% de la surface de la Terre. Cet ensemble avec son énorme surface d’échange est le premier régulateur de température. En effet, il faut savoir que la masse totale des océans est estimée à 250 fois la masse totale de l’atmosphère. Par ailleurs la capacité thermique de l’eau de mer est environ 4 fois supérieure à celle de l’atmosphère, en clair cela signifie qu’à masse égale pour augmenter la température de 1 degré il faut 4 fois plus d’énergie pour l’eau que pour l’air.
Ces deux paramètres simples montrent que les océans constituent un colosse d’inertie thermique 1000 fois plus puissant que le nain atmosphère.

Même les membres du GIEC seront incapables de réchauffer leur piscine avec un sèche-cheveux !

Le second paramètre à considérer est le comportement de corps noir déjà évoqué plus haut. Il indique que tout corps qui reçoit de l’énergie est chauffé à une certaine température, il renvoie alors 100% de cette dernière vers l’extérieur selon des profils spectraux vus plus haut. D’après la loi de Stefan-Boltzmann, cette énergie réémise est proportionnelle à la puissance 4 de la température moyenne du corps, cela signifie que si la température augmente de 1%, alors l’énergie émise augmente de 4% donc beaucoup plus fortement.

La Terre reçoit son énergie du soleil, environ 30% de cette dernière est réfléchie et les 70% restants sont absorbés. La Terre renvoie ensuite 100% de l’énergie absorbée vers l’espace et si sa température moyenne venait à augmenter alors l’énergie émise augmenterait fortement.
De plus, le spectre d’émission de Planck mesuré par satellite possède aux moins trois cheminées (flèches oranges) d’écoulements énergétiques totalement indépendants des effets de serre (flèches bleues). Si un effet de serre venait à s’accentuer alors l’énergie transmise augmenterait à son tour de la même quantité dans ces cheminées.


Orange : évacuation thermique
Bleu : absorption par effet de serre

Une augmentation de la température et donc de l’énergie émise induirait donc un refroidissement et à l’inverse si la température baissait, l’énergie émise diminuerait et la Terre se réchaufferait. On constate que la température de la Terre et donc son climat sont liés à la quantité d’énergie solaire reçue, cette énergie étant principalement absorbée et réémise par les océans.

La loi de Boltzmann montre donc en premier lieu un effet stabilisateur majeur sur la température de la Terre. Cette température est principalement liée à la distance Terre-Soleil qui varie elle même selon des cycles que l’on évoquera plus loin.

L’effet suivant concerne la dissipation de la chaleur par conduction dans l’atmosphère.

3. Régulation par conduction dans l’atmosphère, loi de Fourier

Les océans avec leur énorme inertie thermique ont une température qui va de 0-2°C environ dans les grands fonds à une température d’équilibre thermique avec l’air en surface. Cette température de jonction vaut en moyenne 14.3° C.
La loi éponyme établie vers 1820 par Joseph Fourier permet de modéliser le phénomène de conduction thermique dans un corps qu’il soit solide, liquide ou gazeux. C’est l’agitation permanente des molécules d’air dans l’atmosphère qui induisent un phénomène de conduction de la chaleur du point chaud vers le point froid. La température n’est en fait que la caractérisation de cette vitesse où les particules s’entrechoquent à environ 300 mètres/s à température ambiante.
La loi de conduction de Fourier définit un déplacement de l’énergie thermique des parties chaudes d’un système vers les parties froides. Mathématiquement, ce phénomène est modélisé par un ensemble de deux équations différentielles qui admettent une solution linéaire très simple.
Concrètement si l’on applique cette loi à l’atmosphère, alors elle indique que la température chute en altitude de 6.5°C par kilomètre. Si l’on considère par exemple une température au sol de 20°C (point chaud) alors on constatera une température de -58°C à la limite moyenne de la troposphère située à une hauteur de 12 kilomètres (point froid).

Il faut retenir que si la température du point chaud augmente, alors le flux de conduction thermique augmentera lui aussi afin de le refroidir et vice-versa.

4. Régulation par convection

Le troisième effet modérateur de la température concerne le phénomène de convection thermique.
Le principe de cette dernière est le suivant : lorsqu’un fluide liquide ou gazeux possède de grandes masses dont la température est supérieure à sa moyenne, alors ces dernières se déplaceront sous l’effet de la poussée d’Archimède.
On constate dans l’atmosphère terrestre trois phénomènes induits par ce principe appelés cellules de Hadley, Ferrel et polaires. Ces derniers forment des boucles de circulations atmosphériques qui se manifestent en surfaces océaniques par des vents réguliers. Les fameux Alizés bien connus des navigateurs sont issus des cycles de Hadley qui transfèrent par convection vers une hauteur d’environ 12 kilomètres des masses d’air chaud générées à l’équateur, ces masses se refroidissent alors à cette altitude pour retomber au niveau des tropiques et revenir à leur point de départ formant une boucle de ventilation thermique en circuit fermé.

Dans le cas où la température proche du sol augmenterait, alors ces cellules de convection accélèreraient et auraient pour effet de refroidir le sol.

On doit également citer à ce niveau les phénomènes appelés El Niño et La Niña.
Le phénomène El Niño d’une durée de 9 à 12 mois ou « anomalie chaude » concerne le déplacement selon des cycles de 2 à 7 ans d’énormes masses d’eau d’est en ouest dans l’océan Pacifique. Ce phénomène induit ici des pluies torrentielles et là de violentes sécheresses avec des pics de températures allant jusqu’à +2°C.
Chaque épisode El Niño est presque toujours suivi du phénomène inverse La Niña ou « anomalie froide » qui remet en quelque sorte les pendules à zéro.

Les phénomènes El Niño et La Niña sont pour l’instant sans explication scientifique claire, de plus aucune corrélation entre la fréquence ou l’amplitude de ces derniers avec le taux de CO2 n’a été constatée.

5. Lorsque le GIEC inverse la cause et l’effet

La question de la corrélation entre réchauffement et taux de CO2 se pose non seulement sur le court terme (échelle du siècle) mais également sur le long terme (échelle 500 000 ans).
Le physicien Pascal Richet a publié en 2021 un article [3] qui réfute la doxa de la fameuse corrélation mais l’éditeur a subit des pressions pour retirer son article !
Ce dernier est cependant toujours accessible ici.

La température moyenne de la Terre a effectivement augmenté d’environ 1 °C depuis 1850, soit le début de l’ère industrielle, en parallèle le taux de CO2 dans l’atmosphère a également augmenté continument en partie seulement à cause de l’activité humaine.
Cependant, cette corrélation n’est qu’apparente car si l’on observe les courbes, on constate qu’entre 1880 et 1910 la température a baissé pour remonter jusqu’en 1942 avant de baisser à nouveau jusqu’en 1978 pour remonter à nouveau depuis cette date [L4].
S’il y avait corrélation, on aurait constaté une croissance continue et linéaire de la température en parallèle de celle du CO2.

Température moyenne mesurée entre 1880 et 2020

Pire, l’étude ici [4] montre que si l’on prend en compte l’augmentation annuelle du taux de CO2, on constate que ce sont les pics de CO2 qui suivent les pics de températures avec une très bonne corrélation. Cela pourrait s’expliquer par un phénomène de dégazage de CO2 des océans sous l’effet de la température décrit en 1803 par la loi de Henry.

Les pics de CO2 sont générés par les pics de température !

Sur le long terme soit selon une période de 500 000 ans environ, on constate la même chose.

L’étude des carottes de glaces en Antarctique a montré une réelle corrélation entre la température et le taux de CO2. Les pics de CO2 ont toujours suivi (et non précédés) les pics de températures. A nouveau, on observe que ce sont les augmentations de températures qui induisent une augmentation du taux de CO2 atmosphérique. Ces observations s’expliquent également par la loi de Henry qui indique un probable dégazage de CO2 des océans sous l’effet de la température.
Pour la période récente, l’étude de 2022 des professeurs Belges Van den Broek et Masson établit également un modèle corrélatif qui indique que c’est la concentration de CO2 qui dépend de la température.

Contrairement à ce que prétend la doxa, des études sérieuses et indépendantes indiquent que ce sont les augmentations de températures qui induisent des augmentations du taux de CO2 et non l’inverse !

6. C’est le soleil qui règle le climat

Comme vu précédemment, la quantité d’énergie solaire reçue par la Terre dépend de l’activité solaire et de la distance Terre-Soleil.
Une découverte fondamentale concerne des variations cycliques de l’orbite de la Terre et donc de cette distance selon des périodes allant de 25 000 à 400 000 ans. Il s’agit des trois cycles dits de Milankovitch qui engendrent d’importantes variations climatiques telles que des périodes glaciaires ou interglaciaires. Cette théorie des paramètres orbitaux (les paramètres de Milankovitch) s’applique également à toutes les planètes du système solaire.
Le second facteur qui induirait une augmentation de la température du globe concerne l’activité solaire, si le soleil émet plus d’énergie alors la Terre se réchauffera proportionnellement. Cette variation de la puissance émise est liée à l’observation des taches solaires, lorsqu’elles apparaissent alors la température de surface du soleil augmente.

En synthèse, pour que la Terre augmente sa température il faut que sa distance au soleil diminue ou alors que ce dernier augmente son émission d’énergie.

7. La question de l’élévation des niveaux marins

Sous l’effet d’un échauffement, tous les corps se dilatent en volume et l’eau de mer obéit également à cette règle. Par ailleurs la fonte des glaces peut en théorie avoir également un effet sur l’élévation des niveaux par ajout de liquide dans l’ensemble [5].
Sur cette question, il faut distinguer deux cas de figure.

Considérons d’abord la banquise constituée de glaces flottantes sur l’eau qui en cas de fonte et selon le principe d’Archimède n’aura aucun impact sur le niveau de la mer.
En second lieu, les glaciers ou calottes glacières des pôles pourraient faire monter les niveaux par déversement d’un nouveau volume d’eau dans les mers. Cependant ces phénomènes sont pour l’instant négligeables car sur la période récente, seuls les glaciers de montagnes ont eu tendance à se liquéfier modérément à certaines périodes.
Coté dilatation de l’eau de mer, sur le siècle écoulé on a mesuré une augmentation de température moyenne de 0.6 degré ainsi qu’une élévation du niveau des mers de 15 centimètres environ. Le calcul de dilatation de l’eau des océans est basé sur une hauteur d’eau limitée par une profondeur critique en deçà de laquelle il n’y a plus d’échanges de chaleur avec la surface et donc de variation de température. Cette barrière appelée Thermocline est située à environ 1000 mètres de la surface. Il est alors facile de calculer l’augmentation du niveau moyen des mers en fonction de la température, on trouve une élévation de 15.6 centimètres par degré de réchauffement.

La concordance entre les mesures et le calcul de dilatation démontre le rôle négligeable de la fonte des glaciers dans l’élévation du niveau des mers [5].

8. Pour qui roule le GIEC ?

Le GIEC fut mandaté initialement pour étudier l’influence de l’activité humaine sur le climat, c’est donc sa raison d’être. Le GIEC est couplé avec le CMIP qui est un projet mondial synchronisant les différentes recherches concernant les modèles climatiques couplés. C’est donc le CMIP qui diffuse les données climatiques destinées aux analystes. Le GIEC se charge alors de l’évaluation des modèles [6].
Un conflit d’intérêt a cependant été mis en évidence en 2003 par une scientifique indienne, en effet les personnes qui rédigent les rapports finaux du GIEC sont les mêmes que celles qui au CMIP élaborent et priorisent les choix de scénarios à modéliser [6]. Par ailleurs, le CMIP est sponsorisé par des entreprises impliquées dans la finance verte, tout ce petit monde a donc intérêt à la diffusion de mauvaises nouvelles.
Les groupes de travail WG1 (WorkGroups 1) du GIEC s’occupent des bases physiques du sujet. Dans leurs rapports à fréquence de 5 à 10 ans dont le volume est de 3000 à 4000 pages et que presque personne ne lit, il n’est nulle part évoqué une quelconque urgence climatique.
Ces travaux sont ensuite synthétisés à destination des décideurs politiques à travers un rapport appelé « Summary For Policymakers » (SPM). Ce dernier résume en une trentaine de pages les travaux du WG1 et c’est seulement à ce niveau que l’on trouve des alertes sur des tendances climatiques catastrophiques.
Le moins que l’on puisse dire est que ces SPM ont donc une forte connotation politique [6] !
(Vidéo Eric Verrecchia ici).
De nombreux scientifiques contestent les méthodes et conclusions du GIEC comme par exemple Steven Koonin l’ancien conseiller d’Obama, voir ici et ici [7].

9. Conclusion

De même que la carte n’est pas le territoire, les simulations informatiques ne sont pas la réalité.
Nous avons vu dans ce papier que la théorie du changement climatique anthropique ne prend en compte qu’une approche très partielle liée au seul CO2 en ignorant les multiples mécanismes qui construisent et régulent le climat.
Cette théorie n’est par ailleurs pas falsifiable selon les critères de réfutabilité de Popper.
Popper a proposé un moyen d’augmenter indirectement la validité d’une théorie en supposant que l’on puisse imaginer des expériences permettant de réfuter ladite théorie. Si ces expériences échouent, alors la théorie en sortira renforcée. Dans notre cas, il est impossible de concevoir de telles expériences pour réfuter le modèle dominant.
Par ailleurs, le climat est un domaine qui doit être observé sur le long terme et regarder à la loupe quelques dizaines d’années n’a pas de sens.
N’en déplaise à certains « journalistes », il n’a jamais été démontré que les quelques parties par millions (PPM) de molécules de CO2 rejetées par l’homme dans l’atmosphère suffisent à expliquer par effet de serre l’augmentation modérée de la température moyenne du globe d’environ 1 degré Celsius sur un siècle et demi. A l’inverse, certaines études indiquent que ce sont les variations de température qui feraient fluctuer le taux de CO2.
Une modélisation exhaustive prenant en compte tous les facteurs connus qui pilotent le climat étant hors de notre portée, les « réchauffistes » se sont contentés de modèles simplifiés qui omettent les principaux facteurs régulateurs de température. Il est donc complètement illusoire de prétendre que l’on serait capable de prévoir la température sur une plage de 10 à 50 ans. De plus, sur le temps long on a constaté des variations climatiques très importantes sur lesquelles le CO2 anthropique ne pouvait avoir la moindre influence puisque l’activité humaine n’en produisait pas.

Autour du GIEC s’est développé au fil du temps un écosystème associé au lobby des énergies renouvelables renforcé par l’écologie politique dont les membres se distinguent par un niveau d’ignorance scientifique crasse. Cette situation qui s’apparente plus à une religion qu’à de la science a conduit à des décisions politiques aberrantes prises par l’Union Européenne (UE).
En évoquant l’UE, nous entrons dans un monde de fous et de corrompus avec les écologistes-bobos à la manœuvre. Sous prétexte de mesures indispensables pour réduire les émissions de CO2, les irresponsables de cette organisation ont décidé de mettre en œuvre une « transition énergétique » basée sur des énergies dites renouvelables. Des centaines de milliards ont déjà été dépensés pour l’installation généralisées des fameuses et inutiles éoliennes. La production électrique de ces dernières étant intermittente, il est indispensable de les doubler par des centrales à énergie classiques comme par exemple en Allemagne avec la réouverture massive de centrales à charbon ultra-polluantes.
Il ne se passe d’ailleurs pratiquement pas une journée sans que les bureaucrates de l’UE n’inventent de nouvelles législations farfelues et mortifères. Après les éoliennes, citons l’interdiction en 2035 des voitures à moteurs thermiques au profit de l’électrique, mesure prise sans la moindre étude d’impact. Si cette décision n’est pas ajournée au plus vite, alors ce sera la ruine des industries automobiles européennes ainsi qu’à celle de la majorité des citoyens incapables de s’offrir ces onéreux véhicules. De plus, la technologie des voitures électriques est loin d’être au point. Citons en particulier l’autonomie et les problèmes de recharge, sans compter la question de l’extraction particulièrement polluante des terres rares pour les batteries.
Leur dernière folie en date concerne les fameuses Zones à Faibles Émissions (ZFE) qui constituent un véritable Pass Climatique et une ségrégation sociale. Cette mesure totalement inique va interdire aux citoyens à revenus modestes de circuler les empêchant en particulier de se rendre à leur travail.
Et ce n’est pas fini, on parle d’un retour du marché du carbone pour 2027 alourdissant encore les taxes sur les combustibles fossiles.

Si cette politique dystopique n’est pas stoppée de toute urgence, l’Europe occidentale se dirige à toute vitesse vers une catastrophe économique et humaine majeure. Pour mémoire rappelons que pour échapper à ce sombre futur, une solution simple consisterait pour la France à sortir de l’UE à travers le Frexit !

Liens et références
[1] « Climat, de la confusion à la manipulation » – Daniel HUSSON (2024),
(Base utilisée pour la rédaction de cet article)
[2] Site « Science, climat, énergie » – PDF Lib ici
[3] The temperature/CO2 climate connection : an epistemological reappraisal of ice-core messages – Pascal Richet (2021)
[4] Lien entre température et CO2 ?
[5] Fonte des glaces, dilatation thermique de l’eau et montée du niveau marin – Article ENS Lyon 2001.
[6] Réchauffement climatique, l’alarmisme politico-médiatique est-il justifié ? – Eric Verrecchia Université Lausanne, 2024.
[7] Steven Koonin, ancien conseiller d’Obama conteste les méthodes et conclusions du GIEC – ici et ici.

Article source :
https://zevengeur.wordpress.com/2025/02/21/la-grande-escroquerie-du-rechauffement-climatique-anthropique/

https://www.agoravox.fr/tribune-libre/article/rechauffement-climatique-que-dit-260126

Aucun commentaire:

Enregistrer un commentaire