Un résumé des conférences de l'édition 2023
Vous pouvez retrouver ici un résumé de chacune des conférences (rédaction P. Biscay)
Conférence Laurent Li
Laurent Li, climatologue, a expliqué les causes naturelles qui ont fait varier le climat par le passé. Le dernier million d’années se caractérise une alternance de périodes plus chaudes et plus froides que notre référence actuelle, avec des transitions s’étalant sur plusieurs millénaires. Elles sont corrélées à la teneur atmosphérique en CO2 mesurée grâce aux carottes de glace prélevées en antarctique. Cette alternance s’est traduite par des effets très importants sur les conditions de vie sur Terre. Ainsi, le climat autour de la méditerranée a connu des périodes où elle a quasiment disparu et d’autres (il y a quelques millénaires) où le Sahara était beaucoup plus vert que maintenant. Dans un passé plus récent, la Chine a connu des évènements climatiques ponctuels (quelques années), mais cataclysmiques (inondations ou sécheresses durables) qui ont eu un effet déterminant sur son organisation sociale et politique. Ils ont coïncidé avec l’écroulement de lignées impériales pourtant solidement en place depuis des siècles. Le changement climatique actuellement en cours et imposé par l’activité humaine tend à nous sortir de la période globalement stable que nous connaissions depuis 10000 ans. L’histoire chinoise nous montre que nous devons faire tout notre possible pour limiter ce changement, sous peine de risquer d’affronter des situations de crises organisationnelles de nos sociétés.
Conférence Etienne Berthier
- Etienne Berthier, glaciologue, a décrit le déclin actuel et généralisé des glaciers du globe. Les deux grands glaciers à échelle continentale (Groënland et Antarctique) ne sont pas traités ici. Différentes techniques de mesures physiques sont utilisées, allant de mesures ponctuelles in-situ, de prises de vue photographiques et des mesures par satellites (photographies hautes résolutions, altitude GPS). L’analyse de ces mesures satellitaires, recalées et validées sur les mesures in-situ, permettent maintenant de calculer avec une bonne précision le bilan masse annuel d’un glacier. Couplées à des techniques statistiques, les chercheurs ont développé une méthode de traitement global de zones géographiques complètes (le massif du Mont-Blanc, les Andes, l’Himalaya), voire à l’échelle mondiale. On peut alors calculer des bilans masse locaux et régionaux. Ils montrent un déclin quasi généralisé et de plus en plus rapide des glaciers, corrélé au réchauffement actuel moyen du climat, mais aussi aux fluctuations annuelles, comme par exemple 2022 en Suisse. Il est même possible de suivre l’évolution mensuelle avec le rechargement hivernal et la fonte estivale. Le potentiel de montée du niveau de la mer par fonte totale de ces glaciers est estimé à 0.32 m (7 m pour le glacier du Groënland et 60 m pour celui de l’Antarctique). Il est non négligeable, mais l’effet majeur d’une telle fonte serait, dans plusieurs régions du monde (Andes, Himalaya), une diminution catastrophique de l’étiage des rivières en période estivale. Le paradoxe est que la fonte actuelle augmente ces débits d’étiage, ce qui peut entraîner des inondations majeures comme au Pakistan. Dans les Pyrénées, les glaciers vont disparaître avant 2050, mais comme ils sont de petite taille, cela n’aura pas d’impact significatif que le débit de nos rivières.
Conférence Hervé Le Treut
- Hervé Le Treut, climatologue, a montré que, malgré la complexité des mécanismes mis en jeu, la crédibilité des modèles de prévision est aujourd’hui démontrée. Ce réchauffement résulte de l’accumulation de gaz à effets de serre (GES) dans l’atmosphère, du fait de l’activité humaine qui les génère en excès par rapport à ce que sur la planète est capable de capter. La rapidité actuelle de changement est unique dans l’histoire. Il s’accompagne d’une augmentation des évènement extrêmes qui nous fait ressentir ce qui attend l’humanité si rien n’est fait pour limiter le réchauffement et s’adapter aux conséquences. Ce besoin d’atténuation et d’adaptation se heurte à la fois à la complexité des mécanismes physiques et de notre société humaine. Il faut une transformation profonde de nos sociétés et l’objectif ne sera atteint que si les changements nécessaires sont justes et socialement acceptables. Hervé Le Treut a choisi de s’engager à l’échelle régionale (feuille de route néo-aquitaine NeoTerra), pertinente pour tester quelques-unes des transformations nécessaires. L’Intelligence artificielle (IA) fait partie des technologies prometteuses pour répondre aux défis liés au changement climatique : gérer l’aménagement urbain, améliorer l’efficacité énergétique et économiser l’énergie, développer et optimiser la mobilité durable, … Le développement des applications d’IA nécessite aujourd’hui une très grande consommation de calculs et donc d’énergie électrique. Pour que le bilan GES global de l’IA soit favorable, il faut verdir cette phase d’apprentissage en optimisant les algorithmes et en utilisant une électricité décarbonée.
Conférence Bruno Grassl
- Pour Bruno Grassl, professeur de chimie à l’UPPA, le développement exponentiel de l’usage du plastique est une bombe à retardement. Si la tendance se poursuit, dès 2060, la quasi-totalité de la production pétrolière servira à fabriquer de la matière plastique ! En quelques années, les déchets plastiques se fragmentent progressivement jusqu’à générer des fragments de la taille de quelques nanomètres. Cette fragmentation se produit sous l’action conjointe de phénomènes physiques (rayons UV par exemple) et biologiques (bactéries par exemple). Ces fragments nanométriques sont alors capables de franchir les barrières biologiques des êtres vivants, végétaux et animaux, comme cela a été démontré par des expériences dédiées et aussi par des contrôles sur des organismes vivant en bout de la chaîne alimentaire, dont l’homme. Les nanoplastiques ne sont pas, en soi, forcément très dangereux pour le vivant et l’homme en particulier. Mais, la structure moléculaire des plastiques est conçue pour être extrêmement poreuse et posséder les caractéristiques physico-mécaniques requises (résistance, souplesse, …). Elle est donc le réceptacle des autres polluants présents dans l’environnement (perturbateurs endocriniens, cancérogènes ou encore les encres d’impression sur les sacs eux-mêmes). Ce sont ces polluants qui, parce qu’ils vont passer les barrières biologiques via les nanoplastiques, constituent le plus danger potentiel. Ce risque n’épargne aucune région du monde du fait de la diffusion généralisée des fragments nanométriques par les circulations atmosphériques et océaniques, même s’il existe des effets d’accumulation préalable des déchets plastiques dans les gyres marines (tourbillons de très grande dimension dans l’océan atlantique). Paradoxalement, les déchets plastiques offrent parfois des bénéfices pour certains organismes qui les colonisent. Enfin, Bruno Grassl nous a fait réfléchir sur la pertinence ou pas des solutions de substitution (plastique biosourcé, emballages cartons, …). Certains effets sont contre-intuitifs et montrent la difficulté à prendre les bonnes décisions.
Conférence Isabelle Moretti
- Isabelle Moretti, géologue, a fait le point sur la recherche de gisements d’hydrogène (H2) naturel (appelé aussi hydrogène blanc). H2 est un composant de base dans l’industrie de la chimie (engrais par exemple) ou de l’énergie (piles à combustibles). Il est actuellement fabriqué quasi exclusivement par craquage du pétrole ou décomposition du méthane, ce qui émet énormément de GES. H2 vert est obtenu par électrolyse de l’eau, mais la consommation d’électricité est élevée (efficacité énergétique d’un électrolyseur de l’ordre 60%). L’accessibilité à une production d’H2 blanc serait donc une très bonne nouvelle, la dépense énergétique pour le produire étant a priori très faible. Il existe plusieurs régions dans le monde où des émanations d’H2 se produisent à la surface et sont parfois visibles sous forme de zones sans végétation appelées « ronds de sorcières ». Leur recensement est très récent et les découvertes se succèdent. Des forages réalisés depuis le début du XXème siècle à des fins autres (énergie fossile et même aquifère) sont tombé sur des gisements gazeux avec une forte proportion d’H2. Au Mali, l’H2 produit par un puits sert à fabriquer de l’électricité depuis plus de 20 ans, sans affaiblissement apparent du débit. Dans tous les cas, l’H2 semble être fabriqué en continu en profondeur, soit par des processus radioactifs, soit par oxydation de roches riches en fer telle l’olivine en présence d’eau. Cela explique la persistance des émanations d’H2, à notre échelle de temps humaine. L’H2 est la plus petite des molécules, elle a une grande propension à fuir, même au travers de la plupart des matériaux géologiques. C’est ce qui explique les émanations recensées à la surface du globe. Une exploitation industrielle nécessite une couche profonde de roches ferreuses et humide, surmontée d’une couche suffisamment étanche pour permettre l’accumulation de l’H2, malgré les fuites résiduelles inévitables. Les Piémonts sud et nord-pyrénéen semble offrir ces caractéristiques (émanations en surface, coucheuse ferreuse ramenée des profondeurs par les mouvements tectoniques pyrénéens, couche de sel imperméable proche de la surface). Un puits riche en H2 a été trouvé dans les années 1930 au sud des Pyrénées. Dans la région de Sauveterre de Béarn, l’étape suivante consistera à forer à 1 m de profondeur pour réaliser une mesure fiable du débit d’H2 en surface. Un permis de forage exploratoire a plus grande profondeur est en cours de dépose. Il sera activé si les résultats de l’étape précédent est probant. Remarque importante : un puits de H2 ne nécessitera pas de fracturation hydraulique. Un simple puits d’environ 20 cm de diamètre est suffisant. L’H2 présent dans la roche environnante sera poussé par la pression ambiante dans le volume du puits. Si le potentiel existe, l’exploitation de l’H2 blanc devrait être peu énergivore et faiblement polluante. Plusieurs autres projets sont en cours dans le monde (USA, Australie en particulier). Prochain point d’étape dans deux ou trois ans.
Conférence Hydroélectricité
R. Fraysse et Christian. Caussidéry, EDF hydro Sud-Ouest, ont expliqué comment la production d’énergie hydraulique s’inscrit au cœur de ce qui est la raison d’être d’EDF inscrite dans les statuts de l’entreprise : « Construire un avenir énergétique neutre en CO2 conciliant préservation de la planète, bien-être et développement grâce à l’électricité et à des solutions et services innovants ». Cette volonté se décline en objectifs chiffrés dont, par exemple : multiplier par 2 la puissance installée des énergies renouvelables dans le monde, passant de 28GW en 2014 à 50GW en 2030 et installer 10 GWh de nouveaux moyens de stockage dans le monde d’ici à 2035. La production électrique est déjà fortement décarbonée et l’hydraulique représente plus de 10 % de la production totale d’électricité d’EDF en France continentale. C’est, pour EDF, la première source d’énergie renouvelable. Elle est réalisée par différents types de centrales hydrauliques : au fil de l’eau, d’éclusée, de lac, de transfert d’énergie par pompage (STEP) et marémotrices. Les régions de montagne comptabilisent à elles seules la majorité de la puissance installée hydraulique. Sur 25,7 GW installés, 14 GW sont mobilisables en moins de 15 mn. Le système de collecte de l’eau en Val d’Azun permet d’exploiter l’intégralité du dénivelé (1900 m), des barrages d’altitude tels Migouélou jusqu’à la centrale de Lau-Balagnas, grâce à un réseau de tunnels qui font passer l’eau d’une vallée à une autre pour alimenter plusieurs centrales réparties sur ce dénivelé. Cela, en réservant un débit minimum compatible de la biodiversité et de l’agriculture locale. Pour EDF, l’hydroélectricité est une énergie d’avenir et prévoit d’accroître de 2 GW d’ici 2035 la puissance du parc déjà installé, 0.5 GW par amélioration des performances des centrales installées et 1.5 GW de STEP (barrage de Vouglans sur l’Ain). EDF hydro veut tisser des liens étroits et dans la durée avec les territoires, en s’appuyant sur le dialogue et la co-construction des projets, en soutenant le développement économique local au travers des agences « Une rivière, un territoire » et en travaillant avec les acteurs locaux au partage et au multi-usage de la ressource en eau. Ce point est particulièrement important dans le contexte du réchauffement qui va entraîner des débits d’étiage très inférieurs à la norme actuelle, ce qui va accroître le besoin de concertation, y compris à l’échelle d’un bassin complet. Le développement des STEP est également une nécessité pour lisser l’intermittence de la part croissance de la production éolienne et photovoltaïque dans le mix électrique français.
Conférence Rémi Cabanac
- Rémy Cabanac, Directeur scientifique de Pic du Midi, nous a fait voyager dans l’espace-temps, de la Terre aux quasars. Il a posé les grands principes de l’observation de l’espace et les théories physiques à appliquer (forces élémentaires et relativité générales). L’information arrive sous forme de signaux lumineux à différentes gammes de fréquence, des rayonnements gamma aux ondes radio longues, en passant par la lumière visible. L’intérêt de travailler en multifréquence est que l’observateur voit à chaque gamme de fréquence des informations différentes (cas de la voie lactée par exemple). L’analyse spectrale (décomposition en fréquence des signaux lumineux) permet donc d’accéder à une information beaucoup plus riche. L’information voyage aussi sous d’autres formes : neutrinos, rayons cosmiques et ondes gravitationnelles, qui se propagent également à la vitesse de la lumière. Les évènements détectés se sont produits dans le passé, leur l’âge dépendant de la distance à laquelle ils se sont produits. Voir loin est équivalent à voir il y a longtemps. Nous avons ensuite voyagé en image, en s’éloignant progressivement de la Terre à travers notre système solaire, la voie lactée, au-delà dans notre amas de galaxies, dans notre coin d’univers (Lanakea) et enfin, vers la « fin de la lumière » qui est pour nous la fin de l’univers observable. Le JWST (Télescope James Webb) permet de s’en approcher à quelques centaines de millions d’année-lumière. Les quasars (source de rayonnement astronomique quasi-stellaire) sont des trous noirs supermassifs entourés d’un disque d’accrétion émettant une grande quantité d'énergie du fait de la gravité exercée par le trou noir. Es disques sont les entités les plus lumineuses de l'Univers et donc les plus lointaines observables. L’ensemble de l’univers observable montre que, plus la distance d’un objet observé est grande, plus sa vitesse relative est grade (décalage de la lumière visible vers le rouge par effet Doppler). Ceci n’est possible que parce que l’énergie de l’univers est plus grande que celle observée à ce jour. L’un des défis posés aux scientifiques est de comprendre ce qu’est cette énergie « sombre » et la mesurer. Au-delà, nos moyens d’observations ne pénètrent pas dans la zone correspondant à ce qu’était l’univers environ 380 000 ans après le « big bang ». Cette zone opaque, constituée uniquement un plasma de particules (protons, électrons, photons…) ne permettant pas aux photons de se déplacer librement, était en inflation et donc se refroidissait. C’est à ce moment-là qu’elle a atteint une température suffisamment basse, de l’ordre de 3000 K (° Kelvin), permettant la création des premiers atomes et aux photons de circuler librement, laissant une trace appelée rayonnement cosmologique de fond. Elle est alors devenue transparente. L’expansion de l’univers s’est poursuivie et étiré la longueur d’onde de la lumière émise par ces photons, entraînant une baisse de la température de ce rayonnement de fond, à présent de l’ordre de 3 K. L’image la plus précise, obtenue par le satellite d’observation Planck, terminait cette conférence. Elle montre de minuscules fluctuations, peut-être le prélude à la création des premières galaxies.
Conférence Claire Moutou
- Claire Moutou, astrophysicienne à l’IRAP, a fait le point sur la détection des planètes extrasolaires. Deux méthodes de détection ont été principalement utilisées depuis la première découverte d’une exoplanète en 1995. Méthode de la vitesse radiale : la présence d'une planète orbitant autour d’une étoile provoque un décalage périodique de sa position. Son analyse permet de valider la présence d’une planète et d’en déterminer la position de l’orbite et sa masse. Méthode du transit : le passage de la planète devant son étoile provoque une diminution temporaire de sa luminosité. Son analyse permet d’en déduire la taille. La méthode du transit ne s’applique que si l’orbite permet d’aligner l’étoile et la planète dans la direction d’observation. Cette méthode a donc une probabilité plus faible que la précédente de détecter une planète. Lorsque ces deux méthodes peuvent être combinées on obtient alors simultanément 3 informations (distance, masse et taille). Il est alors plus facile d’en déduire la nature de la planète (rocheuse ou gazeuse). D‘autres méthodes sont en cours d’étude et vont augmenter dans les prochaines années la palette de méthodes de détection. A ce jour, un peu plus de 5500 exoplanètes sont cataloguées. Pour les planètes détectées par la méthode du transit, le JWST peut faire une analyse spectrale de la lumière qui passe autour de la planète. Si elle a une atmosphère, les molécules atmosphériques sont excitées par la lumière de l’étoile, cela se traduit par des raies supplémentaires. Le JWST pourra donc détecter des planètes ayant une atmosphère et en plus déterminer la présence éventuelle de vapeur d’eau, de CO2, … Une zone est dite habitable si la distance à l’étoile est compatible avec la présence d’eau liquide, ce qui est le cas de la Terre. Sur les 5500 planètes, environ une centaine orbite en zone habitable. Enfin, l’habitabilité potentielle d’une planète est définie par un certain nombre de critères, toujours par analogie avec la Terre. Sans être exhaustif, on peut citer : étoile à durée de vie suffisante, se situer à une distance de l’étoile où la température à la surface de la planète est dans la plage -50°C / +50°C, alternance jour / nuit, masse suffisante pour conserver une atmosphère, …. A ce jour, une dizaine de planètes remplissent ces critères. Ils ne garantissent pas que la vie s’est développée, mais cela renforce l’idée que la probabilité d’une vie extrasolaire n’est pas nulle et permet d’identifier les planètes qui valent le coup de faire l’objet d’analyses approfondies.
Conférence Sylvie Vauclair
Sylvie Vauclair a expliqué que nos origines résident dans les étoiles. Les premiers atomes à se former lorsque la température de l’univers est devenue suffisamment basse ont été des atomes d’hydrogène et d’hélium. Les premiers étoiles qui se sont ensuite formées étaient donc constituées essentiellement par ces deux types d’atomes, éléments les plus légers de la table périodique des éléments. Mais, au cours du processus de fusion, d’autres atomes, plus lourds se sont formés dans l’étoile. Eux-mêmes ont fusionnés pour former des atomes de plus en plus lourds. Les étoiles « meurent » de différentes façons, mais celles qui ont fini leur cycle de vie en explosant (les nébuleuses) ont donc disséminé dans l’espace des nuages de gaz contenant, en plus de l’hydrogène et l’hélium restant, cette première génération d’atomes plus lourds. Ce processus s’est répété tout au long de l’histoire de l’univers et c’est comme cela qu’ont été créés tous les types d’atomes, jusqu’aux plus lourds. Nous sommes en grande partie constitués d’eau, donc d’hydrogène, mais pas que : phosphore, fer, soufre, …. Nous sommes donc effectivement des « poussières d’étoile » et notre destin est cosmique. Notre galaxie actuelle résulte de la collision de deux galaxies plus petites. Dans 4,6 milliards d’année elle collisionnera à son tour avec la galaxie d’Andromède. Les galaxies étant essentiellement constituées de vide, le mot collision utilisé ici n’a rien à voir avec le choc de corps solides. Les deux galaxies vont se traverser et possiblement fusionner du fait des forces de gravités qui vont alors s’exercer. De magnifiques images ont illustré tous ces mécanismes, dont la création de nouvelles étoiles à partir des nuages de gaz et de planètes dans les disques protoplanétaires captés par gravité autour de ces étoiles. Enfin, le JWST a détecté dans la nébuleuse d’Orion du cation méthyl CH3+, molécule organique qui est une des briques élémentaires de la vie telle que nous la connaissons. D’autres molécules organiques (benzène C6H6, diacétylène C4H2, gaz carbonique CO2, acétylène C2H2) ont été détectées par le JWST dans le disque protoplanétaire de l’étoile J160532. L’espace recèle donc les éléments de base pour que la vie puisse apparaître, à condition qu’un environnement favorable soit aussi présent (zone habitable par exemple). En conclusion, les éléments dont nous sommes faits ont été formés dans les étoiles depuis les débuts de l’univers. A partir du moment où il existe, le vivant évolue de manière naturelle (Darwin). Mais nous n'avons pas pour l’instant de plan B pour changer de planète. Nous devons donc la préserver à tout prix pour qu’elle reste habitable par nous.