Pod koniec sierpnia we francuskiej Tuluzie odbyło się kilkudniowe spotkanie ponad setki naukowców z całego świata, na którym omawiane były postępy w przygotowywaniu 6 raportu Międzyrządowego Raportu ds. Zmiany Klimatu, IPCC. Część wniosków raportu opartych będzie o symulacje najnowszej generacji modeli klimatu, przeprowadzonych w ramach międzynarodowego projektu naukowego o dziwnie brzmiącej nazwie „Projekt Porównywania Modeli Sprzężonych” (Coupled Model Intercomparison Project, CMIP6), który koordynuje tego rodzaju inicjatywy już od ćwierćwiecza. I choć analiza ogromnej ilości danych wygenerowanych przez modele potrwa jeszcze wiele lat, już teraz przyniosły one kilka niespodzianek.

Rysunek 1: Temperatury na powierzchni Ziemi na różnych piętrach w atmosferze – fragment symulacji atmosfery modelu UKESM1, wykonanej w ramach projektu CMIP6. Źródło: Piotr Florek, Hadley Centre.

Po co modelować klimat?

Ale dlaczego w ogóle klimatolodzy muszą używać modeli? Czy klimatu nie da się badać w inny sposób? Pierwszym wyborem naukowca byłoby zapewne przeprowadzenie doświadczenia w kontrolowanych warunkach. Niestety, Ziemia jest zbyt duża, by było to możliwe, i zapewne jej mieszkańcy byliby przeciwni testom i eksperymentom przeprowadzanym na globalnym systemie klimatycznym.

Drugim najlepszym wyborem byłoby użycie teorii naukowej do znalezienia rozwiązania analitycznego problemu. Planeta Ziemia jest jednak zbyt skomplikowana, by można ją było opisać jedną fundamentalną teorią, z której można byłoby wywnioskować jaki jest jej klimat. Zamiast tego mamy wiele współgrających ze sobą teorii, dotyczących różnych aspektów systemu klimatycznego: jedna teoria opisuje interakcję promieniowania elektromagnetycznego z molekułami powietrza, inna — ruch tego powietrza spowodowany gradientami ciśnienia i temperatury, jeszcze inna teoria pozwala określić, w jakich warunkach tworzą się kryształki śniegu. Każda z tych teorii daje jakieś cząstkowe odpowiedzi, które choć przydatne, same w sobie są niewystarczające, by przewidzieć stan globalnego klimatu lub jego zmiany.

Dlatego klimatolodzy, podobnie jak naukowcy w wielu innych dziedzinach nauk przyrodniczych, decydują się na opcję numer trzy, którą jest użycie symulacji numerycznych. Komputerowe modele klimatu są od kilkudziesięciu lat jednym z podstawowych narzędzi służących lepszemu zrozumieniu tego, jak działa klimat Ziemi, jak zmieniał się w niedalekiej i odległej przeszłości, i jak może się zmieniać w przyszłości.

Jak się modeluje klimat? Świat w siatce

W dużym skrócie, modele klimatu to bardzo skomplikowane programy komputerowe, których głównym celem jest obliczanie równań opisujących zachowanie atmosfery, oceanów, lądów, lodowców i lodu pływającego, a także ziemskiej biosfery (więcej w naszym artykule Wirtualny klimat). Główną częścią każdego modelu klimatu jest „dynamiczny rdzeń”, czyli program komputerowy rozwiązujący równania dynamiki Newtona w nieinercjalnym układzie współrzędnych (czyli na obracającej się planecie), oraz pilnujący zachowania praw termodynamiki. Rdzeń opakowany jest warstwami „fizyki” (zwanej często „parametryzacjami”), symulującej dodatkowe procesy, zachodzące w skalach mniejszych niż wielkość jednego oczka siatki modelu.

Przykładem mogą być przepływ promieniowania słonecznego i podczerwonego przez atmosferę, jego pochłanianie (np. nadfioletu przez ozon, albo podczerwieni przez gazy cieplarniane), rozpraszanie (np. przez drobne cząsteczki smogu) i odbijanie (np. przez chmury). Jeszcze inny moduł odpowiada za cykl hydrologiczny i pilnuje, by woda parowała, tworzyła chmury, a następnie wracała na powierzchnię w postaci opadów atmosferycznych; istnieją też komponenty odpowiadające za reakcje chemiczne (np. tworzenie się smogu), cykle geochemiczne takie jak obieg węgla czy azotu. Razem te połączone ze sobą elementy tworzą model atmosfery, który w modelach klimatu jest sprzężony z innymi modelami, o podobnie skomplikowanej strukturze: oceanem, powierzchnią lądów wraz z roślinnością, oraz kriosferą, czyli lodowcami i lądolodami.

Rysunek 2: Wybrane elementy modelu systemu klimatycznego Ziemi, ilustracja poglądowa wykorzystująca materiały NASA.

Pod wieloma względami modele klimatu przypominają numeryczne modele pogody, z których wyników większość z nas korzysta codziennie. Różnica pomiędzy modelami klimatu i modelami pogody polega na tym, że te pierwsze mają więcej składowych, z których część może być zaniedbywana przy prognozowaniu pogody na kilka dni do przodu (bo np. nie ma potrzeby symulowania zmian pokrywy roślinnej albo reakcji chemicznych zachodzących w oceanach czy wysoko w atmosferze). Ceną za to jest niższa rozdzielczość przestrzenna modeli klimatu, czyli większy rozmiar komputerowych „pikseli”, na które został podzielony symulowany świat. Dla przykładu, brytyjski model pogody UM (Unified Model, nazwany tak, bo na początku lat 90-tych „zufinikował” prognozowanie pogody i klimatu) posiada rozdzielczość około 10 kilometrów dla oczka siatki na „europejskich” szerokościach geograficznych, ale w typowej konfiguracji „klimatycznej” ten sam model atmosfery posiada rozdzielczość około 135 km.

Modele klimatu prognozują jego zmiany symulując pogodę, godzina po godzinie, dzień po dniu, stulecie po stuleciu, i rejestrując tę syntetyczną pogodę w ogromnych archiwach danych. Dopiero statystyczna analiza tych danych pozwala „odkryć”, jaki jest klimat modelu. Jeśli model zbudowany jest poprawnie, i dobrze odzwierciedla fizyczne procesy zachodzące w prawdziwym świecie, można oczekiwać że jego klimat będzie bardzo podobny do klimatu rzeczywistej Ziemi.

Korzyści z różnorodności

Popularny wśród statystyków cytat z Georga Boxa mówi, że „wszystkie modele są błędne”. Dotyczy to również modeli klimatu, które z definicji są niedoskonałym przybliżeniem rzeczywistości. Co istotne, każdy z nich jest niedoskonały w trochę inny sposób, bo spośród kilkudziesięciu zespołów naukowych, które opracowują obecnie modele klimatu, każdy inaczej podchodził do jego konstrukcji. Różnią się więc „siatką”, czyli sposobem podziału atmosfery i oceanu na kawałki, metodami numerycznymi używanymi do całkowania równań, a także szczegółami parametryzacji różnych procesów klimatycznych. W rezultacie klimat każdego z tych modeli jest nieco inny, choć każdy z nich jest bardzo podobny do rzeczywistego (a w wielu aspektach statystycznie od niego nieodróżnialny).

Rysunek 3: Symulacja miesięcznej temperatury (górny rząd) i opadów (dolny rząd) w modelu HadGEM3 o trzech różnych rozdzielczościach siatki (50, 100 i 250km). Źródło: Piotr Florek, Hadley Centre.

Klimatolodzy chcieliby poznać przyczyny tych różnic, w nadziei, że pozwoli to na dalsze ulepszenie modeli. Niestety, nie jest to zadanie proste. Jak wie każdy programista, nawet krótki program komputerowy może zachowywać się w nieoczekiwany sposób, być trudny do zrozumienia, albo zawierać poukrywane błędy. Program komputerowy mający za zadanie symulować klimat całej Ziemi jest niemal tak trudny do zrozumienia, jak zjawiska które modeluje.

Głównym problemem są tutaj sprzężenia zwrotne pomiędzy różnymi komponentami modelu: nawet jeśli były one opracowywane przez najlepszych specjalistów, drobiazgowo testowane i porównywane z obserwacjami, to po połączeniu w jeden większy super-model ich wzajemne interakcje często skutkują nowymi, „emergentnymi” zachowaniami.

Czasami są one odpowiednikami prawdziwych zjawisk klimatycznych, a czasami w rzeczywistości nie występują — są „błędami” albo „odchyleniami” modelu. Czasami te zjawiska jeszcze nie występują, ale mogą występować w przyszłości, jako konsekwencja globalnych zmian klimatu.

Nie da się znaleźć ich przyczyn, analizując sam kod źródłowy modelu, bo nie ma instrukcji odpowiadających na przykład za to, że na południe od „równika termicznego” (ITCZ) zbyt często pada deszcz, albo że zmienia się tempo i zasięg cyrkulacji atmosferycznej Hadleya, albo że wysycha dorzecze Amazonki, powodując zagładę lokalnego ekosystemu tropikalnego i emisję ogromnych ilości dwutlenku węgla do atmosfery z rozkładającej się materii organicznej roślinności i gleby.

Oprócz porównywania wyników symulacji z obserwacjami klimatolodzy stosują więc drugi rodzaj testu: porównują modele klimatu ze sobą. Pozwala to nie tylko uzyskać większą pewność, że wnioski oparte o wyniki symulacji są solidne, ale też zrozumieć dlaczego są takie jakie są, oraz jakie czynniki są odpowiedzialne za to, że mogłyby być inne.

Standaryzacja w modelowaniu klimatu

Aby ułatwić naukowcom porównywanie wyników różnych symulacji, na początku lat 90. ubiegłego wieku rozpoczęto międzynarodowy projekt badawczy o nazwie Projekt Porównywania Modeli Sprzężonych (ang. Coupled Model Intercomparison Project, CMIP). Instytuty badawcze uczestniczące w tym projekcie muszą używać tego samego protokołu eksperymentalnego, który definiuje jakich danych wejściowych muszą użyć, jak powinien przebiegać eksperyment, i w jaki sposób raportowane mają być dane wyjściowe (Eyring i in., 2016).

W szczególności, modelarze klimatu muszą wiedzieć, które dane trzeba raportować, gdyż ograniczenia techniczne związane z pojemnością nośników danych i przepustowością łączy danych sprawiają, że nie da się udostępnić naukowcom wszystkich danych wygenerowanych nawet przez jeden model w jednej symulacji.

Rysunek 4: Uczestnicy warsztatów CMIP6 w Barcelonie w marcu 2019. Źródło: WCRP.

Potrzeba 4 bajtów żeby zapisać jedną liczbę (zmiennoprzecinkową), reprezentującą wartość temperatury czy ciśnienia atmosferycznego w jednym punkcie modelu atmosfery. Atmosfera jest trójwymiarowa, i takich punktów zawiera wiele: we wspomnianym wcześniej brytyjskim modelu atmosfery UM, nawet w konfiguracji o niskiej rozdzielczości siatki, jest ich 192×144×85, czyli około 2,3 miliona. Ich wartości mogą zmieniać się co kilkanaście minut, co oznacza około 26 tysięcy kroków czasowych w ciągu symulowanego roku. Zatem jeden tylko rok symulacji pojedynczej, trójwymiarowej zmiennej generuje około 250 gigabajtów (nieskompresowanych) danych.

CMIP6 – szósta faza projektu

W aktualnej, szóstej fazie projektu CMIP, określanej jako CMIP6, lista parametrów klimatycznych, które interesują naukowców, liczy kilkaset pozycji (wśród nich znajdują się m.in. „grubość optyczna sadzy na długości fali 550 nm”, „masa węgla 14C we wszystkich rezerwuarach lądowych” czy „strumień geotermiczny na dnie oceanu”), typowa symulacja trwa 150 lat obliczeniowych, ale często jest kilka albo kilkanaście razy powtarzana, aby umożliwić zbadanie naturalnej zmienności klimatycznej, a wymyślonych przez naukowców rodzajów eksperymentów numerycznych jest około 300. Nawet gdyby zapisanie takiej ilości danych było możliwe (a nie jest, bo zbyt spowolniłoby to działanie modelu), nikt na świecie nie potrafiłby dokonać ich analizy w sensownym czasie (Balaji i in., 2018).

A czasu jest niewiele, bo niebawem kończyć się będą prace nad 6-tym raportem IPCC, który opisywać będzie wyniki symulacji projektu CMIP6 oraz wynikające z nich wnioski. Naukowcy muszą więc dokonać starannej selekcji, i wybrać te dane — marnych kilkadziesiąt tysięcy terabajtów — które ich najbardziej interesują. W ramach CMIP jest to realizowane poprzez podział projektu na mniejsze podprojekty, zwane MIP-ami, złożone z grup naukowców specjalizujących się w różnych dziedzinach klimatologii. Dla przykładu, badacze wpływu wulkanicznych na klimat mają VolMIP, w ramach którego wewnątrz modeli symuluje się erupcje wulkaniczne; paleoklimatolodzy swoje symulacje dawnych zmian klimatu przeprowadzają w ramach PMIP, scenariusze przyszłych zmian klimatu są symulowane w projekcie ScenarioMIP, i tak dalej. Większość z eksperymentów numerycznych przeprowadzonych w różnych MIP-ach już się zakończyła, i są one teraz powoli publikowane i analizowane, a ich podsumowanie znaleźć będzie można w raporcie IPCC za dwa lata.

Niespodzianka! Niemiła niespodzianka.

Jednym z pierwszych wyników CMIP6 jest, jak się wydaje, zaskakująco wysoka wartość tzw. czułości równowagowej klimatu wielu modeli.

Równowagowa czułość klimatu to parametr, który mówi nam, jakiego wzrostu średniej globalnej temperatury powierzchni należy się spodziewać po podwojeniu zawartości dwutlenku węgla w atmosferze. Im wyższa czułość klimatu, tym poważniejsze będą przyszłe konsekwencje emisji gazów cieplarnianych, dlatego jej określenie ma kluczowe znaczenie nie tylko dla samych naukowców, ale też potencjalnie dla każdego mieszkańca Ziemi. Powodem zaniepokojenia klimatologów jest najnowsza generacja komputerowych modeli klimatu. Symulacje prowadzone kilkoma z nich sugerują, że ta równowagowa czułość klimatu może mieć wartość 5-6 stopni, a więc więcej, niż do tej pory uważano za prawdopodobne.

Rysunek 5: Zmiana pokrycia powierzchni Ziemi z dobrze odbijającego promieniowanie słoneczne lodu na dobrze je pochłaniającą wodę oznacza, że Ziemia pochłaniać będzie więcej energii. Zdjęcie: NASA.

Czułość klimatu jest skutkiem interakcji pomiędzy różnymi elementami ziemskiego systemu klimatycznego. Dwutlenek węgla jest gazem cieplarnianym, zatem podwojenie jego ilości w atmosferze powoduje wzmocnienie naturalnego efektu cieplarnianego. Dalsze wzmocnienie spowodowane jest, na zasadzie dodatniego sprzężenia zwrotnego, wzrostem zawartości pary wodnej, której przybywa w cieplejszej atmosferze (patrz Para wodna – klimatyczny „dopalacz”). Kolejnym sprzężeniem zwrotnym jest topnienie polarnych czap lodowych, które powodują zmniejszenie ilości odbijanego w kosmos promieniowania słonecznego i dodatkowe ocieplenie planety (patrz Arktyczne wzmocnienie). Inne sprzężenia zwrotne mogą spowodować jeszcze większe ocieplenie, albo wręcz przeciwnie — jego ograniczenie.

Wyniki CMIP6

Wyniki CMIP6 są zaskakujące, bo około połowa z symulacji wykonanych dwudziestoma różnymi modelami, których dane już opublikowano, sugeruje czułość powyżej 4,5°C (Joel 2019, Voosen 2019, Belcher 2019)*. Dla porównania, w poprzedniej, piątej odsłonie projektu CMIP (CMIP5), która dostarczyła danych będących podstawą do wielu wniosków 5 raportu IPCC, wartość czułości klimatu uczestniczących w projekcie modeli zawierała się pomiędzy 2,1 a 4,7°C. Zgadzało się to z wnioskami opartymi o inne rodzaje danych (m. in. paleoklimatycznych – opartych o analizę zmian klimatu w przeszłości geologicznej Ziemi), zgodnie z którymi czułość klimatu leży „prawdopodobnie” w widełkach 1,5-4,5°C, i jest „bardzo mało prawdopodobne” aby była niższa niż 1, oraz wyższa niż 6 stopni (Andrews i in. 2012, 5 Raport IPCC).

Rysunek 6: Zakres oszacowań czułości klimatu modeli CMIP5, wykorzystanych w 5 raporcie IPCC (po lewej stronie) oraz wstępne rezultaty symulacji CMIP6 modelami nowej generacji (po prawej).

Czy oznacza to, że mamy — jako ludzkość — potencjalnie jeszcze większy problem z klimatem, niż się obawialiśmy, czy problem mają tylko modelarze klimatu? Przez ostatni rok każdy z ośrodków odpowiadających za „czułe” modele starał się odpowiedzieć na to pytanie, i obecnie znane są już pierwsze, cząstkowe odpowiedzi.

Chmury – wielka niewiadoma zmiany klimatu

Dla klimatologów nie jest wielkim zaskoczeniem, że wysoka czułość jest powiązana z klimatycznymi sprzężeniami zwrotnymi, i że główną rolę przynajmniej w części modeli (np. amerykańskiej rodzinie CESM2, kanadyjskim CanESM5, francuskich CNRM-CM6-1 i CNRM-ESM2-1 oraz brytyjskich HadGEM3-GC3.1 i UKESM1) odgrywają tutaj zmiany zachmurzenia na ocieplającej się planecie, oraz wpływ, jaki na tworzenie się chmur mają drobne cząsteczki zwane aerozolem, zarówno naturalnego, jak i antropogenicznego pochodzenia (pisaliśmy o tym m.in. w artykułach Chmury, klimat i przyśpieszony wzrost temperatur, Przesunięte chmury, Lepsza zgodność modelu z obserwacjami – wyższa czułość klimatu, Morskie chmury: nowo odkryte sprzężenie zwrotne destabilizujące klimat cieplarnianej Ziemi. Patrz też Bodas-Salcedo i in. 2019, Swart i in. 2019, Golaz i in. 2019, Gettelman i in. 2019, Voldoire i in. 2019).

Choć łatwo byłoby zrzucić winę na niedoskonałą reprezentację (mikro)fizyki chmur w nowej generacji modeli, klimatologów martwi to, że w nowych wersjach modeli parametryzacja chmur jest zauważalnie lepsza niż była w wersjach starszych, a modele z bardziej realistycznym zachmurzeniem (lepiej pasującym do obserwacji) charakteryzują się też wyższą czułością klimatu. Więcej będziemy mogli dowiedzieć się na początku przyszłego roku, kiedy dostępne będą już analizy wyników większości modeli.

Piotr Florek, Met Office Hadley Centre, konsultacja merytoryczna: prof. Szymon P. Malinowski

*) Aby określić wartość czułości w eksperymencie numerycznym, należałoby podwoić zawartość dwutlenku węgla w symulowanej atmosferze, a następnie poczekać, aż symulowany klimat dojdzie do nowego stanu równowagi, a wirtualna planeta przestanie się ocieplać. W praktyce nie jest to, z technicznych przyczyn, wykonalne. Modelowany ocean, podobnie jak prawdziwy ocean, bardzo powoli się nagrzewa, przez co osiąganie nowego stanu równowagi po podwojeniu zawartości dwutlenku węgla w atmosferze może zabrać tysiące lat, i nawet jeśli są to symulowane tysiąclecia, a symulacja przeprowadzana jest na superkomputerze, na wynik obliczeń trzeba byłoby czekać co najmniej kilkanaście miesięcy. Z tego powodu czułość klimatu jest oszacowywana statystycznie, w oparciu o pierwszych sto-dwieście lat symulacji, a jej wartość jest obciążona pewną niepewnością. Oddzielną kwestią jest trwająca od wielu lat dyskusja, na ile to oszacowanie (nazywane czasem „efektywną czułością klimatu”) jest bliskie „prawdziwej” czułości modelu (Knutti i in. 2017).

Fajnie, że tu jesteś. Mamy nadzieję, że nasz artykuł pomógł Ci poszerzyć lub ugruntować wiedzę.

Nie wiem, czy wiesz, ale naukaoklimacie.pl to projekt non-profit. Tworzymy go my, czyli ludzie, którzy chcą dzielić się wiedzą i pomagać w zrozumieniu zmian klimatu. Taki projekt to dla nas duża radość i satysfakcja. Ale też regularne koszty. Jeśli chcesz pomóc w utrzymaniu i rozwoju strony, przekaż nam darowiznę w dowolnej wysokości

Avatar photo
Autor