Wirtualny klimat

„Cała teoria globalnego ocieplenia opiera się na modelach matematycznych”, „Śmieci na wejściu, śmieci na wyjściu”… te i podobne zdania dyskredytujące klimatologię i numeryczne modelowanie zjawisk atmosferycznych często padają w dyskusjach na temat klimatu. Zwykle wynikają po prostu z niewiedzy. Nawet osoby znające się na programowaniu, ale nie mające doświadczeń z numerycznym modelowaniem zjawisk fizycznych, albo mające takie doświadczenia, lecz nie w dziedzinie nauk o Ziemi, nie zawsze zdają sobie sprawę z tego, na czym polega i jaka jest specyfika modelowania klimatu…. i że jeśli ktoś wkłada do modeli "śmieci", to specjalnie, by je przetestować. Mamy nadzieję, że poniższy tekst pozwoli Wam oswoić się z tym tematem.

Równania, nie „wymysły”

Zacząć trzeba od tego, że numeryczne modele klimatu (oraz pogody) nie bazują na niczyich „wymysłach” czy „wyobrażeniach”. Modele to tak naprawdę układy równań. Podstawowe to równania ruchu atmosfery wynikające z zasad dynamiki Newtona (tak, tak - tych, o których uczymy się w szkole). Opisują one, jakie siły działają na każdą analizowaną porcję powietrza (tzw. cząstkę). Przede wszystkim jest to siła wywoływana przez różnice ciśnienia, a poza tym siły bezwładności (Coriolisa, odśrodkowa), siła grawitacji i siły tarcia (o podłoże i o sąsiednie cząstki powietrza). Równania ruchu uzupełnia się związkami mówiącymi o zachowaniu energii, ciągłości ośrodka (w powietrzu nie ma „dziur”), przemianach fazowych itd. W przypadku modeli klimatu zasadnicze znaczenie ma tzw. równanie transferu promieniowania, czyli opis przechodzenia (a także pochłaniania, emitowania czy rozpraszania) promieniowania przez atmosferę.

Warto podkreślić, że są to dobrze znane, wielokrotnie sprawdzone prawa fizyczne, które wykorzystuje się w rozmaitych dziedzinach - choćby konstruowaniu samolotów.

Świat w siatce

Oczywiście nie jest możliwe, by za pomocą nawet superkomputera odtworzyć ruch poszczególnych molekuł powietrza. W rzeczywistości symuluje się ruch dość dużych objętości powietrza, a równania rozwiązuje dla wybranych, najczęściej regularnie rozłożonych punktów - tzw. węzłów siatki obliczeniowej. Wynikiem obliczeń są więc informacje o temperaturze, ciśnieniu powietrza, prędkości wiatru itd. w tych konkretnych punktach. W każdym punkcie zależą one od tego, co działo się w poprzednim kroku czasowym oraz co działo się u jego sąsiadów. Przyjmuje się, że wartości węzłach są reprezentatywne dla otaczającego ich obszaru - tzw. oczku siatki.

Siatka modelu zazwyczaj przypomina właśnie siatkę z prostokątnymi lub trójkątnymi oczkami. Upraszczając, im gęstsza siatka, tym obliczenia dokładniejsze - ale i dłuższe. W zależności od tego, czy analizujemy pogodę w skali globalnej, regionalnej czy lokalnej, możemy pozwolić sobie na różną gęstość siatki. W modelu globalnym węzły siatki oddalone są od siebie o kilkadziesiąt kilometrów, a przykładowo modele stosowane do obliczania prognoz pogody dla Europy Środkowej przez Interyscyplinarne Centrum Modelowania Matematycznego i Komputerowego uruchamiane są na gęstych siatkach: czterokilometrowej (model UM) i trzynastokilometrowej (model COAMPS). Chodzi bowiem o to, by jak najlepiej oddać w prognozie przestrzenne zróżnicowanie zjawisk – słowem, czy po naszej stronie rzeki deszcz spadnie czy nie.

Również w modelowaniu klimatu im gęstsza siatka, tym lepiej scharakteryzowana przestrzenna zmienność zjawisk i klimat lokalny. Rysunek 1 pokazuje postęp, jaki nastąpił pod tym względem pomiędzy pierwszym a najnowszym raportem IPCC.

Rysunek 1: Zmiana w gęstości siatek modeli klimatycznych pomiędzy pierwszym raportem IPCC w 1990 a najnowszym raportem z roku 2013. Źródło: IV i V raport IPCC.

Na razie zajmowaliśmy się siatką poziomą, a co dzieje się w pionie? Większość zjawisk, jakie interesują nas w przypadku modelowania pogody, zachodzi poniżej wysokości 20 kilometrów. Żeby więc odtworzyć je w rzeczywistości wirtualnej, musimy rozmieścić punkty w pionie ciaśniej niż w poziomie. Dość typowym rozwiązaniem jest większa gęstość siatki przy powierzchni Ziemi (gdzie zachodzi dużo ważnych zjawisk i można na przykład zlokalizować wysokość podstawy chmur) i mniejsza wysoko w atmosferze, gdzie powietrze jest rozrzedzone i sytuacja na różnych wysokościach jest mniej zróżnicowana. Nowoczesne modele mają typowo ok. 30-50 poziomów i obejmują 30-40 kilometrów w pionie.

Rysunek 2: Schemat siatki przykładowego modelu klimatu wykorzystującego dane zbierane przez satelity geostacjonarne. Obliczenia obejmują całą kulę ziemską, siatka pozioma pokrywa się z południkami i równoleżnikami, siatka pionowa zagęszcza się przy powierzchni Ziemi (jako współrzędną pionową wykorzystuje się wysokość nad poziomem morza lub ciśnienie, które zawsze spada z wysokością). Źródło NOAA.

Między oczkami

No dobrze, wiemy już, że obliczenia dają nam wartości parametrów atmosfery w konkretnych punktach, pomiędzy którymi może być kilka, kilkadziesiąt a nawet kilkaset kilometrów odległości. Tymczasem z naszego codziennego doświadczenia wynika, że są zjawiska meteorologiczne o dużo mniejszym zasięgu. Zdarza się przecież, że deszcz pada w jednej dzielnicy miasta, a w drugiej nie, że chmury powstają tylko nad wąskim pasem przybrzeżnym, gdy nad morzem niebo jest czyste itd. Te zjawiska są jak drobne rybki, które przemykają przez grube oczka siatki - model nie jest w stanie ich dokładnie opisać. Co z nimi począć? Oczywiście jest na to sposób. Takie zjawiska opisuje się nie ściśle, ale w sposób przybliżony. Mówimy o „parametryzacjach” tzw. „procesów podskalowych”. Parametryzacje to związki ustalone i sprawdzone doświadczalnie, a mówiące np. ile jakich chmur powstaje przeciętnie przy konkretnej temperaturze, wilgotności, prędkości wiatru itd.

Na podobnej zasadzie są one następnie reprezentowane w prognozie pogody. Jeśli zobaczymy w meteorogramie zapowiedź „opadu konwekcyjnego” (chmury konwekcyjne miewają średnice rzędu kilku – kilkunastu kilometrów, więc nie ma szans na prześledzenie pojedynczych chmur w modelu), to wiemy, że intensywny deszcz spadnie gdzieś w promieniu kilkunastu kilometrów od nas, ale może nas też ominąć. Jeśli opad ma być „wielkoskalowy”, to znaczy, że związany będzie z wielką strefą zachmurzenia, którego losy łatwo odtworzyć w modelu i zlewa raczej nas nie ominie.

Rysunek 3: Fragment prognozy pogody w postaci meteorogramu udostępnionego nieodpłatnie przez serwis meteo.pl prowadzony przez ICM, Uniwersytet Warszawski.18 i 19 listopada 2015. Na przemian spodziewaliśmy się w Warszawie opadów konwekcyjnych i wielkoskalowych. Wyniki uzyskano przy użyciu oprogramowania Met Office. Material produced using Met Office Software.

Poprawność parametryzacji i modeli numerycznych weryfikuje się, porównując wyniki symulacji z wynikami pomiarów, a w szczególności kampanii pomiarowych. Kampaniami pomiarowymi nazywa się zmasowane pomiary, w których najczęściej bierze udział przynajmniej kilka instytucji badawczych i w których wykorzystuje się jednocześnie wiele przyrządów pomiarowych. Przykładem małej kampanii pomiarowej może być projekt Physics of Stratocumulus Top - POST, w którym za pomocą samolotu badawczego i danych satelitarnych badano procesy na górnej granicy chmur stratcocumulus po to żeby poprawić ich parametryzację w modelach pogody i klimatu. Dużą kampanią pomiarową był również projekt DYNAMO, w którym badano oddziaływanie atmosfera-ocean i głęboką konwekcję w tropikach, a w pomiarach brały udział 3 statki badawcze, samoloty, satelity, specjalne autonomiczne roboty pomiarowe i kilkadziesiąt ekip badawczych z kilkunastu krajów.

NOAA Dynamo NOAA Dynamo

Rysunek 4: Zdjęcia z kampanii pomiarowej DYNAMO, po lewej statek badawczy NOAA z radarem meteorologicznym, po prawej samolot badawczy NOAA P-3. Zdjęcia zamieszczamy dzięki uprzejmości NCAR i NOAA.

Model pogody a model klimatu

Jak pisaliśmy wyżej, modele klimatu i modele pogody opierają się na tych samych podstawowych prawach. Jaka jest między nimi różnica i dlaczego w prognozowaniu klimatu nie przeszkadza teoria chaosu?

Sekret kryje się w tym, jakie dodatkowe warunki narzucamy naszym równaniom.

W przypadku prognozy pogody zakładamy, że takie rzeczy jak ilość docierającego do Ziemi promieniowania słonecznego, zawartość energii w oceanie czy koncentracja dwutlenku węgla w powietrzu nie zmieniają się znacząco z dnia na dzień. Oczywiście robimy tak nie dlatego, że „tak nam się wydaje”, tylko dlatego, że zostało to sprawdzone i w krótkich okresach czasu (interesujących nas przy przygotowywaniu prognozy pogody na najbliższe dni) jest to wystarczająco dobre przybliżenie. Do modelu pogody wprowadzamy wyniki pomiarów przeprowadzonych na całym świecie w konkretnym terminie, a model oblicza, co stanie się w ciągu kilku najbliższych dni - dokąd powędrują poszczególne masy powietrza, gdzie spadnie deszcz itd. Wynik silnie zależy od wprowadzonych danych pomiarowych, a niewielkie ich zmiany prowadzić mogą do sporych zmian w symulowanej pogodzie. Dlatego problem prognozy pogody nazywamy „problemem warunków początkowych”.

W przypadku prognozy klimatu rzecz ma się nieco inaczej. Tu nie interesuje nas, czy 30 listopada 2030 o 15:00 będzie padać czy nie i nie oczekujemy, że model prawidłowo określi takie szczegóły. Pytamy, jakie warunki będą panować średnio rzecz biorąc w listopadach 2025-2030. To, jakie warunki początkowe wprowadzimy do takiej symulacji, traci na znaczeniu. Na pierwszy plan wysuwają się natomiast tak zwane warunki brzegowe, czyli na przykład pomijane w prognozie pogody zmiany koncentracji dwutlenku węgla (czytaj więcej Globalne ocieplenie: wersja dla niewtajemniczonych). Problem prognozy klimatu nazywamy więc „problemem warunków brzegowych” – sprawdzamy, jak zmieniają się klimatyczne statystyki w odpowiedzi na ich zmiany.

  

Rysunek 5: Przykład prognozy klimatu – zmiana średniej temperatury w miesiącach zimowych (grudzień – luty) dla lat 2081-2100 względem okresu 1986-2005 zgodnie ze scenariuszem RCP4.5 (po lewej) oraz RCP8.5 (po prawej) – o scenariuszach czytaj niżej. Ilustracje pochodzą z elektronicznego atlasu zmiany klimatu KNM Climate Explorer przedstawiającego wnioski zamieszczone w V raporcie IPCC (czytaj więcej).

Co wkładamy, co wyjmujemy, a co jest w środku

Wzór łączący prędkość, drogę i czas można wykorzystać zarówno do obliczenia jak długo potrwa podróż z miasta A do miasta B jak i oszacowania, jak daleko da się zajechać w ciągu godziny. Podobnie model klimatu można wykorzystać zarówno do obliczenia, jak zmieni się średnia temperatura w odpowiedzi na podwojenie koncentracji dwutlenku węgla czy innych gazów cieplarnianych, ale też o ile musi się zwiększyć koncentracja CO2, by temperatura wzrosła o dwa stopnie. Naukowcy konfigurują obliczenia w najrozmaitszy sposób, by uzyskać odpowiedź na różne pytania (Czy ocieplenie powyżej progu 2 stopni Celsjusza jest nieuchronne?, Chmury, klimat i przyśpieszony wzrost temperatur). Być może stąd biorą się nieporozumienia na temat tego, co się do modeli klimatu wprowadza, a co otrzymuje jako wynik symulacji. Skoncentrujmy się jednak na tym, co najczęściej trafia do publiczności, czyli projekcjach klimatu takich jak te przedstawiane w raporcie IPCC.

Jak wspomnieliśmy już na początku, w modelu opisane jest, jak działa system klimatyczny Ziemi. Jakie związki łączą ruch w atmosferze i oceanie, przepływy energii, pędu, materii, obieg węgla i innych ważnych pierwiastków i związków w przyrodzie itd. Siłą rzeczy, model uwzględnia takie zjawiska jak cyrkulacja oceaniczna (czytaj więcej Mit: Zmiany klimatu są powodowane zmianami prądów morskich) czy zmiany albedo w związku np. ze zmianą zasięgu lodu morskiego (czytaj więcej Arktyczne wzmocnienie).

Podkreślmy: przy obliczaniu projekcji klimatu modelowi nie "mówi się", jaka jest czułość klimatu, czyli o ile średnia temperatura powierzchni Ziemi ma się zmienić w odpowiedzi na zmianę koncentracji dwutlenku węgla. To jest właśnie to, co się z użyciem modelu oblicza.

Przy obliczaniu prognozy klimatu na 100-300 lat do przodu nie ma potrzeby uwzględniania zmian orbitalnych Ziemi (czytaj więcej: Klimat: przeszłość, teraźniejszość, przyszłość), bo w tym czasie ich faza nie zmienia się znacząco (np. Kutzbach i Guetter, 1986). W ramach eksperymentów sprawdza się też wpływ zmian aktywności słonecznej, które również okazują się mieć niewielkie znaczenie (czytaj więcej Pojutrze. Mit wiecznie żywy). Nie da się na razie przewidzieć takich zdarzeń jak erupcje wulkaniczne albo wojna nuklearna, ale prowadzi się eksperymenty numeryczne na temat „co by było gdyby” (np. Przed czym uchronił nas Protokół Montrealski?, Mit: Nadchodzi globalne ochłodzenie, Jak wpłynęłaby na klimat wojna nuklearna).

„Co by było gdyby” to zresztą zasadnicze pytanie, jakie przyświeca prognozowaniu klimatu. Ściśle rzecz biorąc nie wiemy przecież, jakie decyzje podejmą rządy całego świata w kwestii ograniczenia emisji i jakie to będzie miało przełożenie na gospodarkę. Dlatego projekcje klimatu przygotowuje się w kilku wariantach. Obecnie standardem jest wykorzystanie scenariuszy przyszłych emisji zwanych Representative Concentration Pathways (sporo na ten temat piszemy w tekście Dodatkowe emisje ze źródeł naturalnych a przyszła zmiana klimatu). Nikt nie spodziewa się, że którykolwiek z nich zostanie zrealizowany co do joty, ale można oczekiwać, że jeśli powędrujemy np. pomiędzy ścieżką RCP4.5 a RCP6.0 to skutki dla klimatu będą również pośrednie pomiędzy symulacjami 4.5 oraz 6.0.

Rysunek 6: Scenariusze przyszłych emisji gazów cieplarnianych do 2100 Representative Concentration Pathways (reprezentatywne ścieżki koncentracji), po 2100 Extended Concentration Pathways (przedłużone ścieżki koncentracji). Scenariusze oznaczone są liczbami 2.6, 4.5, 6 oraz 8.5, które odpowiadają wartościom wymuszenia radiacyjnego przez gazy cieplarniane w roku 2100 (zmiany bilansu radiacyjnego Ziemi). Źródło (van Vuuren i in., 2011).

Rysunek 7: Prognozowana zmiana średniej temperatury w miesiącach zimowych (grudzień-luty) w Polsce względem okresu 1986-2005, według scenariuszy RCP2.6, RCP4.5, RCP6.0 i RCP8.5. Na prawdo od wykresu średnie dla lat 2081-2100. Ilustracja pochodzi z elektronicznego atlasu zmiany klimatu KNM Climate Explorer przedstawiającego wnioski zamieszczone w V raporcie IPCC (czytaj więcej).

Podsumowując, modele klimatu to złożone programy komputerowe, w których naukowcy zamykają całą swoją wiedzę o działaniu systemu klimatycznego Ziemi. Programy te obliczają, jak zmieniają się statystyki klimatyczne – średnie wartości temperatur, opadów, temperatury minimalne i maksymalne, liczby dni z mrozem, opadami, upałami itd. Korzystają przy tym z praw fizyki, chemii i sprawdzonych empirycznie związków statystycznych, wyników pomiarów i obserwacji biosfery, hydrosfery, kriosfery, litosfery i atmosfery. Przed wykorzystaniem modelu do obliczania projekcji klimatu testuje się go na danych historycznych. Projekcje klimatu nie mówią nam, co się wydarzy, tylko co może się wydarzyć przy założeniu takich czy innych scenariuszy. Na razie wyniki modelowania klimatu sprawdzają się całkiem dobrze - patrz Mit: Przewidywania Jamesa Hansena z 1988 roku były błędne.

Zainteresowanym tematem polecamy dodatkowo krótkie wystąpienie dr Gavina Schmidta z NASA (są polskie napisy).

Aleksandra Kardaś, konsultacja merytoryczna: prof. Szymon Malinowski.

Opublikowano: 2016-02-29 12:40
Tagi

modele numeryczne projekcje klimatu czułość klimatu

Korzystanie z witryny bez zmiany ustawień przeglądarki oznacza akceptację polityki cookies.