ASPress - czasopisma pedagogiczne


ARCHIWUM WYDAŃ CYFROWYCH


Zbiór 52 felietonów poświęconych współczesnej Polsce, Polakom, polityce, roli telewizji i mediów we współczesnym świecie, globalizacji i konsekwencji wynikającej z naszego otwarcia na świat.
Wydanie w postaci pliku PDF
Cena 10 zł.
Zamów


Książka o podróżach, poznawaniu, odkrywaniu i podbijaniu świata, o pokonywaniu kolejnych horyzontów ludzkiego rozwoju. Ludzie wędrują od wieków, zawsze chcieli zobaczyć, co jest za kolejną rzeką, górą, morzem, za nowym horyzontem. Ta wędrówka pozwoliła najpierw poznać naszą planetę, a dziś już zaprowadziła człowieka poza granice Układu Słonecznego. Kim są ci, którzy zmieniają historię świata? Dlaczego Krzysztof Kolumb odkrył Amerykę, a Mikołaj Kopernik „poruszył” Ziemię?
Wydanie w postaci pliku PDF.
Cena 10 zł.
Zamów

Wydanie drukowane



Historia powstania  * Dane techniczne * Słynne rajdy * Rozwiązania konstrukcyjne

Pierwszy pojazd z napędem na obie osie skonstruowano w 1824 r. a więc ponad pól wieku wcześniej od samochódu. Jednak dopiero wojskowi amerykańskiej armii jako pierwsi chcieli mieć pojazd, który pojedzie każdą drogą, pokona głębokie rowy  i wyposażony będzie we wciągarkę, tak by mógł poruszać się w każdym terenie.
Cena 10 zł.
Zamów

Wydania specjalne "Geografii w Szkole"

2011

2010

2009

2008


Zamów


Ebooki 


Więcej

Numeryczne prognozy

 Numeryczne prognozy pogody

 
Warunki pogodowe wpływają na wiele dziedzin życia, stąd też duże zainteresowanie możliwościami przewidzenia przyszłych stanów atmosferycznych. 
 
Historia prognoz pogody sięga starożytności, gdy pierwsi filozofowie próbowali przewidzieć, jaka będzie pogoda, na podstawie obserwacji aktualnych zjawisk meteorologicznych. Znaczny rozwój w prognozach pogody nastąpił dopiero w XX wieku. Pionierami w tym względzie byli naukowcy z tzw. szkoły norweskiej. Bjerknes i jego koledzy, wykorzystując m.in. wyniki prac lorda Kelvina i polskiego fizyka Silbersteina w dziedzinie mechaniki płynów, zaproponowali i rozwinęli układ równań opisujący rozwój pól meteorologicznych w czasie. 
Okazało się jednak, że ten skomplikowany układ równań różniczkowych cząstkowych, obejmujący równania ruchu, równanie ciągłości i równania termodynamiki, nie daje się prosto rozwiązać. Rozwiązanie znalazł angielski matematyk, fizyk i meteorolog L.F. Richardson, zastępując układ równań różniczkowych równaniami różnicowymi. Następnie obszar atmosfery nad Europą Zachodnią podzielił na jednakowe, regularne kostki i w każdej z nich zdefiniował warunki początkowe. Zostały one określone na podstawie danych pomiarowych pochodzących z nierównomiernie rozłożonych stacji pomiarowych. 
Najbardziej pracowity okazał się ostatni krok, czyli wyznaczenie prognozowanych pól w każdym oku siatki po 6 godzinach. Wynik okazał się kompletnie niezgodny z wynikami obserwacji w chwili czasu odpowiadającej prognozie ze względu na wiele problemów numerycznych, które wówczas nie były znane naukowcom. 
Równocześnie zaczęto intensywnie rozwijać meteorologię synoptyczną, opartą na subiektywnej analizie obserwacyjnych pól meteorologicznych. Przełom XIX i XX wieku przyniósł rozwój telekomunikacji, który pozwolił na przesłanie do centrum meteorologicznego danych o stanie pogody, pochodzących z przeprowadzanych jednocześnie pomiarów. Umożliwiło to sporządzenie map pogody i analizę warunków meteorologicznych w określonej chwili czasu na znacznych obszarach globu. Pionierem w tej dziedzinie był Bergeron (szwedzki meteorolog, uczeń Bjerknesa), który kreślił pierwsze mapy synoptyczne.
Prognozy subiektywne stosowane były jak główne źródło informacji o przyszłych stanach atmosferycznych do lat 80. czy 90. XX wieku. Były one opracowywane w oparciu o doświadczenie przygotowującego je synoptyka i tylko na podstawie danych obserwacyjnych naniesionych na mapy pogody. Analizowano aktualne i wcześniejsze stany warunki meteorologiczne, a następnie dokonywano ekstrapolacji w czasie możliwych przyszłych zmian parametrów meteorologicznych. Zakładano przy tym, że układy baryczne będę poruszały się zgodnie z przypływem powietrza w środkowej troposferze. Prognozy te były opracowywane na podstawie danych satelitarnych, w szczególności obrazów zachmurzenia, które pozwalały na identyfikację stref frontalnych oraz oszacowanie prędkości i kierunku ich przemieszczania. 
 
Bardzo trudno jednak w ten sposób było przewidywać dynamiczne sytuacje meteorologiczne związane z pogłębianiem się układów niskiego ciśnienia i występowaniem gwałtownych zjawisk atmosferycznych. Bardzo trudno było bowiem prognozować pogodę na więcej niż kilka czy kilkanaście godzin do przodu. Poprawa tego stanu rzeczy była możliwa jedynie poprzez rozwój numerycznych prognoz pogody. Mimo to pierwsze prognozy numeryczne nie były lepsze od prognoz opracowywanych przez doświadczonych meteorologów, były natomiast znacznie kosztowniejsze. 
W drugiej połowie XX wieku metody tradycyjne, wspomagane m.in. przez rozwijającą się meteorologię satelitarną i radarową, konkurowały z metodami numerycznymi. Numeryczne prognozy pogody stawały się coraz lepsze wraz ze wzrostem mocy obliczeniowej komputerów, powstawaniem nowych metod numerycznego rozwiązywania równań różniczkowych oraz coraz doskonalszych postaci układu równań dynamiki i termodynamiki, uwzględniających szeroką klasę procesów fizycznych zachodzących w atmosferze. 

Fizyczne podstawy numerycznych modeli atmosfery
Współczesne modele prognoz pogody są bardzo skomplikowanymi systemami, opracowywanymi jedynie w dużych ośrodkach badawczych. Modele te bazują na tzw. równaniach pierwotnych, które opisują główne procesy zachodzące w atmosferze. Podstawowa wersja tych równań przedstawia procesy hydrodynamiczne i termodynamiczne zachodzące w atmosferze (…)

Metody numeryczne 
Oddzielnym zagadnieniem badawczym jest numeryczne rozwiązywanie równań opisujących procesy dynamiczne i termodynamiczne występujące w atmosferze. Równania różniczkowe rozwiązuje się na specjalnych siatkach numerycznych, które obejmują całą kulę ziemską albo wybrany region. W pierwszym przypadku mówimy o modelach globalnych, w drugim zaś o modelach lokalnych (mezoskalowych). O ile w wypadku modeli globalnych model startuje z warunków początkowych otrzymanych podczas asymilacji danych pomiarowych, o tyle w przypadku modeli regionalnych należy uwzględnić dodatkowo warunki brzegowe na granicy domeny obliczeniowej modelu. W tej sytuacji na ogół korzysta się z wyników prognoz modeli globalnych. Coraz częściej stosowaną techniką obliczeniową jest zagnieżdżanie siatek obliczeniowych lub modeli, które pozwala, korzystając z wyników obliczeń w większej skali (warunków brzegowych), na precyzyjniejsze obliczenia w wybranych obszarach. 
Metody numeryczne stosowane do rozwiązania równania ruchu są bardzo zróżnicowane. Znaczny postęp w tej dziedzinie dokonał się pod koniec XX i na początku XXI wieku. Obecnie pracuje się nad coraz bardziej zaawansowanymi metodami, aby poprawić dokładność i przyśpieszyć obliczenia (…)
 
Asymilacja danych pomiarowych do numerycznych modeli prognoz pogody
Nawet najdoskonalszy model prognozy pogody bez wiarygodnych danych pomiarowych nie poradzi sobie z przewidywaniem przyszłych stanów atmosfery. Określenie warunków początkowych w modelu nie jest jednak zagadnieniem łatwym i trywialnym. Nosi ono nazwę asymilacji danych, która jest procesem analizy danych pochodzących z różnych systemów pomiarowych. Jego celem jest ujednolicenie i uzgodnienie pół meteorologicznych, tak aby po wstawieniu ich do modelu nie wygenerowały w nim nierzeczywistych stanów meteorologicznych. Asymilację danych można podzielić na dwa etapy. Pierwszy obejmuje sprawdzenie jakości danych i wyeliminowanie oczywistych błędów pomiarowych. Drugi etap to uzgodnienie danych i wykorzystanie informacji dostępnej z poprzednich godzin czy z poprzednich dni (…) . 
Głównym zadaniem asymilacji jest zdefiniowanie takich warunków początkowych, które są spójne i generują stan atmosfery jak najbardziej zbliżony do rzeczywistego. Jest to możliwe, gdyż zmienne fizycznie nie są niezależne. Jeśli w jakiejś stacji pomiarowej mierzone jest ciśnienie atmosferyczne, prędkość i kierunek wiatru, to wielkości te na ogół nie są ze sobą związane. Jeżeli jednak weźmiemy pod uwagę wiele stacji, to gradient ciśnienia związany jest z prędkością i kierunkiem wiatru. Mimo tych relacji zagadnienie w dalszym ciągu jest źle określone i należy zawęzić obszar poszukiwań warunków brzegowych. W tym celu wykorzystuje się tzw. pierwsze przybliżenie. Jest to na ogół wynik wcześniejszej prognozy pogody lub dane klimatologiczne dla danej chwili czasu. Zasadniczo asymilacja danych polega na poszukiwaniu pewnego kompromisu między pierwszym przybliżeniem a wynikiem aktualnych obserwacji. Jest to realizowane na podstawie znajomości błędów pierwszego przybliżenia oraz błędów obserwacji.
Jednym z głównych zadań asymilacji jest integracja danych pochodzących z różnych systemów obserwacyjnych, które obejmują obserwacje naziemne, satelitarne czy profile wykonane z użyciem balonów aerologicznych. Pomiary prowadzone są na ogół w różnych chwilach czasu i mają zróżnicowaną rozdzielczość przestrzenną. Dodatkowo niektóre pomiary dostarczają wielkości fizycznych, które nie mogą być bezpośrednio wyznaczane w modelu meteorologicznym. Ma to miejsce w przypadku radarów opadowych, które mierzą tzw. Odbiciowość. Wielkość ta jest proporcjonalna do szóstego promienia kropel deszczu, jednak w modelach nie ma informacji o wielkości kropel. Stąd też asymilacja tego typu danych jest bardzo trudna, ale bardzo pożądana ze względu na duże błędy w prognozowaniu opadów. Uważa się, że wykorzystanie danych radarowych może znacząco poprawić krótkoterminowe prognozy pogody, opadów i zachmurzenia. 
 
Wiarygodność modeli
Współczesne numeryczne prognozy pogody charakteryzują się dość dobrą sprawdzalnością w przypadku prognoz krótkoterminowych (1–3 dni), umiarkowaną w wypadku średnioterminowych (3–5 dni) oraz znacznie gorszą, gdy wyznaczane są stany atmosfery na okres dłuższy niż tydzień (…) 
Sprawdzalność prognoz pogody bardzo silnie zależy od wielkości fizycznej, która podlega weryfikacji. Wysoką sprawdzalnością charakteryzuje się ciśnienie atmosferyczne, mniejsza temperatura powietrza, zachmurzenie, a najniższą – opady. Ma to swoje odzwierciedlenie w uproszczeniach procesów fizycznych związanych z powstawaniem opadów. 
Ponadto jakość prognoz pogody zależy silnie od szerokości geograficznej i wysokości nad poziomem morza. W niskich szerokościach geograficznych zmiany pogody są na ogół mniej dynamiczne, co sprawia, że prognozowanie jest prostsze i możliwe w dłuższej perspektywie czasowej niż w umiarkowanych szerokościach. 
W wysokich szerokościach geograficznych dodatkowym problemem jest rzadka sieć obserwacyjna, co powoduje, że prognozy pogody w tym rejonie naszego globu należą do najgorszych na świecie. Ze względu na oddziaływanie powierzchni Ziemi dokładność prognoz rośnie z wysokością w troposferze. 
Przy powierzchni Ziemi lokalne warunki topograficzne oraz procesy wymiany energii między atmosferą a powierzchnią naszej planety powodują, że prognozowanie prędkości wiatru czy temperatury powietrza może być zawierać znaczne błędy. W terenie silnie urozmaiconym temperatura powietrza zależy od lokalnych warunków mikroklimatycznych, które na ogół nie mogą być właściwie uwzględnione w numerycznych prognozach pogody. 
Prognozy pogody powyżej tygodnia są obecnie mało wiarygodne, co wynika z kilku przyczyn. Przede wszystkim system równań pierwotnych opisuje silnie nieliniowy system dynamiczny, wykazujący dużą wrażliwość na warunki początkowe. Zjawisko to zwane jest efektem motyla i zostało odkryte przez Edwarda Lorenza w 1960 roku. Lorenz pracował nad numeryczną prognozą pogody bazującą na układzie 12 równań. Po wykonaniu dwóch symulacji z nieco innymi warunkami początkowymi (rzędu 0,025%) okazało się, że różnią się one znacząco. Na tej podstawie Lorenz stwierdził, że prawidłowe prognozowanie pogody na więcej niż kilka kolejnych dni jest niemożliwe ze względu na nieznajomość chwilowych warunków pogodowych na tyle dokładnie, aby błąd w długookresowych obliczeniach był niezauważalny.
Mimo że modele prognoz pogody są bardzo skomplikowane, nadal wiele procesów fizycznych, szczególnie tych zachodzących w małych skalach przestrzennych, jest uproszczonych. Wynika to po części z braku wiedzy, ale przede wszystkim z niemożliwości uwzględnienia procesów przy obecnych rozdzielczościach przestrzennych modeli. Wraz z postępującym zagęszczeniem siatek obliczeniowych możemy oczekiwać poprawy jakości prognoz pogody, jednak wyzwaniem w tym wypadku stają się inne problemy. Jednym z nich jest określenie warunków początkowych przy takiej rozdzielczości. Jeśli modele będą w przyszłości rozwiązywały równania fizyczne z rozdzielczością dziesiątek czy setek metrów, to trudno sobie wyobrazić, że będziemy posiadać odpowiednio gęstą sieć obserwacji naziemnych, która mogłaby dostarczać informacji o zmianach wielkości meteorologicznych w takiej skali. 
Kolejną trudnością będzie zmiana podejścia w modelach numerycznych. Zagęszczając siatki obliczeniowe i włączając kolejne procesy fizyczne, będziemy musieli używać innych równań fizycznych, co będzie wymagać radykalnych zmian w istniejących modelach prognostycznych. Tak więc w przyszłości prawdopodobnie nadal będziemy obserwować poprawę jakości prognoz pogody, zarówno tych krótko-, jak i długoterminowych. Należy jednak mieć na uwadze, że koszt tych ulepszeń będzie bardzo wysoki, a modele prognoz pogody będą opracowywane jedynie w największych ośrodkach badawczych (…)
 
Więcej przeczytacie na artykule dr hab. Krzysztofa Markowicza „Numeryczne prognozy pogody” w najnowszym wydaniu (5/2016) „Fizyki w Szkole”.
 
(...) - skróty pochodzą od redakcji