ASPress - czasopisma pedagogiczne


ARCHIWUM WYDAŃ CYFROWYCH


Zbiór 52 felietonów poświęconych współczesnej Polsce, Polakom, polityce, roli telewizji i mediów we współczesnym świecie, globalizacji i konsekwencji wynikającej z naszego otwarcia na świat.
Wydanie w postaci pliku PDF
Cena 10 zł.
Zamów


Książka o podróżach, poznawaniu, odkrywaniu i podbijaniu świata, o pokonywaniu kolejnych horyzontów ludzkiego rozwoju. Ludzie wędrują od wieków, zawsze chcieli zobaczyć, co jest za kolejną rzeką, górą, morzem, za nowym horyzontem. Ta wędrówka pozwoliła najpierw poznać naszą planetę, a dziś już zaprowadziła człowieka poza granice Układu Słonecznego. Kim są ci, którzy zmieniają historię świata? Dlaczego Krzysztof Kolumb odkrył Amerykę, a Mikołaj Kopernik „poruszył” Ziemię?
Wydanie w postaci pliku PDF.
Cena 10 zł.
Zamów

Wydanie drukowane



Historia powstania  * Dane techniczne * Słynne rajdy * Rozwiązania konstrukcyjne

Pierwszy pojazd z napędem na obie osie skonstruowano w 1824 r. a więc ponad pól wieku wcześniej od samochódu. Jednak dopiero wojskowi amerykańskiej armii jako pierwsi chcieli mieć pojazd, który pojedzie każdą drogą, pokona głębokie rowy  i wyposażony będzie we wciągarkę, tak by mógł poruszać się w każdym terenie.
Cena 10 zł.
Zamów

Wydania specjalne "Geografii w Szkole"

2011

2010

2009

2008


Zamów


Ebooki 


Więcej

Najczęściej czytane

Kiedy fizyk idzie na mecz...

 

Fizyk – idąc na mecz, jako kibic – nie myśli o fizyce, lecz o dobrym relaksie. Z punktu widzenia fizyki gra w piłkę nożną sprowadza się do umiejętnego sterowania ruchem piłki poprzez kontakt – oddziaływanie zawodnika na piłkę, w środowisku posiadającym różne parametry fizyczne, jakim jest „odpowiednio przygotowana, wydzielona, stadionowa przestrzeń gry”.

Uczniom klas gimnazjalnych i licealnych zadaliśmy następujace pytanie: Jakie zjawiska fizyczne dostrzegasz, grając w piłkę nożną lub obserwując mecze piłkarskie?
Oto treść najczęstszych odpowiedzi: „…trzecia zasada dynamiki, ruch jednostajnie opóźniony, siła grawitacji (piłka nie leci w kosmos), meksykańska fala kibiców na trybunie, praca (trzeba się namęczyć, żeby zdobyć gola), moc (z jaką mocą piłka wpada do bramki), opory powietrza, wprawianie piłki w ruch przez inne ciało, działanie grawitacji, przemieszczanie się piłki, światła stadionów.
Ponadto - druga zasada dynamiki Newtona, siła sprężystości, fale dźwiękowe, gdy dopingujemy naszą ulubioną drużynę, paraboliczna trajektoria lotu, opór powietrza, podkręcenie wpływające na celność „pocisku”, oddziaływanie ciał (piłkarza na piłkę), skraplanie potu na graczach i kibicach, siła tarcia piłki o podłoże, ruch wirowy, gdy piłka zostaje kopnięta z siłą piłkarza, to rozkłada opór naprzeciw powietrza lub wiatru, bezwładność, przekazywanie sił, oddziaływanie dynamiczne związane ze zmianą prędkości ciał, energia kinetyczna, potencjalna, pęd, popęd, przyspieszenie, odbicie, zjawisko sprężystości i wyrównywania ciśnienia i takie różnokosmologiczne zjawiska, siła kopnięcia, rzut ukośny, rzuty w górę i w dół, rzut poziomy, odbicia piłki od poprzeczek i słupków, błędne przekonanie o trudności zagrania podkręconej piłki, trudniejsze – wręcz nieosiągalne – jest uderzenie piłki bez rotacji, podkręcona piłka jest wykorzystywana w większość zagrań, tarcie przy wślizgach, trwałe odkształcenia przy złamaniu nogi…”.
Szczególnym zainteresowaniem cieszą się te fragmenty widowisk piłkarskich, w których kopnięta przez zawodnika piłka zakrzywia celowo tor ruchu i wpada do bramki, zaskakując bramkarza, lub trafia precyzyjnie do partnera z drużyny, umożliwiając mu przyjęcie podania lub strzał. Cóż takiego w nodze mają piłkarze posiadający umiejętność operowania takimi zagraniami, podczas których zdobyte wyjątkowo efektownie gole przeszły do historii futbolu oraz stały się przedmiotem analiz wielu zespołów naukowych, skoro sami piłkarze nie byli w większości pilnymi studentami  fizyki?
Przeprowadźmy przykładowo uproszczoną analizę jednego z takich zagrań. Z wielu naszych obserwacji i praktycznych doświadczeń wyniesionych z piłkarskich boisk wynika, że przyczyny osobliwego zachowania się piłki należy upatrywać w nadaniu rotacji odpowiednio kopniętej piłce. Wychodząc z tego założenia, rozważymy dwie sytuacje.
Pierwsza dotyczy ruchu postępowego piłki w powietrzu o jednorodnej gęstości   z prędkością vs.vs jest prędkością środka masy i każdego punktu piłki w układzie odniesienia  związanym z nieruchomym powietrzem.
Pomijając siłę grawitacji oraz lokalne fluktuacje gęstości powietrza i zakładając pełną symetrię rozkładu sił względem toru środka masy, twierdzimy, że piłka w układzie odniesienia związanym z nieruchomym powietrzem będzie się poruszać po linii prostej, zwalniając wskutek oporu powietrza (rys. 1).
Rozpatrując ruch podkręconej piłki, przeniesiemy  się  do  układu   odniesienia związanego ze środkiem masy piłki, wyróżniając dodatni kierunek osi OX (rys. 2).
W tak wybranym układzie odniesienia w przyzwoitej odległości od powierzchni piłki  powietrze  posiada  prędkość  vs,  ale przy powierzchni piłki w wyniku   oddziaływania z powierzchnią, określmy to – wskutek „szorstkości piłki” (w makroskopowym ujęciu) cząsteczki powietrza są porywane przez rotującą powierzchnię piłki, tworząc strugi o różnym rozkładzie prędkości, co szczególnie ujawnia  się w odniesieniu do punktów A i B. Rozumowanie upraszczamy, nie biorąc pod uwagę turbulencji.
Reprezentatywny wektor prędkości strugi w pobliżu punktu B względem środka masy piłki to:
VB = –VS – VR,
gdzie: VR jest wektorem prędkości strugi powietrza pochodzącym od rotacji piłki.
A w pobliżu punktu A:
VA = –VS + VR.
Z powyższych równań wynika, że długość wektora VB jest większa niż długość wektora VA.
Zwolennicy równania Bernoullego powiedzą: wszystko jasne, duża prędkość powietrza – małe ciśnienie statyczne i odwrotnie, tam, gdzie jest mała prędkość – mamy duże ciśnienie statyczne. Na piłkę w wyniku tej różnicy ciśnień działa wypadkowa siła parcia F powodująca zakrzywienie jej toru „ruchu w kierunku  nadanej  rotacji”.  W naszym przypadku  siła ma  kierunek  A – B, a zwrot od A do B.
Powyższy efekt nazywany jest zjawiskiem Magnusa i można go zademonstrować na wiele różnych sposobów. W okresie, gdy telewizja zajmowała się częściej popularyzacją nauki, fizyka była m.in. tematem Wielkiej gry (bardzo wartościowego teleturnieju prowadzonego przez Stanisławę Ryster). W jednej z edycji tego programu poświęconej fizyce zademonstrowano efekt Magnusa na przykładzie rotującego walca, na który prostopadle do osi rotacji skierowano nawiew powietrza.
W związku z tym, że wyprowadzenie równania Bernoullego i jego interpretacja nie należą do zagadnień standardowo omawianych na „średnim poziomie nauczania”, proponujemy inne wytłumaczenie efektu Magnusa, może bardziej przystępne dla uczniów.
Wyobraźmy sobie piłkę  poruszającą  się w powietrzu i rotującą jednocześnie. Potraktujmy jej  lot  jako  „rozpychanie  się” przez w miarę równo rozmieszczone elementy, którymi są cząsteczki powietrza. Mówiąc dobit- niej – piłka „rozpycha się w powietrzu”, kręcąc się dodatkowo w jedną stronę. Oddziaływanie pomiędzy powierzchnią piłki a powietrzem (lepkość) oraz rotacja determi- nują rozkład gęstości powietrza przy powierzchni piłki. Ten fragment powierzchni piłki, w układzie związanym z murawą boiska, który w wyniku rotacji posiada prędkość zgodną z prędkością środka masy piłki, zagęszcza powietrze dodatkowo poprzez rotację (płużąc przed sobą cząsteczki powietrza), a rotująca powierzchnia piłki posiadająca prędkość przeciwnie zwróconą do prędkości środka masy rozrzedza powietrze. Tworzy się mechanizm generujący różnicę gęstości po obu wyróżnionych stronach powierzchni piłki, co daje różnicę ciśnień i siłę wypadkową poprzeczną do ruchu środka masy piłki i zwróconą zgodnie z rotacją (rys. 3).
Mając świadomość wpływu wirowania piłki na zakrzywianie jej toru, piłkarze z premedytacją wykorzystują tę wiedzę w różnych sytuacjach boiskowych, z rezultatem zależnym od piłkarskiego poziomu, jaki reprezentują. Umiejętność grania podkręconą piłką jest bardzo cennym elementem wyszkolenia technicznego piłkarzy. Dobry piłkarz powinien mieć świadomość, że piłka może skrę- cać w dowolnym kierunku poprzez nadanie jej odpowiedniej rotacji, tworząc zaskakujące dla przeciwnika sytuacje. Rotująca piłka zachowuje się inaczej w stosunku do piłki poruszającej się ruchem postępowym przy zderzeniu z podłożem, poprzeczką, słupkiem, po strzale z tzw.  pierwszej  piłki i w wielu innych zdarzeniach boiskowych.
Oczywiście można poddać analizie każdą taką sytuację z osobna, co sprawia,  że obliczenia mające na celu wyznaczenie toru lotu przy uwzględnieniu zmieniających się parametrów środowiska i różnych warunków początkowych stają się przyzwoitym, indywidualnym problemem.
Do najważniejszych parametrów strzału należy prędkość. To prędkość decyduje o fizycznej charakterystyce przepływu powietrza wokół piłki. Przy mniejszych prędkościach powietrze przepływa w miarę uporządkowanymi, niemieszającymi się warstwami (przepływ laminarny). Przy dużych prędkościach warstwy zaczynają mieszać się ze sobą,  tworząc  wiry.  Prędkość,  ciśnienie i gęstość ulegają „burzliwym”, chaotycznym zmianom wokół poruszającej się piłki, co znacznie osłabia przewidywalność jej ruchu. W tym aspekcie bardzo mocny strzał oddany z przyzwoicie bliskiej odległości jest zawsze zagrożeniem dla bramkarza. Wiemy również, że za ruch piłki odpowiada też siła oporu powietrza, której zależność od prędkości jest kwadratowa dla większych prędkości, dla mniejszych prędkości wykładnik potęgi maleje. Zatem siła oporu wpływa na rodzaj przepływu i stabilizację ruchu.
Mistrzowie futbolu potrafią umiejętnie nadać piłce taki „stan fizyczny”, że jej lot zaskakuje przeciwników. Mówimy o  nich „czarodzieje piłki”. Nie będziemy wymieniać nazwisk. Miłośnicy futbolu znają wielkich piłkarzy doskonale. Przykładowo zacytujemy opis charakterystycznych akcji dwóch z grona wielu wybitnych piłkarzy. Należał do nich m.in. brazylijski prawoskrzydłowy Garrincha. Oto, jak opisywana jest jedna z jego akcji: „Wyobraźmy go sobie stojącego blisko linii  bocznej, tyłem do atakowanej bramki i mającego za plecami kryjącego go (na ogół krótko) przeciwnika. Garrincha, wychodząc do podania, mijał go z prawej, podążając w kierunku bramki. Po kilku metrach znów był w posiadaniu piłki, która odpowiednio  podkręcona omijała przeciwnika i po zatoczeniu łuku znajdowała się pod jego nogami”. 
Do historii mediów i piłki nożnej przeszła bramka Roberto  Carlosa  strzelona w turniejowym meczu z Francją w 1997 roku. Wprawdzie turniej miał towarzyski charakter, ale gol Carlosa zachwycił fanów futbolu i nie tylko. Jeden z tytułów medialnych głosił: Carlos zniwelował efekt grawitacji. Fizycy zbadali (WIDEO).
Czytamy dalej: „Niektórzy mówili nawet, że Carlos w 1997 roku zadrwił z praw fizyki. Tymczasem okazuje się, że Brazylij- czyk zachował się jak student politechniki, bo strzelił jak na dyplomowanego fizyka przystało. Sprawdzili to francuscy naukowcy, wyniki badań opublikowali w »New Journal of Physics«”. Czytamy też: „Barthez nie wierzył własnym oczom, gdy w dwudziestej pierwszej minucie meczu z Brazylią piłka wpadła do siatki. Tak samo oczy ze zdumienia przecierali kibice zgromadzeni na Stade de Gerland w Lyonie. Zadziwiająca  była  trajektoria  lotu piłki. W pewnym momencie znalazła się ona bowiem kilka metrów poza światłem bramki, ale w końcu skręciła w odpowiednim kierunku”.
 Co na to fizycy? „Wykazaliśmy, że droga obracającego się obiektu w locie tworzy spiralę – powiedział prowadzący badania Christophe Clanet z paryskiej politechniki. Dr Clanet opisał trajektorię lotu jak „kształt muszli ślimaka”. Gdyby nie grawitacja, piłka po strzale Roberto Carlosa utworzyłaby spiralny tor lotu” .
Daje się zauważyć, że dziennikarze, polując na osobliwe zdarzenia, bardzo chętnie dopatrują się w ich przebiegu „drwin z praw fizyki”. Tymczasem to dzięki prawom fizyki Carlos i inni strzelali bramki w nieprawdopodobnych sytuacjach i będą to robić dalej, jeżeli ich umiejętności pokryją się z korzystnymi warunkami.
Zdarza się, że tzw. stuprocentowe sytuacje bramkowe są niewykorzystane i piłka po strzale zawodnika zamiast w bramce, ląduje na trybunach (ku radości kibiców drużyny przeciwnej). Zapewniamy, że w takich sytuacjach trajektoria lotu piłki była zgodna z prawami fizyki, a zawiódł zawodnik swym oddziaływaniem w kontakcie z piłką. Piłka jako główny element gry ulegała ewolucji konstrukcyjnej i materiałowej, której podstawy kształtowały dokonania podsta- wowych badań w dziedzinie fizyki. Wielkość, masa, rodzaj powierzchni piłki są parametrami mającymi duże znaczenie szczególnie dla doświadczonych zawodników. Ta sama piłka w różnych warunkach zachowuje się inaczej. Z wypowiedzi zawodników wynika, że „inaczej latają piłki angielskie, zszyte z 26 kawałków, a inaczej tradycyjne – z 32 łatkami”, dodatkowo sprawę komplikują zmieniające się warunki atmosferyczne w trakcie meczu.

Hieronim i Bartosz Lalek, fragmenty artykułu z Fizyki w Szkole" nr 3/2012. Skróty pochodzą od redakcji
 

Fizyka a klimat, czyli dlaczego pada deszcz

 

Jak podaje encyklopedia, klimat to całokształt warunków pogodowych charakterystycznych dla danego obszaru lub miejsca, kształtujący się pod wpływem położenia geograficznego i właściwości fizycznych tego obszaru, określony na podstawie wieloletnich obserwacji.

Klimat jest efektem równowagi systemu utworzonego przez atmosferę, hydrosferę, warstwę powierzchniową litosfery, kriosferę i biosferę, w którym zachodzą procesy obiegu energii i substancji. Procesy te wskutek wzajemnych powiązań i sprzężeń tworzą stan atmosfery objawiający się zmiennością takich czynników jak temperatura, wilgotność, opady czy wiatr.
Stan pogody to chwilowy stan atmosfery na danym (niewielkim) obszarze, opisany przez parametry takie jak nasłonecznienie, temperatura i ciśnienie powietrza, jego wilgotność, rodzaj i natężenie opadu oraz szybkość i kierunek wiatru. Parametry te na ogół nie są na danym terenie stabilne i ulegają zmianie. Zmiany te mogą następować w krótkim czasie (np. pojawienie się opadu) lub w dłuższym (jak zmiana ciśnienia czy temperatury powietrza). Stan pogody zależy od położenia geograficznego danego terenu oraz pory roku. Uśrednione po czasie stany określają rodzaj klimatu, przy czym dotyczy to zwykle większego obszaru niż ten, dla którego określa się stan pogody.
Na stan pogody na danym obszarze w głównej mierze wpływają układy baryczne, czyli wzajemne położenie układów niżowych i wyżowych. Ponieważ średnie ciśnienie atmosfery ziemskiej na poziomie morza ma wartość 101 325 Pa, więc centra obszarów, na których występują wartości mniejsze, nazywamy niżami barycznymi, a obszary, na których ciśnienia są większe od wartości ciśnienia średniego, nazywamy wyżami barycznymi. Ciśnienie powietrza zależy w dużej mierze od wysokości terenu nad poziomem morza (maleje o około 13 hPa na każde 100 m
wysokości), dlatego przelicza się je zwykle tak, by odpowiadało ciśnieniu na poziomie morza. Wartości te wskazują izobary, które kreślone są na mapach pogody.
Między wyżami i niżami występuje cyrkulacja mas powietrza, co objawia się nierzadko bardzo intensywnymi wiatrami. Powietrze przemieszcza się od wyżu do niżu, ale siły Coriolisa sprawiają, że jego masy zaczynają wirować, co zwykle wzmaga szybkość wiatru. Szybkość ta jest proporcjonalna do gradientu ciśnienia na danym obszarze. Na mapie pogody obszar o największym gradiencie ciśnienia występuje tam, gdzie zagęszczają się izobary.

Jednym z ważniejszych czynników kształtujących klimat są prądy morskie. Przenoszą one znaczne masy wody zarówno południkowo (np. Golfstrom), jak i równoleżnikowo (np. El Niño). Są one dość stabilne i mogą transportować ogromne ilości energii wewnętrznej (cieplnej) wody. Ważnym czynnikiem kształtującym klimat na znacznych obszarach Ziemi są pasaty. Są to stałe wiatry wiejące od zwrotników ku równikowi. Zarówno pasaty, jak i prądy morskie wywołane są różnicą temperatur mas powietrza lub wody. W fizyce zjawisko to nazywamy konwekcją. 
Jak wiemy, konwekcja jest zjawiskiem, w którym substancja (woda lub powietrze) tworzy obieg zamknięty. Dlatego też każdemu powierzchniowemu prądowi morskiemu towarzyszy prąd głębinowy płynący w przeciwnym kierunku. W przypadku zaś pasatów jest to przemieszczanie się mas powietrza w górnej części atmosfery w kierunku od równika ku zwrotnikom (antypasat). Ponieważ Ziemia obraca się wokół swojej osi, jest więc ona układem nieinercjalnym. W takim układzie do opisu zjawisk wygodnie jest użyć sił bezwładności. W tym wypadku są to właśnie siły Coriolisa. Siły te wywołują zmianę kierunku ruchu pasatów ku zachodowi, a antypasatów w stronę wschodnią. W przypadku pionowych strumieni powietrza wiatr wiejący ku Ziemi odchyla się ku wschodowi, a wiejący w górę – ku zachodowi. Tworzy się więc skomplikowany układ ruchu mas powietrza nad równikiem i wokół niego. Podobne prądy powietrza tworzą się w strefie podbiegunowej. Siły Coriolisa działają również na prądy morskie. Przykładem jest Golfstrom, który płynąc na północ, skręca ku wschodowi, w wyniku czego kształtuje klimat w zachodniej Europie.
Przyczyną konwekcji jest różnica temperatur w danym ośrodku. Tak więc powietrze ogrzane od powierzchni ziemi zmniejsza swoją gęstość i zgodnie z prawem Archimedesa jest wypierane ku górze. Tam się ochładza i opada nad terenami słabiej ogrzanymi, np. nad morzem. Tak właśnie powstaje bryza dzienna. W nocy jest odwrotnie; ląd łatwo traci ciepło (wypromieniowuje go) i wówczas to woda jest cieplejsza od lądu. Zatem bryza zaczyna wiać od lądu. Podobnie powstają tzw. kominy termiczne, które wykorzystują szybownicy i niektóre ptaki, np. szykujące się do odlotu bociany. Należy zauważyć, że prądy konwekcyjne nie wywołują wiatru o dużej prędkości. Zwykle nie przekracza ona wartości kilku czy kilkunastu kilometrów na godzinę. Większe prędkości są związane z głębokimi niżami barycznymi.

A jak powstają takie niże? Omówię to na przykładzie niżów okołorównikowych. Unoszone nad równikiem ciepłe powietrze zawiera dużo pary wodnej. Ponieważ w czasie wznoszenia obniża się jego temperatura, to rośnie jego wilgotność względna. Po osiągnięciu stanu nasycenia następuje skraplanie pary wodnej, co z kolei wywołuje dalsze obniżenie ciśnienia. Jest to zgodne z prawem Daltona, które głosi, że ciśnienie mieszaniny gazów jest sumą ciśnień cząstkowych gazów wchodzących w skład tej mieszaniny. W tym wypadku ubywa pary wodnej (zamienia się w mgłę), co wywoła stosowne obniżenie ciśnienia i powstanie niżu barycznego. W efekcie w strefie okołorównikowej panują stałe niże. A ponieważ para wodna ulega w chmurze kondensacji, to może pojawić się deszcz. Są to znane nam deszcze zenitalne. Analogiczne procesy zachodzą wewnątrz chmury burzowej.
Specyficzny układ niżu i wyżu barycznego jest przyczyną powstawania monsunu oraz wiatru fenowego. Znany nam wiatr halny pojawia się wtedy, gdy Tatry znajdą się w południowym strumieniu powietrza. Wówczas to wznoszące się nad Tatrami masy powietrza ochładzają się, tworząc chmury i deszcz spadający po stronie południowej. W efekcie powietrze w Zakopanem jest już pozbawione pary wodnej. W tym jednak przypadku wpływ mają również dodatkowe czynniki zmieniające stan powietrza. Otóż wędrujące w górę powietrze ulega rozprężeniu. A ponieważ brak jest dostatecznej wymiany ciepła z otoczeniem, to możemy przyjąć, że jest to rozprężanie adiabatyczne. Musi więc nastąpić obniżenie temperatury powietrza. I odwrotnie: przy ruchu w dół powietrze ulega adiabatycznemu sprężeniu, co wywoła wzrost jego temperatury. Będąc wówczas w Zakopanem, odczujemy, że powietrze jest suche i ciepłe. Dodam, że duża szybkość wiatru na szczytach Tatr wynika również z faktu, że zwęża się tam strumień powietrza.

A jak powstaje niż w średnich szerokościach geograficznych? Przykładem niech będzie ten, który najczęściej tworzy się w pobliżu Islandii. Jego powstawanie ma inny charakter niż w wypadku niżów okołorównikowych czy też lokalnego niżu związanego z chmurą burzową. W pobliżu Islandii spotykają się zwykle dwie masy powietrza: ogrzane przez Golfstrom ciepłe i wilgotne z południa z zimnym i dość wilgotnym powietrzem płynącym z północy. Po zetknięciu się tych mas następuje ochłodzenie powietrza ciepłego, w wyniku czego część pary wodnej ulega skropleniu, co w efekcie obniża w tym miejscu ciśnienie. Spadek ciśnienia spowoduje napływ kolejnych mas powietrza oraz dalsze pogłębienie i poszerzanie się niżu. Obniżenie ciśnienia w niżu wywoła ruch powietrza z terenów o wysokim ciśnieniu. A ponieważ na te masy powietrza działają siły Coriolisa, to zaczną one wirować przeciwnie do kierunku ruchu wskazówek zegara (półkula północna). W efekcie otrzymamy wiatr często dochodzący w swej szybkości do ponad 100 km/h. Trzeba tu jeszcze dodać, że proces oziębiania się powietrza w niżu hamowany jest przez wydzielane ciepło towarzyszące procesowi skraplania pary wodnej.

A teraz kilka ciekawych obliczeń
: w temperaturze 30°C w 1 m3 powietrza może znajdować się nawet 30 g pary wodnej. Z kolei w temp. 0°C – nie więcej niż 5 g. Zatem przy oziębieniu się powietrza od 30°C do 0°C te 25 g pary musi się skroplić. Spowoduje to równoczesne obniżenie ciśnienia o około 33 hPa. Obliczmy, ile wody może się więc znajdować w 1 km3 chmury. Jeżeli w 1 m3 pojawi się 25 g wody, to w 1 km3 jest jej 25 000 ton. Jeżeli spadłaby ona na ziemię w postaci deszczu, to uzyskalibyśmy opad o wartości 25 l/m2. Na szczęście nie cała woda znajdująca się w chmurze opada w postaci deszczu, ale grubość chmur – szczególnie burzowych – znacznie przekracza 1 km. Nic więc dziwnego, że występują opady o jeszcze większych wartościach.
 
Najwyższy czas omówić wpływ nasłonecznienia na lokalny klimat. Jak wiemy, Słońce może dostarczyć do 1368 watów na każdy metr kwadratowy powierzchni zwróconej prostopadle do padających promieni. Należy tu jednak zauważyć, że atmosfera, hydrosfera oraz litosfera Ziemi absorbują około 40% tej energii. Pozostała część jest odbijana od powierzchni Ziemi, oceanów, lodowców i chmur. Dzięki zaabsorbowanej energii utrzymywana jest stała wartość średniej temperatury powierzchni Ziemi i jej atmosfery. Niewielka jej część zamienia się w energię wiatru i prądów morskich, a jeszcze mniejsza jest kumulowana przez roślinność Ziemi. Pozostała energia zostaje wypromieniowana w Kosmos. Zaabsorbowana energia słoneczna wywołuje parowanie wody z gleby i wód powierzchniowych. Ponieważ szybkość parowania cieczy zależy od jej temperatury i ciśnienia pary nad cieczą, to najwięcej pary wodnej tworzy się w okolicy równika, gdzie promieniowanie słoneczne pada na powierzchnię Ziemi niemal prostopadle, wywołując znaczne jej ogrzanie. Z kolei w wyższych szerokościach geograficznych promieniowanie pada pod coraz mniejszym kątem, zatem na 
1 m2 powierzchni przypada coraz mniej energii. W efekcie występują tam niższe temperatury powierzchni Ziemi.

Jak już wspomniałem, energia nie gromadzi się, lecz jest wypromieniowana w przestrzeń okołoziemską. Zjawiskiem tym rządzi prawo Stefana–Boltzmanna. Proces ten jest hamowany przez gazy cieplarniane takie jak para wodna, CO2, węglowodory czy freony. Swoistą tamę dla tego promieniowania stanowią chmury. Chmury wprawdzie odbijają w znacznym procencie promieniowanie dochodzące ze Słońca, co utrudnia ogrzewanie się powierzchni Ziemi, ale równocześnie utrudniają wypromieniowanie energii w przestrzeń okołoziemską z jej powierzchni. Potwierdza to znana prawidłowość polegająca na tym, że w zimie przy bezchmurnym niebie szybko obniża się nocą temperatura powietrza i gruntu. I odwrotnie: przy znacznym zachmurzeniu nie ma większej różnicy między temperaturą w ciągu dnia i nocą. Warto tu zauważyć, że woda kumuluje ogromne ilości energii. Tak więc do ogrzania 1 tony wody (1 m3) o 10°C potrzeba blisko 42 mln dżuli energii (cw 4,187 J/kg∙°C).
Ta właściwość wody sprawia, że klimat morski – w przeciwieństwie do kontynentalnego – charakteryzuje się niewielkimi amplitudami temperatury zarówno dziennymi, jak i rocznymi.

Inne skutki wywołuje pokrywa śnieżna.
Ponieważ śnieg niemal w 100% odbija promieniowanie słoneczne, to znacznie ogranicza on wzrost temperatury powierzchni Ziemi i powietrza także w bezchmurne dni. A jeżeli śnieg utrzyma się nawet w lecie, to następuje dalsze ochładzanie danego terenu, co może prowadzić do powstania lodowców na znacznym obszarze, a nawet epoki lodowcowej.
Więcej przeczytacie w artykule Waldemara Reńdy „Fizyka a klimat, czyli dlaczego pada deszcz“ w najnowszym wydaniu (2/2016) „Fizyki w Szkole“ 


Smog elektromagnetyczny, czyli jak nam szkodzą komórki, routery i inne urzadzenia


Jednym z możliwych zagrożeń, niedostrzeganym przez opinię publiczną, jest aktualnie telefonia komórkowa oraz 
funkcjonowanie wszelkiego typu urządzeń wykorzystujących lub emitujących fale elektromagnetyczne, takich jak: stacje przekaźnikowe, kuchenki mikrofalowe, radary, telewizja, urządzenia do przesyłu danych typu Bluetooth.

Problem jest tym bardziej niepokojący, że dotyczy głównie ludzi młodych, którzy są szczególnie narażeni na efekty tzw.  smogu elektromagnetycznego.
W przyrodzie istnieje szerokie naturalne spektrum promieniowania elektromagnetycznego, pochodzące przede wszystkim  od Słońca. Jednak to promieniowanie jest nie tylko nieszkodliwe dla człowieka i zwierząt, ale wręcz niezbędne do życia. Ponadto jest wiele gatunków zwierząt, które wykorzystują ziemskie pole magnetyczne do nawigacji (ptaki wędrowne, wieloryby, pszczoły). Problemem nie jest też postęp technologiczny jako taki, ale wykorzystywanie zdobyczy nauki w sposób nieprzemyślany, bez rygorystycznych kontroli i testów, a przede wszystkim bez rzetelnego informowania opinii publicznej o możliwych zagrożeniach i długofalowych skutkach. Niepokójm społeczeństwa budzi również szybka rozbudowa infrastruktury służącej do bezprzewodowego przesyłu danych, jak odrębna sieć Wi-Fi i sieć komórkowa. Podejście do problemów współczesnego świata musi jednak być oparte na faktach, a nie emocjach czy też doniesieniach prasowych.

Co to jest promieniowanie elektromagnetyczne?
Z punktu widzenia fizyki falę elektromagnetyczną można zdefiniować jako dwie składowe nakładające się wzajemnie na 
siebie: wektor natężenia pola elektrycznego opisujący składową elektryczną i wektor indukcji magnetycznej opisujący 
składową magnetyczną. Są one wzajemnie prostopadłe i leżą w płaszczyźnie prostopadłej do wektora prędkości rozchodzenia się fali. Mówiąc obrazowo, fala elektromagnetyczna to rozchodzące się w przestrzeni zaburzenie pola 
elektromagnetycznego. Jego prędkość c w próżni wynosi około 300 000 km/s.
Do najważniejszych wielkości fizycznych, służących do opisu fal elektromagnetycznych, należą: częstotliwość ν, której jednostką jest herc [Hz], oraz długość fali λ, której jednostką jest metr [m], przy czym w zależności od długości fali, z jaką mamy do czynienia, możemy określić rodzaj promieniowania (np. rentgenowskie, światło widzialne czy fale radiowe). 
Stała obecność promieniowania elektromagnetycznego wzbudza dziś coraz więcej zainteresowania i obaw dotyczących jego wpływu na nasze zdrowie. W dzisiejszym świecie sztuczne promieniowanie elektromagnetyczne (PEM) jest obecne wszędzie. Środowiska naukowe operują nawet specjalnym określeniem: smog elektromagnetyczny, które służy do opisania 
tej rzeczywistości. Co wobec tego wywołuje sztuczne PEM?
 
Źródła PEM
Zasadniczo źródłem promieniowania elektromagnetycznego jest każdy zmienny ruch cząstek naładowanych. Mogą to być wszelkie rotacyjne i oscylacyjne ruchy dipoli elektrycznych w materii (podczerwień i mikrofale), gwałtowne hamowanie 
szybkich elektronów w próżni (promienie X), zmiana stanów energetycznych na poziomie atomowym (promieniowanie widzialne i ultrafiolet), zmiany energetyczne na poziomie jądrowym (promieniowanie gamma). Sposób i miejsce powstawania promieniowania elektromagnetycznego generuje częstotliwość rozchodzącej się fali.
Istotnym źródłem PEM, z którym ludzie stykają się najczęściej i który zostanie omówiony poniżej, jest telefonia komórkowa. 
 
Według szacunków Międzynarodowej Unii Telekomunikacyjnej (ITU) w 2015 roku było na świecie aktywnych 7,1 mld telefonów komórkowych, a aktualnie (2015) na naszej planecie żyje 7,25 mld ludzi.
Regulacje prawne w Polsce i na świecie oraz dopuszczalne dawki PEM
Prace nad ochroną przed negatywnymi skutkami oddziaływania pola elektromagnetycznego są prowadzone od wielu lat przez większość krajów i dużą liczbę organizacji. Do najbardziej opiniotwórczych zespołów na świecie należą:
International Commission on Non-Ionizing Radiation Protection (ICNIRP);
International Radiation Protection Association (IRPA);
European Committee for Electrotechnical Standardization (CENELEC);
Institute of Electrical and Electronics Engineers (IEEE);
American National Standards Institute (ANSI).
Na podstawie zaleceń i raportów różnych organizacji poszczególne kraje ustalają indywidualnie dopuszczalne wartości pól 
elektromagnetycznych.
Najnowszym dokumentem UE na ten temat jest dyrektywa Parlamentu Europejskiego i Rady 2013/35/UE z 26 czerwca 2013 roku w sprawie minimalnych wymagań w zakresie ochrony zdrowia i bezpieczeństwa dotyczących narażenia pracowników na zagrożenia spowodowane czynnikami fizycznymi, która zobowiązuje państwa członkowskie do jej 
wprowadzenia do 1 lipca 2016 roku. Podano w niej interwencyjne poziomy narażenia (IPN) oraz graniczne poziomy oddziaływania (GPO) dla poszczególnych częstotliwości pól elektromagnetycznych. Co istotne, zobowiązano pracodawców do przeszkolenia pracowników i informowania ich o konsekwencjach narażenia na PEM (...)

Co to jest SAR?
Skrót ten pochodzi od wyrażenia specific absorption rate. Wartość współczynnika SAR informuje, jak dużo energii wypromieniowanej przez dany aparat absorbuje jego użytkownik. Naukowcy mają do dyspozycji trzy metody określania SAR, jednak najczęściej stosowana metoda opiera się na pomiarach natężenia pola elektrycznego za pomocą specjalnie skonstruowanych anten umieszczanych w materiałach o ściśle określonych właściwościach.
Przy ustalaniu norm przyjęto wielkość SAR = 0,4 W/kg jako graniczną wartość ekspozycji zawodowej pracowników, którzy 
są narażeni na wysokie wartości natężenia pola elektromagnetycznego jedynie w czasie pracy, czyli maksymalnie 8 godzin dziennie przez 5 dni w tygodniu.
Ze względu na kontakt populacji ludzkiej z polem elektromagnetycznym przez całą dobę, w tym osób wyjątkowo wrażliwych na negatywne działanie pola, a więc osób chorych, starszych oraz dzieci, dopuszczalna wartość SAR dla ogółu ludności została ustalona na dużo bardziej rygorystycznym poziomie równym 0,08 W/kg w normie europejskiej CENELEC PN-EN-50360 z 2001 roku.

Wpływ promieniowania na organizm – wyniki badań
Wyróżniamy dwa typy oddziaływań PEM na żywy organizm:
oddziaływania termiczne, czyli nagrzewanie się tkanek oraz zmiany patologiczne i reakcje fizjologiczne uwarunkowane podwyższeniem temperatury wewnątrz tkanek oraz temperatury płynów ustrojowych;
oddziaływania nietermiczne (biologiczne), czyli zjawiska zachodzące bez podwyższania temperatury w skali makro i mikro lub niezależnie od jej podwyższenia.
Stopień wzrostu temperatury zależy od natężenia pola i częstotliwości, a także od skuteczności termoregulacji (cecha osobnicza) i tego, która część ciała podlega ekspozycji. Znaczny wzrost temperatury powyżej tolerancji cieplnej tkanek powoduje nieodwracalną koagulację białka. Najbardziej podatne na przegrzanie są tkanki o słabej cyrkulacji krwi: soczewka oka, woreczek żółciowy, jądra, części układu pokarmowego.
Eksperymenty przeprowadzone na zwierzętach dowiodły, że wzrost temperatury prowadzi do całkowitego zniszczenia tych tkanek i w efekcie do śmierci zwierzęcia. U ludzi opisano już przypadki ciężkich oparzeń ręki wywołanych nieszczelną kuchenką mikrofalową czy dotknięciem ręką elementów metalowych znajdujących się pod napięciem wielkiej częstotliwości (antena krótkofalowa, hak dźwigu stojącego w pobliżu radiostacji średniofalowej bardzo dużej mocy). U operatorów radarów zanotowano przypadki zaćmy i bezpłodności. Zmętnienie soczewki pojawia się tylko przy promieniowaniu mikrofalowym, przy czym należy mocno zaznaczyć, że zagrożenie zaćmą (jak i poprzednio wymienione efekty) występuje przy bardzo dużych natężeniach pól.
Badania nad szkodliwością używania telefonów komórkowych prowadzone są od lat. Z przeprowadzonych badań epidemiologicznych wynika, że ludzie pracujący przy źródłach silnych pól elektromagnetycznych są zasadniczo mniej zdrowi od innych i zapadają na wiele różnych chorób. Do najczęstszych zaburzeń zdrowotnych należą:
bóle głowy;
uczucie gorąca z tyłu ucha;
podrażnienie oczu;
zmętnienie soczewki oka – zaćma;
zaburzenia snu, niepokój;
problemy z nauką wynikające z zaburzenia koncentracji i osłabienia pamięci.
Ponadto nawet do 10 minut po rozmowie telefonicznej przez komórkę istnieje większe niebezpieczeństwo spowodowania wypadku drogowego (samochody, motocykle). Korzystanie z telefonów komórkowych zwiększa ryzyko zachorowania na raka mózgu i oczu.

Z badań przeprowadzonych w Szwecji i Norwegii wynika, że około 20% osób (na 12 tys. przebadanych) skarżyło się na bóle głowy, trudności z zasypianiem i problemy z koncentracją. Dotyczyło to tych, którzy korzystali z telefonu ponad godzinę dziennie. Im krótszy był czas ekspozycji na działanie PEM z komórek, tym objawy te występowały rzadziej.
Trzeba też mieć na uwadze, że w stanie czuwania komórka wytwarza okresowe pulsujące pola magnetyczne o niskiej częstotliwości, które są biologicznie niebezpieczne, ponieważ osłabiają system immunologiczny. Wyłączona komórka nadal 
jest źródłem PEM, ponieważ utrzymuje ona cały czas kontakt ze stacją przekaźnikową. Aby wyeliminować zagrożenie, należałoby wyjąć z komórki baterię. Zależy to jednak od rodzaju telefonu, w niektórych typach wystarczy zwykłe wyłączenie. Jak słusznie zauważa wielu naukowców, telefon komórkowy to jedyne źródło PEM, które trzymamy bezpośrednio przy głowie. Ma to poważne skutki neurologiczne.
Komentując wyniki swoich testów laboratoryjnych, szwedzki neurochirurg prof. Leif G. Salford z Uniwersytetu w Lund już w 
2003 roku stwierdził: „Nasze badania wskazują, że promieniowanie z komórek otwiera barierę »krew – płyn mózgowo-rdzeniowy« (w skrócie »krew – mózg«), ułatwiając truciznom dostanie się do mózgu. (…) Ta praca przedstawia po raz 
pierwszy dowody, że nietermiczna ekspozycja na mikrofale powoduje uszkodzenia neuronów”.
Szczególnie dobrze widoczne były uszkodzenia tkanki mózgowej u szczurów podczas sekcji po uprzednim poddaniu ich działaniu PEM pochodzącym z telefonu komórkowego.
Okazało się, że mózgi szczurów były uszkodzone, odbarwione i sączyła się z nich ciecz. Otwarcie wspomnianej przez prof. 
Salforda bariery krew – mózg skutkuje tym, że wszelkiego typu toksyny, leki itp. mają ułatwiony dostęp do centralnego układu nerwowego.
Należy dodać, że kolejne podobne badania zostały przeprowadzone w 2008 roku i dały te same rezultaty.
Finansowany przez Unię Europejską międzynarodowy projekt badawczy 120 ośrodków naukowych z sześciu krajów (Finlandii, Austrii, Niemiec, Hiszpanii, Francji oraz Włoch) wykazał, że intensywne używanie komórek uszkadza materiał genetyczny.
Wiedeńska Izba Lekarska wydała zalecenie, aby dzieci poniżej 16 lat w ogóle nie używały telefonów komórkowych.
W Salzburgu (Austria) w lipcu 2010 roku przeprowadzono badania, których wyniki zostały potwierdzone przez inne ośrodki 
naukowe i ukazały się w najbardziej renomowanych czasopismach o zasięgu ogólnoświatowym, jak „Biomedical and 
Environmental Sciences” czy „Bioelectromagnetic Society”. Opublikowano je w Europie (Niemcy), USA, Chinach i Indiach.

Efektem pracy austriackich naukowców z przedszkolakami było stwierdzenie, że promieniowanie pochodzące od nadajników telefonii komórkowej i internetu bezprzewodowego powoduje:
stres;
osłabienie układu odpornościowego człowieka;
pogłębienie depresji .
Francuski profesor Santini opublikował w 2002 roku wyniki badań jednoznacznie wskazujących na istnienie zależności między różnymi dolegliwościami psychosomatycznymi a odległością od stacji telefonii komórkowych. W odległości do 100 m ankietowani odczuwali przygnębienie, drażliwość, zawroty głowy; do 200 m – skarżyli się na złe samopoczucie, 
zaburzenia snu i bóle głowy.
Nie tak dawno, bo 12 lipca 2010 roku, właśnie we Francji weszła w życie nowa ustawa dotycząca ochrony środowiska – Grenelle 2. Zabrania ona używania telefonów komórkowych na wszystkich etapach kształcenia, tzn. od przedszkola wzwyż, nie tylko przez dzieci, ale również przez wszystkich pracowników szkoły.
Ustawa ta poszerza wydany w roku 2009 zakaz instalacji nadajników (WLAN, Wi-Fi, DECT, GSM, WiMax i najnowszego LTE, komunikujących się za pośrednictwem fal elektromagnetycznych w zakresie częstotliwości mikrofal) na żłobkach, przedszkolach, szkołach oraz zakaz instalacji WLAN (Wireless Local Area Network – bezprzewodowa sieć lokalna) w bibliotekach Uniwersytetu Paryskiego i innych (...)
 
Więcej przeczytacie w artykule Łukasza A. Głowczyńskiego, Przemysława T. Saneckiego i Rafała Rawskiego „Telefonia komórkowa i jej wpływ na życie człowieka“ w najnowszym (1/2016) wydaniu „Fizyki w Szkole“.
 
 

Terapia hadronowa, czyli fizyka w leczeniu nowotworów 


Większość czytelników „Fizyki w Szkole” zapytanych o zastosowanie fizyki w medycynie zapewne w pierwszej kolejności wymieniłaby radioterapię jako metodę leczenia nowotworów z wykorzystaniem promieniowania jonizującego.
 
Fakt ten nie dziwi, gdyż zarówno brachyterapia (leczenie za pomocą źródeł promieniowania umieszczanych w obrębie guza lub w bezpośrednim jego sąsiedztwie), jak i teleterapia (napromienianie z użyciem zewnętrznych wiązek promieniowania) od lat stanowią jeden z głównych obszarów działania fizyków medycznych.
Warto zatem przybliżyć czytelnikom teleradioterapię będącą najpopularniejszą dziś metodą radioterapii, w której pacjentów napromienia się wiązkami promieni X bądź γ, elektronami, a coraz częściej hadronami, np. protonami czy jonami węgla. Jej celem jest dostarczenie możliwie wysokiej dawki promieniowania w obręb guza przy maksymalnej ochronie sąsiadujących zdrowych tkanek. Ważne wydaje się zatem precyzyjne zdefiniowanie obszaru guza GTV (ang. Gross Tumour Volume), określenie klinicznego obszaru napromieniania CTV (ang. Clinical Target Volume) uwzględniającego mikrorozsiew oraz ustalenie obszaru zaplanowanego do napromieniania PTV (ang. Planning Target Volume). Ten ostatni zawiera marginesy związane z ruchomością organów i niepewnością ułożenia pacjenta. Planowanie leczenia pod kątem doboru i odpowiedniego rozmieszczenia wiązek terapeutycznych, obliczeń rozkładu dawki i czasu napromieniania to podstawowe zadania fizyków medycznych pracujących w centrach onkologii (...)
 
Radioterapia hadronowa
W krajach takich jak Niemcy czy Japonia wiązki protonów i jonów węgla są od wielu lat z powodzeniem stosowane w teleradioterapii. Właściwości fizyczne i radiobiologiczne ciężkich cząstek naładowanych sprawiają, że idealnie nadają się one do precyzyjnego leczenia głęboko położonych nowotworów, zlokalizowanych w pobliżu struktur krytycznych. Spróbujmy zatem przyjrzeć się, jak w praktyce wygląda napromienianie wiązkami hadronów. Najpopularniejszym sposobem uzyskiwania jonów są kompaktowe źródła typu ECR, w których wykorzystuje się elektronowy rezonans cyklotronowy. Do komory wyładowań umieszczonej w specjalnie ukształtowanym polu magnetycznym, stanowiącym pułapkę, wprowadzany jest strumień mikrofal. Wirujące z częstotliwością rezonansową swobodne elektrony, które poruszają się po spiralach wzdłuż linii sił pola magnetycznego, zderzają się z atomami gazu wprowadzanego do komory, powodując ich jonizację (rodzaj gazu determinuje, jakie jony powstają). Nagrzana plazma nie pozwala na rekombinację jonów, które są wyprowadzane ze źródła i formowane w wiązkę przez układ soczewek elektrostatycznych. Przyspieszanie cząstek odbywa się z zastosowaniem cyklotronu bądź synchrotronu. Zakres energii jonów węgla stosowanych w teleterapii zawiera się w przedziale 80–430 MeV/u (co odpowiada zasięgowi w tkance między 2 a 33 cm), z kolei dla protonów 70–230 MeV/u, gdzie najwyższa energia odpowiada penetracji ciała pacjenta na głębokość około 32 cm. Cyklotrony generują ciągły strumień cząstek o ustalonej energii. Dążenie do jej zmiany wymusza stosowanie pasywnych degraderów, które pogarszają jakość wiązki. Synchrotrony pracują natomiast impulsowo i umożliwiają modyfikację energii wiązki podczas napromieniania bez użycia elementów pasywnych, co jest ich dużą zaletą. Obecnie rozwijana jest również koncepcja cyklinaków, które są połączeniem cyklotronu z akceleratorem liniowym. Wprowadzenie tych urządzeń umożliwi bardzo szybkie korygowanie energii wiązki, a w konsekwencji zasięgu cząstek, co jest niezbędne podczas napromieniania nowotworów zlokalizowanych w ruchomych organach, takich jak płuca czy wątroba.
Wiązka wyprowadzana z akceleratora doprowadzana jest jonowodami do stanowisk terapeutycznych. Jej ogniskowanie odbywa się za pomocą magnesów kwadrupolowych, a nakierowywanie przy użyciu magnesów dipolowych. Napromienianie pacjenta ma miejsce na stanowiskach do terapii horyzontalnej albo z użyciem obracającej się wokół chorego gantry pozwalającej dostarczać wiązkę z różnych stron. Jako ciekawostkę warto dodać, że pierwsza na świecie gantra do terapii jonami węgla została zbudowana w Heidelbergu. Mimo ogromnych wymiarów (25 m długości i 13 m średnicy) oraz masy (670 ton) zapewnia precyzyjne napromienianie rzędu pół milimetra sześciennego. Zasadniczo w terapii hadronowej można wyróżnić dwa odmienne systemy dostarczania wiązki do pacjenta: starszy system pasywny oraz nowoczesną technikę aktywnego skanowania. Warto przyjrzeć się im bliżej.
 
Pasywny system dostarczania wiązki
System pasywny wykorzystuje wiele elementów, których rolą jest takie dostosowanie wiązki, aby możliwe było napromienianie nowotworów o różnej wielkości i różnym kształcie (rys. 3). Pik Bragga dla monoenergetycznej wiązki jonów jest ostry i wąski. Aby napromienić cały guz, wiązka zostaje poszerzona w płaszczyźnie prostopadłej do kierunku jej rozchodzenia się przez podwójny system rozpraszający, złożony między innymi z folii rozproszeniowych. Następnie jest ona rozciągana w kierunku wzdłużnym, aby pokryć całkowitą długość nowotworu. Superpozycję pików Bragga, tworzącą obszar SOBP (ang. Spread – Out Bragg Peak), uzyskuje się dzięki filtrom grzebieniowym bądź modulatorom zasięgu w postaci serii absorberów o różnej grubości, ustawionych na kole modulatora rotującym z częstotliwością około
10 Hz. Dodatkowo, aby dostosować wiązkę do kształtu konkretnego nowotworu, stosuje się przygotowywane indywidualnie dla każdego z pacjentów elementy: kolimatory i kompensator. Ten ostatni dostosowuje pole do dystalnego konturu objętości tarczowej. Niestety system pasywny nie pozwala dopasować dawki do bliższego końca nowotworu, ma też wiele innych wad, np. interakcje jonów z elementami modyfikującymi wiązkę mogą skutkować jej zanieczyszczeniem neutronami. Tych negatywnych cech nie ma system skanowania aktywnego, który coraz częściej jest instalowany w nowo powstających centrach terapii hadronowej.

Aktywne skanowanie
W przeciwieństwie do systemu pasywnego, w którym za pomocą odpowiednio poszerzonej wiązki protonów bądź jonów napromienia się od razu cały obszar zaplanowany, technika skanowania aktywnego wykorzystuje wąskie wiązki (nazywane „ołówkowymi”) do napromieniania kolejnych małych elementów przestrzennych, wyróżnionych w obrębie celu. Objętość tarczową dzieli się bowiem na wiele przekrojów poprzecznych, z których każdy stanowi siatkę złożoną z wokseli. Zaplanowana dawka dostarczana jest kolejno do każdego z elementów tworzących pojedynczą warstwę przez wiązkę o ustalonej energii, poruszającą się najczęściej w sposób ciągły. Odchylanie strumienia jonów odbywa się przy użyciu zmiennego pola magnetycznego, wytwarzanego przez zestaw elektromagnesów, co pokazano na rys. 4. Napromienianie zaczyna się od warstwy położonej najgłębiej, a gdy wszystkie punkty w jej obrębie są już całkowicie zeskanowane, energia wiązki jest zmniejszana, aby przejść do warstwy płytszej. Warto w tym miejscu przypomnieć, że ulokowanie wąskiego piku Bragga na właściwej głębokości następuje właśnie poprzez odpowiedni dobór energii kinetycznej przyspieszanych cząstek. W zależności od typu akceleratora może odbywać się to bezpośrednio (synchrotrony) lub za pomocą zestawu absorberów (cyklotrony).
Zastosowanie techniki aktywnego skanowania ma wiele zalet. Nie tylko eliminuje konieczność użycia pasywnych elementów modyfikujących kształt wiązki, ale przede wszystkim pozwala uzyskać lepszą zgodność objętości napromienionej z objętością docelową, nawet w przypadku złożonego kształtu nowotworu. Oczywiście planowanie leczenia tą techniką jest skomplikowane, ponieważ należy chociażby uwzględnić dawki przekazywane płytszym warstwom nowotworu przez cząstki zmierzające do warstw głębiej położonych. Ogromnym problemem radioterapii pozostaje wciąż napromienianie ruchomych celów, podczas którego konieczne jest stosowanie technik kompensacji ruchu narządów. Z uwagi na ich niedoskonałość w kluczowych ośrodkach naukowych w Niemczech i Japonii trwają prace nad poprawą skuteczności terapii hadronowej ruchomych celów. Jest to wielkie wyzwanie dla naukowców zajmujących się problematyką fizyki medycznej.
 
Więcej przeczytacie w artykule Tomasza Kubiaka „Od konwencjonalnej radioterapii fotonowej do terapii hadronowej, czyli fizyka w leczeniu nowotworów“ w najnowszym wydaniu (6/2015) „Fizyki w Szkole“

 

Badania atmosfery za kołem polarnym

 
Wiosną 2015 roku w miejscowości Ny-Ålesund na Spitsbergenie odbył się międzynarodowy eksperyment badawczy iAREA 2015 (ang. Impact of absorbing aerosols on radiative forcing in the European Arctic). Celem badań było wyznaczenie wpływu zanieczyszczeń, które silnie absorbują promieniowanie słoneczne, na system klimatyczny obszarów polarnych.
 
Zanieczyszczenia te występują w postaci bardzo drobnych cząstek sadzy emitowanych do atmosfery podczas procesów spalania. Pochodzą one ze źródeł antropogenicznych (gospodarstwa domowe, elektrociepłownie, transport lądowy i lotniczy) oraz naturalnych (np. pożary lasów). Są one zlokalizowane z dala od rejonów polarnych, ale wskutek transportu mas powietrza docierają do wysokich szerokości geograficznych. Pochłanianie promieniowania słonecznego przez cząstki sadzy prowadzi do lokalnego ogrzewania atmosfery, co zmienia bilans energetyczny, ale również może powodować zmiany w cyklu hydrologicznym.
Obecność cząstek silnie absorbujących nad obszarami pokrytymi śniegiem lub lodem ma szczególne znaczenie, bo w tym wypadku istnieje większe prawdopodobieństwo absorpcji fotonów. Ze względu na wysoki współczynnik odbicia światła od śniegu fotony mogą być absorbowane albo podczas propagacji w dół atmosfery, albo po odbiciu od powierzchni ziemi. Dodatkowo cząstki sadzy, opadając na powierzchnię śniegu lub lodu, zmniejszają jego albedo, co skutkuje ponownie większą absorpcją promieniowania i wzrostem temperatury. Obecnie uważa się, że cząstki sadzy przyczyniają się, podobnie jak gazy cieplarniane, do silnego wzrostu temperatury w obszarach polarnych. Szacowanie tego efektu jest dość trudne ze względu na niewielką liczbę prowadzonych pomiarów. Badania w obszarach polarnych są niełatwe i kosztowne, ale niezbędne do zrozumienia, jak działa arktyczny system klimatyczny.
 
Stacja badawcza
Na miejsce badań wybrano bardzo małą miejscowość Ny-Ålesund, położoną na 78°55’N 11°56’E około 1200 km od bieguna północnego. Jest to najdalej na świecie wysunięta na północ funkcjonująca jednostka osadnicza. W Ny-Ålesund znajdują się stacje naukowo-badawcze wchodzące w skład systemu Światowej Obserwacji Atmosfery (ang. Global Atmosphere Watch). Swoje placówki badawcze mają tu m.in. Norwegia, Niemcy, Francja, Włochy, Chiny, Korea Południowa, Wielka Brytania i Japonia. W zimie przebywa tu kilkanaście osób, a w lecie ponad sto.
Historia Ny-Ålesund sięga początku XX wieku, kiedy wydobywano węgiel. Dopiero od 1968 roku jest bazą Norweskiego Instytutu Polarnego, a w latach 80. i 90. rozwijały tutaj swoją działalność badawczą również inne kraje i Ny-Ålesund stopniowo przekształciło się w międzynarodową stację badawczą. Po zaprzestaniu wydobywania węgla w latach 60. stało się idealnym poligonem badawczym dla naukowców zajmujących się środowiskiem naturalnym.
Ny-Ålesund jest jednym z nielicznym miejsc na Spitsbergenie, gdzie całorocznie odbywa się regularny transport lotniczy, w okresie od późnej wiosny do wczesnej jesieni regularnie zaś kursują statki. I właśnie dlatego zdecydowano się prowadzić badania w ramach projektu iAREA 2015 w Ny-Ålesund. Regularny transport umożliwia bowiem prostszą logistykę i wymianę kadry naukowej podczas eksperymentu.
Stacja badawcza Polskiej Akademii Nauk w Hornsundzie jest na przykład odcięta od świata w okresie od jesieni do późnej wiosny. Z Polski w pomiarach uczestniczyło pięć osób z Instytutu Geofizyki Wydziału Fizyki Uniwersytetu Warszawskiego oraz Instytutu Oceanologii Polskiej Akademii Nauk z Sopotu. Pomiary prowadzone były w stacji niemieckiej (Koldewey Station) i włoskiej (Gruvebadet Station). Stacja niemiecka należy od Instytutu Badań Polarnych i Oceanicznych Alfreda Wegenera (AWI). Prowadzi się w niej głównie badania z zakresu fizyki atmosfery, natomiast w stacji włoskiej wykonuje się badania składu chemicznego powietrza.
 
Aparatura badawcza
Podczas badań prowadzone były trzy różne typy pomiarów: teledetekcyjne z powierzchni ziemi, in situ na powierzchni ziemi oraz profile pionowe z wykorzystaniem balonów meteorologicznych. Pomiary teledetekcyjne obejmowały pomiary aktywne z wykorzystaniem promieniowania słonecznego oraz przy użyciu sztucznych źródeł promieniowania. Przykładem pomiarów biernych jest pomiar promieniowania słonecznego przy użyciu fotometru słonecznego. Mierząc spektralne charakterystyki promieniowania słonecznego docierającego do powierzchni ziemi, można oszacować stopień transmisji atmosfery i powiązać go z ilością zanieczyszczeń. Na ich podstawie wyznaczana jest tzw. grubość optyczna aerozolu, która jest podstawową wielkością przy szacowaniu wpływu aerozolu na bilans energetyczny systemu klimatycznego (...)

Opracowanie wyników badań potrwa ponad rok, ale już dziś można powiedzieć, że w rejonie Arktyki powietrze jest czystsze, niż oczekiwano. Prawdopodobną przyczyną tego stanu rzeczy są redukcje emisji zanieczyszczeń, jakie od wielu lat obserwuje się w Europie czy Ameryce Północnej. Dodatkowo w Arktyce widać bardzo szybkie ogrzewanie się klimatu, co wiąże się ze zmianą w cyrkulacji atmosferyczno-oceanicznej i zmianą w cyklu hydrologicznym. Wyższa temperatura powietrza przekłada się na wyższą zawartość pary wodnej i możliwe większe opady, które efektywnie mogą usuwać aerozole z atmosfery.
Dużą niewiadomą ciągle pozostaje rola aerozoli silnie absorbujących i różnic między obserwacjami a wynikami symulacji numerycznych. Wstępne wyniki pokazują, że modele numeryczne przeszacowują stopień zanieczyszczenia atmosfery arktycznej cząstkami sadzy. Dotyczy to zwłaszcza wyższych warstw troposfery. Weryfikacja modelu w górnych warstwach troposfery była praktycznie niemożliwa, ponieważ podczas prowadzonych badań pomiary balonem na uwięzi były prowadzone do wysokości 1,9 km. Pomiary lidarowe, które sięgały wyższych warstw atmo-
sfery, są mało efektywne w przypadku silnie absorbujących i małych cząstek sadzy. Z kolei samoloty badawcze prowadziły badania do wysokości około 3 km.
 
Więcej przeczytacie w artykule Krzysztofa Markowicza „Badania atmosfery za kołem polarnym“ w najnowszym wydaniu (5/2015) „Fizyki w Szkole“.

 

Gwiazdozbiory Arabów

Wszyscy (lub prawie wszyscy) kojarzą z Arabami nasz system zapisu cyfr. W rzeczywistości przejęli go oni od Hindusów po ich podbiciu w VII w.n.e., ale już to, że dzięki nim dotarł na nasz kontynent, jest na pewno ich wielką zasługą. Pomyślcie tylko, jak wyglądałaby nauka tabliczki mnożenia, gdyby liczby nadal zapisywano w systemie rzymskim (…)
Jednak już tylko nieliczni wiedzą, że arabskie pochodzenie ma aż ⅔ nazw gwiazd na naszym niebie, arabska wiedza astronomiczna była zaś w przeszłości równie bogata jak wiedza grecka czy babilońska, bo w dużej mierze właśnie na ich osiągnięciach była oparta. 

Podobnie jak na całym świecie była wykorzystywana do przewidywania pór roku, planowania prac rolnych i hodowli zwierząt (określania początku pory deszczowej, a więc ustalania, kiedy pojawia się roślinność na pastwiskach) oraz do odnajdywania drogi na piaszczystej, pozbawionej punktów orientacyjnych pustyni, po której wędrówka bardzo przypomina żeglugę po oceanie. 
Po nastaniu islamu trzeba było umieć przewidywać nów Księżyca (od pierwszego zauważenia jego „młodego” sierpa liczono nowe miesiące), początek i koniec ramadanu, określać daty świąt, a wreszcie – przynajmniej w przybliżeniu – kierunek, w którym znajduje się Mekka. To wszystko wymaga umiejętności, więc w czasach, gdy w Europie niemiłościwie panujący Kościół blokował wszelki postęp (…) – Arabowie rozwijali matematykę, astronomię i inne nauki, w efekcie to dzięki nim zachowała się, przynajmniej w części, wiedza starożytnych i to m.in. z ich prac korzystali później uczeni renesansu. Choćby z arabskiego tłumaczenia Almagestu Ptolemeusza. Z ich języka pochodzą słowa: azymut, zenit, nadir czy almukantarat (czyli równoleżnik na sferze niebieskiej). 
Ale dziedzictwo arabskie jest obecne w naszej kulturze w dużo większym zakresie, bo to również kawa, współczesne wersje szachów i mydła, łuk ostry w architekturze, pióro wieczne, wał korbowy, czeki, precyzyjne narzędzia chirurgiczne… I nie możemy zapomnieć o procesie destylacji wykorzystywanym m.in. do wytwarzania napoju, bez którego wielu Polaków życia sobie nie wyobraża.
Astronomia arabska, podobnie jak europejska, miała różne okresy rozwoju. Na przykład w czasie przedislamskim, w którym Babilończycy i Grecy rozwijali skomplikowane modele matematyczne do opisu ruchów ciał niebieskich, Arabowie opierali się przede wszystkim na obserwacjach. Potem, z powodów wymienionych wyżej, matematyka także stała się ważna. Z kolei VIII w. n.e. i początek IX to intensywne tłumaczenie na język arabski literatury hellenistycznej, indyjskiej i tablic astronomicznych Sasanidów. Kiedy tłumaczono pierwsze teksty z języka indyjskiego (po 770 r. n.e.), postarano się nawet o nadzór tamtejszego astronoma (np. zamiast cięciw łuku stosowanych do opisu kątów przez Greków przejęto od Hindusów funkcję sinus). 
Kolejne dwa stulecia to wręcz burzliwy rozwój nauki. Na pewno uczonym pomagało to, że (powiedzcie to naszym decydentom!) ówcześni kalifowie nie tylko sponsorowali ich działalność, lecz także dbali, by cieszyła się odpowiednim prestiżem. To właśnie wtedy oprócz eksperymentów i obserwacji Arabowie docenili w astronomii również matematykę. Powszechnie zaakceptowali model Ptolemeusza, ale nie przeszkadzało im to w krytycznych dyskusjach na jego temat i w poszukiwaniu ulepszeń. Pierwszą taką dużą pracę napisał niejaki Zij al-Sindh w roku 830, publikując tablice ruchów Słońca, Księżyca i znanych wtedy pięciu planet. Zapoczątkowała ona nowe podejście do nauki: nie tylko tłumaczymy dzieła innych i przyjmujemy rzeczy już odkryte, lecz także sami próbujemy stworzyć coś nowego.
Kapitalnym przykładem osiągnięć tamtego okresu jest zbudowanie urządzenia zwanego Tusi-couple. Składało się ono z pary kół, z których jedno poruszało się wewnątrz drugiego, dwukrotnie większego, a stanowiło mechaniczną ilustrację twierdzenia geometrycznego, zwanego dziś twierdzeniem Kopernika (jeśli mały okrąg toczy się bez poślizgu wewnątrz dwukrotnie większego, to jego dowolny, lecz ustalony punkt porusza się dokładnie wzdłuż którejś ze średnic tego większego; innymi słowy – ruch obrotowy zamienia się w oscylacje). Z kolei w 850 r. al-Farghani napisał Kompendium nauki o gwiazdach, które podsumowywało kosmografię Ptolemeusza, ale i uzupełniało ją o odkrycia wcześniejszych arabskich badaczy, np. poprawił wartości nachylenia ekliptyki, ruchu precesyjnego apogeów orbit Księżyca i Słońca (przecież wierzono wtedy, że to Ziemia jest w środku Wszechświata) oraz obwodu Ziemi. Dzieło zyskało znaczny rozgłos w świecie islamu, a nawet zostało przetłumaczone na łacinę. 
 
Okres od roku 1025 do 1450 nazywany jest wiekiem złotym. Charakteryzował się dalszą krytyczną dyskusją nad modelem Ptolemeusza (choć nie kwestionowano samych jego założeń), teraz jednak połączoną z próbami sformułowania modeli własnych: alternatywnych i dokładniejszych. Na przykład wskazano ekwant Ptolemeusza jako przyczynę problemów, a nawet proponowano rozwiązanie. Anonimowa praca Podsumowanie odnośnie do Ptolemeusza wyszczególnia całą listę zarzutów. 
Arabscy uczeni wnieśli też istotny wkład w rozwój astronomii sferycznej. Jeśli chodzi o uczonych spoza astronomii, to warto wspomnieć o słynnym (właściwie do dziś!) medyku Awicennie i jego książce Kanon nauki medycznej. Księga leczenia. To właśnie on upowszechnił stosowanie pijawek przystawianych nawet do podstawy bolących zębów i… polecał dokładnie, ale ostrożnie je myć. Zęby, nie pijawki.
Niestety, po roku 1450 rozpoczął się – i trwał aż do końca XIX w. – okres stagnacji, podczas którego wprawdzie astronomię nadal z zapałem praktykowano, ale dramatycznie zmniejszała się innowacyjność i odkrywczość prac. Pewnie nie bez wpływu był tu upadek Konstantynopola i późniejsze, niekoniecznie pozytywne oddziaływania europejskie.
W prowadzeniu badań pomagały wielkie obserwatoria astronomiczne budowane już od X w. n.e., których pozostałości jeszcze w dzisiejszych czasach budzą uzasadniony podziw, oraz cała gama takich przyrządów jak sekstanty, kwadranty i astrolabia. Precyzja ich wykonania była doprawdy zdumiewająca, no i musiały zostać przystosowane do potrzeb islamu, a więc wyznaczania okresu ramadanu, godzin modlitw i kierunku Mekki. Niejaki al-Zargali zbudował w Andaluzji nawet astrolabium, które mogło działać wszędzie, niezależnie od położenia geograficznego obserwatora (znane później w Europie jako saphea). 
Równie niezwykły był przyrząd zwany qibla – swoisty kompas służący wiernym, gdziekolwiek by się nie znajdowali, właśnie do odnajdywania kierunku Mekki. Mamy jeszcze ekwatorium – urządzenie do mechanicznego, bez obliczeń, przewidywania pozycji Słońca, Księżyca i planet – oraz wiele udoskonaleń w budowie zegarów słonecznych, ważnych dla wyznaczania godzin modlitw i często umieszczanych w tym celu na świątyniach.
Po świecie krąży do dziś około 10 tys. egzamplarzy dawnych prac arabskich uczonych, w części są to jeszcze (niezwykle cenne, choćby same w sobie) rękopisy. Niestety, w większości nie są skatalogowane i w każdej chwili mogą bezpowrotnie i z nieocenioną stratą dla badaczy zaginąć. 
Jeśli zaś chodzi o gwiazdozbiory, to część, i owszem, została zapożyczona z Babilonu, jednak wiele wymyślili również sami Arabowie. Wyróżnia się tu zwłaszcza arabski Lew, a właściwie Super-Lew, przy którym grecki to zwykły kiciuś. Obejmował, oczywiście, naszego Lwa, ale też Bliźnięta, Pannę i Małego Psa. Możliwe, że i ten gwiazdozbiór przywędrował z Babilonu, ale jeszcze wtedy, gdy wyróżniano tam dopiero pierwsze wielkie konstelacje zodiakalne, co w jakimś stopniu świadczy o ich pierwotnych rozmiarach (pisałem o tym przy omawianiu gwiazdozbiorów mezopotamskich). 
O podobnych, stosunkowo wczesnych zapożyczeniach może świadczyć fakt, że np. Rak był znany w świecie arabskim jako Krab. Choć Arabowie zaadaptowali konstelacje zodiakalne, nie akceptowali (a przynajmniej nie wszyscy) ich znaczenia jako wyznaczników przyszłości ludzi i narodów. 
Astronomia, i owszem, cieszyła się (do dziś się to nie zmieniło) szacunkiem jako nauka o ciałach niebieskich, astrologia natomiast była uważana za dziedzinę sprzeczną z naukami proroka, bo wiedzę o losach świata ma, zgodnie z nimi, posiadać tylko sam Allach. Taka była wersja oficjalna, bo w życiu prywatnym każdy mógł bez problemów kupić sobie na większym targowisku horoskop, a rady astrologów zasięgano przy zakładaniu nowych miast (nawet stołecznego Bagdadu) czy planowaniu wypraw wojennych. Niektórzy kalifowie zabraniali podobnych praktyk pod groźbą surowych represji, ale wkrótce ich następcy rezygnowali ze stosowania zakazów.
Wędrujący, często w nocy, przez pustynię Negew i szukający drogi Beduini nie mogli nie zauważyć stałości położenia Gwiazdy Polarnej, a także okrążającego ją i również nigdy nie zachodzącego Wielkiego Wozu. Jednak na tamtych szerokościach geograficznych w najniższym dobowym położeniu dosłownie ślizga się on po północnym horyzoncie, więc dostrzeżenie trzech par niezbyt jasnych gwiazd tworzących łapy Wielkiej Niedźwiedzicy jest trudniejsze, dlatego też Arabowie nie widzieli tam niedźwiedzi, lecz wielkie Mary pogrzebowe (skrzynia Wozu). Na tych marach wieziony jest mężczyzna… zamordowany przez Gwiazdę Polarną. Jego córki, idące przed marami (dyszel Wozu), zostały zmuszone do niekończącego się okrążania bieguna, żeby nie mogły się zemścić na Gwieździe. A najśmieszniejsze jest to, że podejrzana o zbrodnię była trzecia co do jasności gwiazda nieba – Canopus (α Kila). Gwiazda musiała więc uciekać. To właśnie dlatego znajduje się dziś tak daleko na południowym niebie i od jej wschodu do zachodu widoczna jest dla Beduinów najwyżej przez dwie godziny (…)
 
 
Więcej przeczytacie w artykule Janusza Rokity „Jak powstawały współczesne konstelacje – cz.2” w najnowszym wydaniu (4/2015) „Fizyki w Szkole”.
 

 

Filozofia kwantowa

Nauka mechaniki kwantowej w szkole jest z pewnością ogromnym wyzwaniem zarówno dla uczniów, jak i dla nauczycieli. Nie dość, że jest to teoria skomplikowana pod względem matematycznym i koncepcyjnym, to jeszcze nawet wśród samych fizyków nie ma konsensu co do interpretacji pojęć w niej występujących.
 
Zadając takie pytania, jak: „Czym jest funkcja falowa?”, „Czym jest pomiar?”, możemy otrzymać diametralnie różne odpowiedzi, nawet jeśli ograniczymy się do grona fizyków uznawanych powszechnie za autorytety naukowe i odrzucimy najbardziej egzotyczne poglądy z marginesu środowiska naukowego.
Te trudności w zrozumieniu i nauczaniu mechaniki kwantowej są jednak niepowtarzalną okazją do tego, by pokazać naukę nie jako zamkniętą całość i pewien zestaw wskazówek określających sposób wykonywania rachunków, które mogą być przydatne w inżynierii i technice, ale jako fascynujący obszar działalności umysłowej człowieka, dzięki któremu, mówiąc nieco górnolotnie, mamy szansę „otrzeć się o tajemnicę Wszechświata”.
Dla części uczniów o nastawieniu „atechnicznym” (ale jednak w pewnym stopniu ciekawych świata), których nie porywają osiągnięcia inżynierii i techniki oparte na przełomowych odkryciach fizyki oraz którzy na pytanie o to, jak działa lodówka albo radio, odpowiadają: „Po co mi to?”, może to być jedyny sposób na poznanie piękna i głębi fizyki. Właśnie dlatego mechanika kwantowa jest naprawdę wyjątkowa, gdyż w odróżnieniu od wszystkich pozostałych działów fizyki, o których mówi się w szkole (wliczając w to nawet teorię względności), nie sposób nie natknąć się podczas dyskusji o mechanice na problemy filozoficzne, dotyczące fundamentów samej metody naukowej.
Zacznijmy więc od wizji świata, która wyłania się w sposób naturalny z języka fizyki klasycznej. Świat składa się z obiektów takich jak planety, atomy, punkty materialne, ciała sztywne i fale elektromagnetyczne, które mają pewne cechy fizyczne, tj. masę, kształt, ładunek elektryczny, położenie i prędkość. Obiekty te mogą następnie oddziaływać ze sobą i w wyniku tych oddziaływań ewoluują w sposób deterministyczny. Zadaniem fizyki jest ustalenie istotnych cech fizycznych obiektów oraz praw rządzących ich oddziaływaniami i ewolucją, tak aby móc przewidywać przyszłe stany Wszechświata rozumiane jako znajomość wartości cech fizycznych wszystkich obiektów, które się w nim znajdują.
To, co jest tu najważniejsze, to fakt, że obiekty są traktowane jako byty względnie autonomiczne, które można wydzielić od reszty Wszechświata, a ich cechy fizyczne mają charakter jak najbardziej obiektywny i przynależą „do nich samych”. W takim opisie pomiar wykonywany przez hipotetycznego eksperymentatora nie zajmuje jakiegoś szczególnego miejsca. Pomiar jest po prostu poznaniem wartości pewnej cechy fizycznej, np. prędkości, która miała dobrze określoną wartość niezależnie od faktu wykonywania czy niewykonywania pomiaru.
Oczywiście w praktyce każdy pomiar, również w ramach opisu klasycznego, zaburza mierzony obiekt, np. pomiar temperatury termometrem, jednak w zasadzie w ramach fizyki klasycznej nie ma fundamentalnych ograniczeń, które nie pozwoliłyby nam uczynić pomiaru dowolnie nieinwazyjnym i tym samym traktować go jako niewinne podejrzenie wartości pewnej wybranej przez nas cechy fizycznej obiektu. W konsekwencji, skoro pojęcie pomiaru jest jedynie nieznaczącym dodatkiem w całej teorii, sam obserwator też nie odgrywa istotnej roli. Można podać pewien „obiektywny stan” Wszechświata, w którym wszystkie obiekty mają dobrze określone wartości wszystkich potencjalnie mierzalnych cech fizycznych.
Oczywiście konkretne wartości wielkości takich jak prędkość, położenie czy nawet masa (w zakresie teorii względności) mogą zależeć od układu odniesienia, w ramach którego opisujemy stan Wszechświata, i w tym sensie obserwator nie jest całkowicie usunięty z opisu. Niemniej jednak uwzględnienie wpływu obserwatora na opis zjawisk ogranicza się tutaj do pewnych reguł na transformację wielkości fizycznych z jednego układu odniesienia do drugiego, ale nie zmienia faktu, że wszystkie te wielkości fizyczne mają zawsze dobrze określone wartości dla wszystkich obserwatorów.
Ogromne sukcesy fizyki klasycznej w wyjaśnianiu zjawisk astronomii, optyki, mechaniki, elektromagnetyzmu, termodynamiki i fizyki cząsteczkowej sprawiły, że wizja świata, która się z niej wyłania, stała się jedną z dominujących postaw filozoficznych w środowisku naukowym. Wizję tę będziemy tu określać mianem realizmu obiektywnego, mając na myśli przede wszystkim to, że istnieje określony obiektywny stan Wszechświata i w jakimś sensie można ten Wszechświat opisać „z zewnątrz”, z punktu widzenia biernego obserwatora, który został przesunięty poza jego granice i nie uczestniczy w procesach w nim zachodzących.
Myślę, że jest to jeden z częstszych obrazów Wszechświata, który nam się jawi (mogę tak z pewnością twierdzić na podstawie własnych doświadczeń), gdy próbujemy o nim myśleć jako o całości. Starając się objąć cały Wszechświat, mimowolnie wychodzimy poza jego granice, aby „objąć go naszym wzrokiem”. Mimo że trudno przypisać jakiś konkretny sens tego typu perspektywie (co to znaczy być poza Wszechświatem), wizja realizmu obiektywnego w jakiś sposób zachęca nas do tego, sugerując, że dla opisu całości Wszechświata nasza rola jako obserwatora jest drugorzędna i mamy prawo zignorować fakt, że sami jako opisujący jesteśmy nierozłącznie związani z opisywanym przez nas Wszechświatem (...)

Więcej przeczytacie w artykule Rafała Demkowicz-Dobrzańskiego „Filozofia kwantowa“ w najnowszym wydaniu (4/2015) „Fizyki w Szkole“.
 

 

Pluton sfotofrafowany!

Po dziewięciu latach od wystrzelenia w kierunku Plutona sonda New Horizons przesłała do centrum badań kosmicznych NASA serię zdjęć Plutona i jego księżyca Charona. Oto niektóre z nich. Więcej można obejrzeć na stronach internetowych NASA - http://www.nasa.gov/mission_pages/newhorizons/images/


Powierzchnia planaty z okolicy równika. Foto NASA

Powierzchnia Plutona w świetle jego księżyca Charona. Foto - NASA 

Merkury – planeta nieznana

Merkury jest najbliższym sąsiadem Słońca. Wynikają z tego poważne konsekwencje dla tej planety. Przede wszystkim Słońce znacząco utrudnia obserwację planety, ponieważ po prostu oślepia obserwatora.
Mimo to o istnieniu Merkurego wiedzieli już Asyryjczycy. Wiedzieli o nim również Grecy, którzy podejrzewali jednak przez pewien czas, że są to dwa obiekty. Dopiero około IV w. p.n.e. ustalono, że jest to jeden obiekt. 
Mimo trudności obserwacyjnych  - udało się zgromadzić dane dotyczące obiegu Merkurego wokół Słońca. Średnia odległość od Słońca wynosi około 60 mln km. Jego orbita bynajmniej nie jest kołowa, lecz raczej eliptyczna. Najmniejsza odległość od Słońca (peryhelium) wynosi 46 mln km, największa zaś – 69 mln km. Dzieląc aphelium przez peryhelium, otrzymamy liczbę bliską 1,5. Jak się za chwilę okaże, jest to ulubiona liczba Merkurego. Do ustalenia długości dnia merkuriańskiego użyto metod radiolokacyjnych. Dzień wenusjański to 59 dni ziemskich. Jeśli podzielimy te liczby przez siebie, to znów otrzymamy 1,5. Dzięki obserwacjom ziemskim ustalono, że powierzchnia Merkurego jest nierówna i trochę zbliżona do powierzchni Księżyca. Aby otrzymać więcej informacji o planecie, konieczne były badania z bliska, czyli za pomocą sond.
Trzeba przyznać, że NASA w pewien sposób zlekceważyła Merkurego. W latach 1960–1973 został zorganizowany olbrzymi program badania planet wewnętrznych, czyli Merkurego, Wenus i Marsa. Jeśli jednak przyjrzymy się bardziej szczegółowo temu programowi, to Merkury jest tu znów potraktowany nie najlepiej. Tylko jedna z dziesięciu sond odwiedziła Merkurego – był to Mariner 10, choć jego głównym celem było badanie Wenus. Dysponował on dwoma teleskopami zwierciadlanymi, dwoma radiometrami podczerwieni, dwoma spektrometrami ultrafioletu, magnetometrem i analizatorem plazmy. Ponadto sam był pewnego rodzaju miernikiem. Analiza jego toru pozwalała na uzyskanie informacji o polu grawitacyjnym i masie Merkurego.
Mariner 10 badał Merkurego w latach 1974–1975, wykonując pomiary grawitacyjne, pomiary pola magnetycznego i temperatury na powierzchni. Mariner sfotografował około 40–45% powierzchni Merkurego, a więc reszta topografii tej planety pozostała nieznana. Rozdzielczość zdjęć uzyskanych przez Marinera zawarta jest w granicach 1–1,5 km. Jest to olbrzymi postęp w porównaniu z obserwacjami ziemskimi, których rozdzielczość wynosi 300 km. Kolejnym krokiem w badaniu Merkurego jest misja Marinera. Jest to misja dedykowana wyłącznie Merkuremu. Wykorzystano w niej podobny, choć nowocześniejszy sprzęt. Nowością jest wyposażenie sondy w laserowy wysokościomierz, co umożliwia dokonanie dokładniejszego pomiaru pola grawitacyjnego, czyli szczegółów rozkładu masy wewnątrz planety.
 
Atmosfera
W przypadku Merkurego ze względu na jego małą masę nie można mówić o atmosferze jako powłoce gazowej. Często więc na określenie otoczki gazowej Merkurego wprowadza się pojęcie egzosfery. Ciśnienie egzosferyczne przy powierzchni Merkurego wynosi 10–12 hPa, co w warunkach ziemskich byłoby określone jako wysoka próżnia. Inną miarą gęstości atmosfery jest liczba cząstek na centymetr sześcienny. Liczba ta nie powinna przekraczać 107 neutralnych cząstek na centymetr sześcienny i zaledwie 1000 naładowanych cząstek na centymetr sześcienny. Oczywiście taka atmosfera kompletnie nie nadaje się do latania, a transport gazów nie prowadzi do wyrównania temperatury. W takich warunkach gaz doskonały staje się jeszcze bardziej doskonały. Częstość zderzeń międzycząsteczkowych gwałtownie spada, a na trajektorie ruchu atomów istotny wpływ wywiera grawitacja. Czyli poruszają się po krzywych balistycznych.
Merkuriańska atmosfera ma jednak zupełnie inny charakter niż atmosfera Wenus lub Ziemi. Jeśli chodzi o te planety, to atmosfera jest tworem stabilnym. Cząstka gazu tworząca atmosferę najprawdopodobniej pozostanie w niej przez lata lub nawet tysiące lat. Jest to oczywiście rezultat silnego pola grawitacyjnego tych planet. Atmosfera Merkurego ma zdecydowanie inny charakter. Grawitacja planety tworzy pewną jamę potencjału, do której wpada cząstka. Jednak jama ta jest na tyle płytka, że cząstka tworząca atmosferę po pewnym czasie na pewno ją opuści. Dotyczy to zwłaszcza pierwiastków lekkich. Można to porównać do powstawania chmury. Chmurę tworzy para wodna. Można ją nazwać lokalnym zagęszczeniem pary wodnej w atmosferze. Jednakże gdybyśmy założyli, że istnieje cząstka X, która weszłaby do chmury, to najprawdopodobniej stwierdzilibyśmy, że po pewnym czasie wyszłaby z niej, a chmura istniałaby wielokrotnie dłużej.
Skład masowy atmosfery Wenus jest następujący: tlen – 42%, sód – 29%, wodór – 22%, hel – 6%, potas – 0,5%.
Hel, wodór i tlen zostały wykryte dzięki spektrometrowi umieszczonemu na Marinerze 10. Obecność sodu i potasu stwierdzono na podstawie badań wykonanych z Ziemi. W każdym wypadku technika polegała na obserwacji rezonansu między światłem słonecznym a wspomnianymi cząsteczkami.
Obecność wodoru i helu to oczywiście konsekwencja bliskości Słońca, choć nie tylko. Innym źródłem helu są reakcje jądrowe zachodzące w merkuriańskich skałach. Pierwiastki cięższe pochodzą ze skał merkuriańskich lub są przynoszone przez meteory i mikrometeory. Duże zainteresowanie wśród naukowców wzbudza potas i sód, których stężenia zależą od miejsca i czasu. Pojawiają się one najprawdopodobniej wskutek desorpcji z regolitu pokrywającego powierzchnię Wenus. Następnie unoszą się po krzywej balistycznej – dokładnie takiej, o jakiej mowa w zadaniach o rzucie ukośnym, by potem powtórnie na niego spaść.
Egzosfera merkuriańska jest bardzo niespokojna. Charakteryzuje się dużą zmiennością, co oczywiście jest związane z bliskością Słońca i silnym wiatrem słonecznym. Z jednej strony Słońce uwalnia pierwiastki z powierzchni Merkurego, ale z drugiej strony odpycha ją od siebie. W rezultacie powstaje zjawisko podobne do ogona kometarnego, zawsze skierowanego od Słońca. Czyli po stronie ciemnej powinno być więcej atomów – i tak jest w istocie. Na przykład dla helu po stronie ciemnej jest 50 razy więcej atomów niż po stronie jasnej.
 
Magnetosfera
Merkury, podobnie jak Ziemia, wytwarza wokół siebie pole magnetyczne, które przynajmniej częściowo izoluje go od wpływu wiatru słonecznego. Jednakże pole to jest o wiele słabsze. Jego wielkość nie przekracza 1,2% pola ziemskiego. Nie zaobserwowano występowania jonosfery.
 
Powierzchnia
Jedynym obiektem pozaziemskim, z którego pobraliśmy próbki skał powierzchniowych, jest Księżyc. Badania powierzchni innych ciał polegają na porównaniu zewnętrznego wyglądu danego obiektu z wyglądem Księżyca. W tym wypadku stwierdzono, że albedo (czyli współczynnik odbicia) Merkurego jest zbliżone do księżycowego. Na powierzchni Księżyca znajduje się drobny pył skalny nazywany regolitem. Analiza zdjęć wykazała, że regolit występuje również na powierzchni Merkurego. W obu przypadkach pochodzenie regolitu jest takie samo. Jest to skutek nieustannego bombardowania powierzchni obu ciał meteorytami. Dokładniejsze badania wykazują, że ziarna regolitowe na powierzchni Merkurego są mniejsze i bardziej przezroczyste od księżycowych. To większe rozdrobnienie merkuriańskiego regolitu może mieć rozmaite przyczyny. Oczywiście główną przyczyną może być różny skład chemiczny merkuriańskich skał, ale nie można zapominać też o nieustannych skokach temperatury, jakim poddawane są zewnętrzne warstwy płaszcza Merkurego (...)

Więcej przeczytacie artykule Zbigniewa Wiśniewskiego „Merkury – planeta nieznana“ w najnowszym wydaniu (3/2015) „Fizyki w Szkole“.

 

Jak powstawały współczesne konstelacje - cz.1.

Ponieważ aż 47 gwiazdozbiorów (plus 48. Argo, dziś podzielony na mniejsze) pochodzi od Ptolemeusza i kojarzonych jest z mitologią starożytnej Grecji, naszą wędrówkę przez stulecia należy rozpocząć właśnie od tego kraju.

 
Mity greckie
Gwiazdozbiór Oriona, powszechnie uważany za najpiękniejszy i stanowiący niewątpliwą ozdobę polskiego zimowego nieba, swoją nazwę wywodzi od mitologicznego myśliwego z Beocji (region Grecji na północ od Przesmyku Korynckiego), urodziwego, silnego i o posturze tak olbrzymiej, że (według Mitologii Jana Parandowskiego) idąc po dnie morza, głowę unosił ponad falami (według innych wersji: jego ojciec, Posejdon, nauczył go chodzić po wodzie). Chwalił się, że potrafi zabić każde zwierzę. Obraził jednak (według innych mitów: próbował zgwałcić) boginię łowów Artemidę (jej rzymską odpowiedniczką była Diana, a starosłowiańską – Dziewanna, od której, być może, pochodzi słowo dziewczyna), która wysłała wielkiego skorpiona z zadaniem uśmiercenia naszego bohatera. I ten załatwił sprawę. Zeus przeniósł herosa po śmierci na niebo, gdzie przed skorpionem ucieka do dzisiaj: Orion jest widoczny zimą, a zodiakalny gwiazdozbiór Skorpiona – latem. Myśliwemu towarzyszą dwa wierne Psy: Wielki i Mały. W tym pierwszym znajdziemy najjaśniejszą gwiazdę nocnego nieba – Syriusza, niezwykle ważną dla starożytnego Egiptu, ponieważ pozwalała przewidzieć życiodajne, coroczne wylewy Nilu. 
Choć nazwa konstelacji pochodzi od starożytnych Greków (w ich mitach Syriusz to imię psa Oriona), trzeba dopatrywać się w niej wpływów właśnie Egipcjan, którzy Syriusza kojarzyli z Anubisem, bogiem o głowie szakala (zresztą jeszcze nie tak dawno i w Polsce używano nazwy Psia Gwiazda), a nieco później – z Izydą, siostrą i małżonką samego Ozyrysa. Mały Pies bywał też kojarzony z Majrą, psem zajmującego się uprawą winorośli Ikariosa, który poczęstował pasterzy winem. Ci szybko się upili i przekonani, że Ikarios otruł ich winem, zabili hodowcę winorośli. Ciało pana znalazł pies Majra. Na banknotach wielu państw europejskich, także na euro, umieszczony jest układ pięciu zielonych, żółtych lub pomarańczowych kół, przypominający układ gwiazd Oriona (tzw. konstelacja EURion), rozpoznawanych przez czytniki urządzeń kopiujących, co uniemożliwia skanowanie.

Syriusz ściga na niebie Zająca, według niektórych podań umieszczonego tam przez Greków ku przestrodze. Oto bowiem na wyspę Leros, na której nie było ani jednego zająca, jej mieszkaniec przywiózł kotną samiczkę, a jurne zwierzątka tak się rozpleniły, że wyżerały wszystko, co rosło na polach. Udało im się ich pozbyć, choć z trudem i niemal w ostatniej chwili, bo wyspiarzom zaglądała już w oczy śmierć z głodu.
Wielką scenę niebieskiego polowania Orion tworzy z sąsiadującym Bykiem. Jednak gorzej trafić nie mógł, bo zwierzęciem tym jest sam Zeus, który pod byczą postacią porwał i uwiódł fenicką księżniczkę Europę. Z kolei z Orionem związane są Plejady – gromada gwiazd w tej samej konstelacji Byka. Dla Greków były to nimfy i towarzyszki Artemidy, w których olbrzym się podkochiwał i ścigał (ciekawe, w jakim celu to robił) tak zawzięcie, że aż poprosiły o pomoc samego Zeusa. Ten zamienił je najpierw w gołębice, a potem w gwiazdy. Według innej wersji mitu razem z siostrami Hiadami (inną gromadą gwiazd, na której tle świeci Aldebaran1 – najjaśniejsza gwiazda w gwiazdozbiorze Byka) zostały przemienione w gwiazdy z żalu po śmierci Hiasa – ich brata. Według jeszcze innej wersji Zeus przemienił Hiady w gwiazdy, by chronić je przed zemstą swej małżonki Hery (zdradzał ją z nimi?).

Nieco dalej od Oriona, tuż za Bykiem, spotykamy złotego Barana, na którym Fryksos i Helle, dzieci mitycznego greckiego króla Atamasa, uciekały przed złą macochą, która chciała złożyć je w ofierze. Siostra spadła ze zwierzęcia do morza (stąd nazwa Hellespont), a brat dotarł bezpiecznie do Kolchidy (w dzisiejszej Gruzji). Barana ofiarował w podzięce Zeusowi (i to właśnie Zeus przemienił go w gwiazdozbiór), a jego runo, zawieszone na dębie w świątyni Aresa, stało się potem celem wyprawy Jazona i Argonautów. Okręt Argo też znalazł miejsce na niebie i jest tam do dzisiaj, tyle że podzielony w 1750 roku przez Francuza Nicolasa Louisa de Lacaille’a na Rufę, Żagiel i Kompas, ponieważ był ogromny, co utrudniało astronomom orientację w gwiazdozbiorze (zachowując jednak indeksowanie gwiazd, stąd najjaśniejsza gwiazda w Żaglu to g, a w Rufie z, a nie jak zwykle a, bo ta pozostała w Kilu – to, nawiasem mówiąc, Canopus, druga pod względem jasności gwiazda nieba).

Z Zeusem związane są Niedźwiedzice: Wielka i Mała. Otóż w orszaku nimf Artemidy była m.in. jej ulubienica Kallisto, do której dobrał się nie kto inny, tylko władca bogów. Kiedy po dziewięciu miesiącach nimfa urodziła syna i rzecz się wydała, bogini (według innej wersji – małżonka Zeusa, Hera) zamieniła z zemsty nimfę w niedźwiedzicę. Jej syn, Arkas, wyrósł na doskonałego myśliwego i pewnego razu chciał ją ustrzelić, nie poznawszy matki. Do tego Zeus oczywiście dopuścić nie mógł, zamienił go więc w niedźwiadka i przeniósł oboje na niebo.
Z miłosnymi podbojami Zeusa kojarzą się jeszcze Łabędź, w którego Zeus się przemienił, by uwieść Ledę, żonę króla Sparty Tyndareosa, oraz Orzeł, pod postacią którego porwał trojańskiego królewicza Ganimedesa (homofobem, jak widać, nie był...). Leda urodziła jednocześnie Kastora (syna Tyndareosa) i Polluksa (którego tej samej nocy spłodził Zeus), którzy byli przykładem tak wielkiej braterskiej miłości, że gdy pierwszy poległ w bitwie, drugi, nieśmiertelny, prosił boskiego ojca, aby i brata obdarzył nieśmiertelnością. Ten zaś obu przeniósł na niebo, gdzie, jako zodiakalne Bliźnięta, już zawsze będą razem.

Z Bliźniętami związana jest najwcześniejsza zapisana obserwacja zakrycia gwiazdy przez planetę (Jowisz). Dokonał jej Ptolemeusz, a współczesne analizy wykazują, że musiała to być 1 Geminorum (+4,16m) 5 grudnia 335 r. p.n.e.
Cefeusz, Kasjopeja, Andromeda, Perseusz, Pegaz i Wieloryb to gwiazdozbiory związane z mitem o Perseuszu. Kasjopeja, małżonka króla Etiopii Cefeusza, przechwalała się, że ona i jej córka Andromeda są najpiękniejsze na świecie, wliczając w to nereidy – morskie nimfy, córki Posejdona. Te, urażone, poprosiły tatusia, by nasłał na Etiopię straszliwego potwora Ketusa (na niebie przedstawianego w postaci gwiazdozbioru Wieloryba). Jedynym ratunkiem było ofiarowanie mu Andromedy, którą, już przykutą do skały, uratował dzielny Perseusz wracający właśnie po zaszlachtowaniu Meduzy (jej uciętej głowy użył zresztą do uśmiercenia Ketusa). A odlecieli na Pegazie zrodzonym z krwi Meduzy i także umieszczonym wśród gwiazdozbiorów. Znalazł się tam również jego młodszy brat Celeris jako gwiazdozbiór Źrebięcia. Nawiasem mówiąc, gdyby ktoś oglądał Słońce z naszej gwiezdnej sąsiadki – a Centaura, to widziałby je jako jasną, biało-żółtą gwiazdę (+0,4m) właśnie na tle konstelacji Kasjopei (niedaleko e). Z kolei ekliptyka przebiega tak blisko współczesnych granic Wieloryba (bliżej niż ¼ stopnia), że w rocznym ruchu południowa część tarczy słonecznej (ale nie jej środek!) prześlizguje się na jego tle.
Z Heraklesem (na niebie występuje pod rzymskim imieniem Herkules) związana jest kolejna grupa konstelacji: sam Herkules, a także Smok, Lew, Rak, Hydra i Centaur, których zabił (choć ten ostatni, najmądrzejszy z centaurów Chiron zginął przypadkiem, co samego Chirona zapewne niekoniecznie pocieszyło). Z dawnego gwiazdozbioru Centaura wydzielony został gwiazdozbiór Krzyża Południa, kojarzony dziś najczęściej z niebem południowym, a dawniej uznawany za bardzo ważny znak nawigacyjny i symbol obecny na flagach niektórych państw. Warto jednak wiedzieć, że jeszcze do V w. n.e. widać go było z Peloponezu, a do IV tysiąclecia p.n.e. – nawet z Wysp Brytyjskich (a więc i z dzisiejszej Polski, bo to podobna szerokość geograficzna). Za zmiany odpowiada, rzecz jasna, precesja osi obrotu Ziemi i to dzięki niej za tysiące lat Centaur ponownie stanie się gwiazdozbiorem równikowym i znów będzie widoczny na całym świecie.

Jak widać, dla starożytnych Greków niebo było nie tylko zbiorowiskiem gwiazd, ale również zapisem historii ich bogów i bohaterów. Bo znajdziemy tam jeszcze bożka Pana, który uciekając przed potworem Tyfonem, przemienił się w rybę, ale z powrotem udało mu się to tylko w połowie i tak już został jako pół kozioł, pół ryba (gwiazdozbiór Koziorożca). Znajdziemy również Ryby, w które zamieniła się Afrodyta i Eros podczas ucieczki przed tym samym potworem, a nieco bardziej na południe – Rybę Południową, która uratowała przed utonięciem egipską Izydę. Jest też bogini urodzaju Demeter (Panna), która trzyma w ręku kłos pszenicy (Spica, czyli Kłos, to najjaśniejsza gwiazda konstelacji), jest centaur Krotos – wynalazca łuku (Strzelec), jest wynalazca pługa Wolarz, jest bóg sztuki lekarskiej Asklepios (Wężownik) z pomagającym mu szukać ziół Wężem – unikalną konstelacją podzieloną na dwie części: głowa jest na zachód, a ogon na wschód od Wężownika. Znalazły się wśród gwiazd: lira (Lutnia) Orfeusza, diadem Ariadny (Korona Północna), wieniec Krotosa (Korona Południowa), kruk z pucharem (Kruk, Puchar), z którego nie może się napić, umieszczony wśród gwiazd za karę przez Apolla, dla którego miał przynieść wodę życia i nie wykonał zadania. Zodiakalny Wodnik przedstawia według Greków (to jedna z wersji) Ganimedesa, a Waga – bo nazwa gwiazdozbioru to raczej „wynalazek” rzymski, zapożyczony z Dalekiego Wschodu – rzymską Astreę trzymającą wagę. Jest jeszcze Wilk, w którego Zeus przemienił króla Likaona za to, że na uczcie podał mu (by sprawdzić, czy pozna) ludzkie mięso. Jest strzała Erosa (Strzała), delta Nilu (Trójkąt) i wielka rzeka Erydan (gwiazdozbiór Erydanu), do której spadł Faeton po nieudanej próbie jazdy rydwanem Heliosa i w której cierpiał tortury Tantal. Co ciekawe, akurat ten rejon nieba niejednej cywilizacji kojarzy się z jakąś wielką rzeką.

W swoim dziele pt. Almagest Ptolemeusz opisuje 48 gwiazdozbiorów, z których 47 zachowało się do naszych czasów. Są to (w kolejności alfabetycznej): Andromeda, Baran, Bliźnięta, Byk, Cefeusz, Centaur, Delfin, Erydan, Herkules, Hydra, Kasjopeja, Kłos, Korona Południowa i Północna, Kruk, Lew, Lutnia, Łabędź, Niedźwiedzica Mała i Wielka, Ołtarz, Orion, Orzeł, Panna, Paw, Pegaz, Perseusz, Pies Mały i Wielki, Puchar, Rak, Ryba Południowa, Ryby, Skorpion, Smok, Strzała, Strzelec, Trójkąt, Waga, Wąż, Wężownik, Wieloryb, Wilk, Wodnik, Wolarz, Zając, Źrebię (dla ścisłości dodajmy, że najjaśniejsze gwiazdy Wagi starożytni Grecy uważali za szczypce Skorpiona, Ryby zaś dzielili na Rybę Północną i Południową, ale się to nie utrzymało, bo myliły się z położonym w sąsiedztwie innym gwiazdozbiorem o tej samej nazwie).
Jedynym gwiazdozbiorem ptolemejskim, który nie zachował się do dziś, jest Argo podzielony, jak już wiemy, na Gołębia, Kila, Kompas, Rufę i Żagiel. Niektóre z konstelacji, szczególnie zodiakalne, Grecy zapożyczyli od Babilończyków, ale to opiszemy nieco później.
Wspomnijmy jeszcze o gwiazdozbiorze Warkocza Bereniki. W czasach starożytnych nie był on samodzielną konstelacją, lecz ogonem Lwa. Przedstawia warkocz rzeczywistej królowej Egiptu, Bereniki, żony Ptolemeusza III. Ofiarowała swój warkocz do świątyni Aresa, żeby wyprosić szczęśliwy powrót małżonka z wojny. Warkocz gdzieś przepadł, a nadworny astronom wmówił królowi, że został przeniesiony na niebo. Takie wyraźne grupy gwiazd niebędące samodzielnymi gwiazdozbiorami, jak Warkocz Bereniki w starożytności, a w naszych czasach choćby oba Wozy i Plejady, noszą nazwę asteryzmów. W Warkoczu znajduje się północny biegun naszej Galaktyki.

Przedstawione tu mitologiczne wyjaśnienia nazw gwiazdozbiorów nie wyczerpują tematu (niektóre mity mają nawet po kilka różnych wersji). Wystarczy odrobina chęci i cierpliwości, by odszukać je w sieci. Zachęcam do wpisania w okienko internetowej wyszukiwarki hasła greek constellations lub przejrzenia opisu gwiazdozbiorów w polsko- i (szczególnie) anglojęzycznej Wikipedii. Ot, choćby Orzeł może przedstawiać, jak pisaliśmy, samego Zeusa porywającego Ganimedesa, ale może być też ptakiem wysłanym przez niego w tym celu albo tym, który tylko przenosił jego pioruny. A tak naprawdę konstelacja powstała zapewne na podstawie wcześniejszej konstelacji – babilońskiej, nawet o tej samej nazwie.
Choć na naszym niebie większość gwiazdozbiorów jest pochodzenia greckiego, to nie Grecy jako pierwsi zaczęli łączyć gwiazdy w konstelacje. Zaczęło się to dużo, dużo wcześniej.
 
Więcej przeczytacie w artykule Janusza Rokity "Jak powstawały współczesne konstelacje cz. 1" w najnowszym wydaniu (2/2015) "Fizyki w Szkole".

 

Metameteriały - inne spojrzenie na materię

Historia ludzkości pokazuje, że odkrycia nowych materiałów oraz metod ich przetwarzania stoją u podstaw rozwoju każdej cywilizacji. Z tego powodu naturalny jest podział dziejów na epoki na podstawie faz rozwoju technologicznego. Możemy wyróżnić kolejne okresy od ery kamienia, przez ery brązu, miedzi i żelaza. Z kolei rewolucja przemysłowa w XIX wieku oparta była na węglu i stali. Wiek XX to era krzemu, który jest podstawą technologii cyfrowych, które są motorem niezwykle szybkiego rozwoju społeczeństw opartych na wiedzy.

Koniec XX wieku przyniósł nowe odkrycia, które pozwoliły na inne spojrzenie na otaczającą nas materię. Teoretyczne prace angielskiego badacza sir Johna Pendry’ego pokazały, że możliwe jest projektowanie i wytwarzanie nowych materiałów o niespotykanych dotąd własnościach optycznych. Mowa tu o tzw. metamateriałach, czyli sztucznych materiałach, których makroskopowe cechy zależą od podfalowej wielkości struktur stanowiących komórki elementarne projektowanego materiału, tzw. metaatomów. Te nowe materiały rozbudziły wyobraźnię i nadzieję społeczności międzynarodowej na opracowanie przełomowych technologii istniejących dotychczas jedynie w filmach i literaturze fantastycznonaukowej. Niezwykłe własności metamateriałów mają ułatwić stworzenie m.in. czapki niewidki, która dowolny obiekt uczyni niewidzialnym, idealnej soczewki pozwalającej na obrazowanie z rozdzielczością znacznie przekraczającą możliwości współczesnych mikroskopów optycznych czy fotonicznej czarnej dziury całkowicie pochłaniającej padające na nią światło.
Właśnie mija 15 lat od przełomowych prac Pendry’ego. W tym czasie dzięki intensywnym badaniom znacznie zwiększyły się możliwości aplikacyjne metamateriałów. Udało się uzyskać materiały o kontrolowalnych własnościach elektrycznych, materiały magnetyczne działające w szerokim zakresie częstotliwości od GHz po częstotliwości optyczne, wreszcie ośrodki o ujemnym współczynniku załamania i wysokim dodatnim (...)
 
Czapka niewidka
Możliwość manipulowania własnościami materii pozwala na powstawanie nowych zjawisk i urządzeń. Szczególną uwagę badaczy przyciągnęła koncepcja ośrodka umożliwiającego uczynienie niewidzialnym dowolnego obiektu materialnego. Mówimy tu o tzw. czapce niewidce. Pomysł polega na tym, aby promienie światła przechodzące przez taki hipotetyczny ośrodek nie uległy zniekształceniu powstałemu na skutek np. ich rozproszenia na ukrywanym obiekcie (...) Światło, przechodząc przez ośrodek o odpowiednim przestrzennym rozkładzie współczynnika załamania, propaguje się w taki sposób, że omija ukrywany centralny obszar, zachowując jednocześnie na wyjściu kierunek padania promieni. W efekcie obserwator stojący na linii biegu tych promieni nie zauważy żadnej zmiany, tak jakby światło nie napotkało żadnej przeszkody. 
Strukturę taką po raz pierwszy udało się skonstruować badaczom w 2006 roku. Zbudowana była z cylindrycznych warstw rozpiętych pierścieni o rozmiarach kilku mm. Różna gęstość oraz parametry geometryczne rozpiętych pierścieni w kolejnych warstwach pozwoliły na uzyskanie przestrzennego rozkładu współczynnika załamania, wzrastającego z promieniem struktury. W efekcie wykonana struktura umożliwiła znaczne ograniczenie rozpraszania promieniowania e-m na umieszczonym wewnątrz obiekcie oraz redukcję cienia obiektu dla promieniowania w zakresie mikrofalowym. 
Zastosowanie materiału opartego na strukturze rezonansowej ogranicza funkcjonalność takiego układu do wąskiego zakresu częstotliwości i kątów padania. Z tego względu struktury, które udało się do tej pory wykonać, były ograniczone jedynie do dwóch wymiarów. Ponieważ koncepcja czapki niewidki opiera się na lokalnej modyfikacji współczynnika załamania, który w dalszym ciągu jest dodatni, naukowcy zaproponowali strukturę, która nadal działałaby w dwóch wymiarach, zamiast jednak otaczać ukrywany obiekt, jedynie go przykrywa. Aby ukryć obiekt pod strukturą dwuwymiarową, należy tak zmodyfikować rozkład współczynnika załamania, by wybrzuszony obszar odbijał światło jak gładka, płaska powierzchnia. Taką dwuwymiarową strukturę działającą w zakresie 1400–1800 nm wykonano w 2009 roku w warstwie krzemu, w którym wytrawiono odpowiednio rozstawione otwory dające przestrzenny rozkład współczynnika załamania. Rok później naukowcy z Uniwersytetu Technicznego w Karlsruhe opracowali dosyć skomplikowaną strukturę trójwymiarową (...)
Przedstawione struktury nie są rezonansowe i nie zawierają stratnych materiałów. Jednakże wymagają dosyć skomplikowanej budowy, co w odniesieniu do zakresu widzialnego nastręcza trudności technologicznych oraz nasuwa pytanie o ekonomiczną opłacalność takiej technologii. Przedstawiony pomysł ukrywania obiektów ma jeden istotny mankament. Otóż, ze względu na brak oddziaływania padającego światła z ukrywanym obiektem, jest on niewidoczny dla otoczenia, a otoczenie jest niewidoczne dla ukrywającego się obserwatora, co dyskwalifikuje tę technologię w zastosowaniach np. militarnych.
Innym podejściem, idąc dalej tropem zastosowania tych struktur w wojskowości, jest próba zmylenia przeciwnika przez wykorzystanie iluzji optycznej tworzącej obiekt o odmiennych kształtach niż ten ukrywany. Z rozważań teoretycznych wynika, że do tego potrzebowalibyśmy dwóch różnych metamateriałów: tzw. ośrodka komplementarnego niwelującego rozproszenie światła od ukrywanego obiektu oraz tzw. ośrodka rekonstruującego, który tworzyłby iluzję nowego obiektu. Co ważniejsze, układ taki może działać na odległość, np. możemy stworzyć wirtualny otwór w murze, który umożliwi nam obserwację ukrytego za nim świata. Podobnie jak wcześniej proponowane układy działają na podstawie przestrzennej modyfikacji współczynnika załamania.
Uczeni, wykorzystując pomysł modyfikacji biegu promieni światła wewnątrz materiału, zaproponowali i eksperymentalnie zrealizowali optyczną czarną dziurę, która silnie zaginając światło wewnątrz kulistego ośrodka, umożliwia całkowite uwięzienie fotonów wewnątrz takiej struktury. Pozwala ona na wydajną absorpcję światła w dowolnym kierunku oraz w szerokim zakresie widmowym. Jak twierdzą pomysłodawcy, taka struktura wykonana z mieszaniny powietrza i półprzewodnika o wysokim współczynniku załamania, np. na bazie związku indu, galu, arsenku i fosforu (InGaAsP), powszechnie stosowanego w przemyśle półprzewodnikowym, może znaleźć zastosowanie w fotowoltaice czy detektorach optoelektronicznych. 
 
Metapowierzchnie
Dotychczasowe spektakularne osiągnięcia w dziedzinie metamateriałów nie przełożyły się na urządzenia, które z powodzeniem mogłyby wejść do użytku codziennego: czy to ze względu na ograniczenia technologii, czy też brak opłacalności wprowadzenia ich na rynek cywilny lub wojskowy. Struktury trójwymiarowe są albo niemożliwe do wykonania, albo zbyt skomplikowane i nieopłacalne. Innym pomysłem mającym realną szansę na wykorzystanie są tzw. Metapowierzchnie. To dwuwymiarowe obiekty, które dzięki odpowiednio zaprojektowanym strukturom mogą manipulować światłem w określony sposób. Każdy punkt takiej powierzchni jest anteną, która wypromieniowuje pole elektromagnetyczne w konkretnym kierunku. Odpowiednie ustawienie takich anten pozwala na dowolne kształtowanie padającego na nią światła oraz modyfikację każdej powierzchni, np. czoła światłowodu, nadając jej cechy obiektu trójwymiarowego. Szczególnie struktury takie mogą być wykorzystane do budowy mikro- i nanosoczewek ogniskujących światło w bliskim obszarze soczewki, co pozwoli na miniaturyzację układów optoelektronicznych.
 
Praktyczne zastosowania
Metamateriały elektromagnetyczne przedstawione w tym artykule pozwoliły na przesunięcie granic wyznaczanych przez znane dotychczas prawa fizyki. Stały się  również inspiracją dla dziedzin odmiennych od optyki, takich jak akustyka czy sejsmologia. Na podstawie koncepcji czapki niewidki niedawno powstały układy do ochrony osiedli mieszkaniowych przed falami sejsmicznymi czy struktury umożliwiające ukrycie łodzi podwodnej przed wykryciem za pomocą sonaru. Prowadzone są również badania nad metamateriałami dla fal materii, zaproponowano już idealną soczewkę dla elektronów wykonaną z grafenu. Pokazuje to, że choć urządzenia oparte na metamateriałach nie wyszły poza mury laboratoriów badawczych, to jednak wpływ tej dziedziny na sposób myślenia o otaczającym nas świecie materii jest nieoceniony.

Więcej przeczytacie w artykule Piotra Wróbla „Wprowadzenie do magicznego świata metamateriałów“ w najnowszym wydaniu (1/2015) „Fizyki w Szkole“.
 

O czym mówią smugi kondensacyjne

Smugi kondensacyjne to chmury lodowe powstające za samolotem odrzutowym lecącym w górnych warstwach troposfery lub dolnej stratosfery, zwykle między 7 a 15 km. Chmury te towarzyszą nam od połowy XX wieku, kiedy to do regularnej służby lotniczej weszły cywilne samoloty odrzutowe.

W ostatnich dziesięcioleciach znacząco wzrosła obecność smug kondensacyjnych w atmosferze, co związane jest z dynamicznym rozwojem transportu lotniczego. Smugi kondensacyjne przybierają różne formy i kształty przez co budzą coraz więcej emocji. Do użytku codziennego wszedł nawet termin chemtrails określający chemiczne ślady. Zwolennicy teorii chemtrails głoszą, że smuga kondensacyjna powstająca za samolotem jest w niektórych przypadkach zjawiskiem mającym utajony cel. Jest nim rozpylanie dużych ilości substancji, które mogą być szkodliwe dla organizmów żywych. Głównym argumentem przemawiającym za tą teorią jest, według jej wyznawców, duża zmienność kształtu i czasu życia smug kondensacyjnych. Czy jest to uzasadnione i czy są jakieś przesłanki naukowe potwierdzające teorię chemtrails? 
Podstawy fizyczne kondensacji pary wodnej w atmosferze
Smugi kondensacyjne, podobnie jak zwykłe chmury, są wynikiem kondensacji pary wodnej zawartej w atmosferze. Para wodna jest gazem bezbarwnym i niewidocznym w atmosferze, jeśli jednak dochodzi do jej kondensacji i pojawiają się małe kropelki wody, które rozpraszają światło, to wówczas chmura staje się widoczna. Aby doszło do kondensacji pary wodnej, muszą wystąpić odpowiednie warunki. Są nimi stan nasycenia powietrza parą wodną oraz obecność tzw. jąder kondensacji. W skrajnym przypadku (kondensacja homogeniczna) warunkiem wystarczającym jest silne przesycenie powietrza sięgające 300–400%. Warunki takie nie występują jednak w atmosferze i można je stworzyć jedynie w laboratorium. Stan przesycenia parą wodną oznacza, że ciśnienie pary wodnej względem płaskiej bądź zakrzywionej powierzchni wody lub lodu jest większe niż ciśnienie pary nasyconej. (...)
Aby zapoczątkować proces kondensacji pary wodnej w przypadku małych kropelek, wymagane są znacznie większe przesycenia. Zawarte w powietrzu substancje chemiczne wykazujące własności higroskopijne obniżają jednak ciśnienie pary nasyconej. W tym wypadku równowagowe ciśnienie pary wodnej jest niższe niż nad płaską powierzchnią wody zgodnie z prawem Raoulta. Przykładem w tym wypadku może być sól morska, która jest emitowana do atmosfery podczas załamywania się fal morskich(...)
 
Jak powstają smugi kondensacyjne?
Opisany wyżej proces kondensacji pary wodnej w atmosferze zachodzi podczas mieszania się powietrza wyrzucanego przez silniki odrzutowe z powietrzem atmosferycznym. 
(...) smugi nie pojawią się w niskich warstwach atmosfery, gdzie powietrze co prawda zawiera więcej pary wodnej, ale jest zbyt ciepłe. (...)przy pewnych proporcjach mieszania powietrze zostanie nasycone (lub przesycone) parą wodną. W tym wypadku istnieje bardzo duże prawdopodobieństwo, że smuga pojawi się za samolotem. Kondensująca para wodna ulega następnie gwałtownemu zamarzaniu, tworząc kryształy lodu. To, jaka będzie ewolucja czasowa smugi, zależy w głównej mierze od warunków termodynamicznych i dynamicznych występujących na wysokości przelotu samolotu. Jeśli występuje silna turbulencja, to smugi mogą przyjmować różne kształty. Smuga, która początkowo była prostoliniowa, zaczyna meandrować. W przypadku prądów wznoszących kryształki lodu będą rosły, co będzie prowadzić do dalszego rozwoju smugi. Gdy powietrze ma wysoką wilgotność względną, to wówczas smuga będzie bardzo wolno parowała (sublimacja lodu), a czas jej życia może być liczony w minutach lub nawet godzinach. 
Niejednokrotnie obserwuje się przypadki, że smugi rozwijają się przez wiele godzin, dając początek dużemu zachmurzeniu chmurami wysokimi. W tym wypadku, ze względu na wysoką wilgotność, pojawiają się chmury naturalne, które mieszają się z chmurami sztucznymi. Nawet obserwując bardzo uważnie nieboskłon, po pewnym czasie można mieć duże wątpliwości, czy chmura została zapoczątkowana przez samolot, czy jest to chmura, która powstała w sposób naturalny. 
W przypadku, gdy powietrze jest suche, smugi kondensacyjne nie występują lub są bardzo krótkie. Kryształy lodu nie zdążą urosnąć do dużych rozmiarów, ponieważ następuje ich szybka sublimacja w czasie mieszania się z powietrzem otaczającym smugę. 
Podczas rozwoju smug kondensacyjnych kryształy lodu mogą przybierać różne formy. W początkowej fazie rozwoju gwałtowne zamarzanie kropel wody powoduje, że lód ma w przybliżeniu kształt sferyczny (podobnie jak grad). W późniejszej fazie wzrostu kryształów dominują graniastosłupy o podstawie sześciokątnej. To, jaką formę przybierają kryształy lodu, zależy od parametrów termodynamicznych, a także warunków mieszania się powietrza smugi oraz jej otoczenia (...)
 
Wpływ  smug kondensacyjnych na klimat 
Wpływ smug kondensacyjnych na klimat jest związany z ich oddziaływaniem na bilans radiacyjny planety. Ze względu na fakt, że smugi pojawiają się w obszarze występowania chmur wysokich, ich wpływ na klimat będzie do nich zbliżony. Powszechnie wiadomo, że chmury wysokie prowadzą do ogrzewania systemu klimatycznego, ponieważ zatrzymują promieniowanie długofalowe, uciekające w przestrzeń kosmiczną a w niewielkim stopniu ograniczają promieniowanie słoneczne docierające do powierzchni ziemi (...)
 
W przypadku grubych optycznie smug znacząco spada promieniowanie słoneczne docierające do powierzchni ziemi, co ma decydujące znaczenie z punktu widzenia zmian bilansu radiacyjnego Ziemi. Graniczna wartość grubości optycznej równa ok. 5 jest wielkością stosunkowo wysoką. Typowe smugi kondensacyjne mają grubość ok. 0,2–0,3 m. Wartość grubości optycznej ok. 5 oznacza, że tarcza słoneczna jest już praktycznie niewidoczna, co występuje w przypadku niektórych chmur piętra średniego i niskiego. Aby oszacować rzeczywisty wpływ smug na klimat, należy wziąć pod uwagę znacznie więcej szczegółów, takich jak własności optyczne kryształów lodu, powietrza, aerozoli, powierzchni ziemi, chmur (...)
Podsumowując, można stwierdzić, że to, jak wygląda i jak rozwija się smuga kondensacyjna, zależy od warunków atmosferycznych. Fakt ten znany jest meteorologom od wielu dziesięcioleci. Niejednokrotnie na podstawie ewolucji czasowej smug kondensacyjnych można określać krótkoterminowe prognozy pogody. Na przykład gdy smugi nie zanikają, lecz rozszerzają się, świadczy to o wysokiej wilgotności i występujących ruchach powietrza w pobliżu frontu ciepłego. W tym wypadku front, który w danym momencie jest na wysokości smugi (ok. 7–15 km), w ciągu kilku lub kilkunastu godzin znajdzie się przy powierzchni ziemi, przynosząc opady i wzrost zachmurzenia. Z kolei brak smug lub ich szybki zanik świadczą o wyżowej i słonecznej pogodzie oraz braku podstaw, aby miała się ona szybko zmienić. Współczesna fizyka atmosfery jednoznacznie pozwala nam odpowiedzieć na pytanie, dlaczego smugi wyglądają w różny sposób, obalając w ten sposób teorię spiskową o chemtrails. Jednocześnie pomiary optyczne smug kondensacyjnych wykonywane np. przez urządzenia lidarowe czy fotometry słoneczne z powierzchni ziemi czy z orbit okołoziemskich nie wykryły jak do tej pory w ich składzie podejrzanych substancji chemicznych. 

Więcej przeczytacie w artykule Krzysztofa Markowicza „Jak powstają i jaką funkcję pełnią w atmosferze smugi kondensacyjne?“ w najnowszym wydaniu (6/2014) „Fizyki w Szkole“.
 

Jak określamy wiek znalezisk archeologicznych?

Archeologia jako dyscyplina naukowa zajmuje się rekonstruowaniem przeszłości człowieka zarówno w kontekście indywidualnym, jak i szerokiej społeczności. Rekonstrukcja ta często bazuje na wielu osiągnięciach nauk przyrodniczych, w tym także fizyki.

Współcześnie nie ma wątpliwości, że archeologia szczególną rolę ma do odegrania w tych okresach albo regionach, dla których źródła literackie, epigraficzne i numizmatyczne są nieliczne bądź też nie występują wcale. Można by stwierdzić, że archeologia wysuwa na pierwszy plan zagadnienia często bardzo różne od tych, na które kładą nacisk źródła literackie.
Nowe, bardziej wyrafinowane techniki prowadzenia prac terenowych (wykopalisk), analizy pierwiastków śladowych, petrologia, analiza florystyczna i faunistyczna dostarczają istotnych, niemal całkowicie nieobecnych w źródłach literackich informacji o osadach, przestrzeni publicznej i prywatnej,  o diecie społeczności, środowisku naturalnym, a także określają i rekonstruują wymianę kulturową czy umożliwiają badanie zagadnień związanych z płaszczyzną gospodarczą lub kultową. I tak np. wiemy, że w Kalapodi w Fokidzie (w górzystej krainie Grecji Środkowej) na krótko przed rokiem 1200 p.n.e. zaczęto sprawować obrzędy religijne, związane ze spożywaniem mięsa – głównie jeleni i żółwi oraz zbóż.


Współczesne metody analityczne stosowane w archeologii zarówno pozwalają na przykład na określenie diety społeczności pradziejowych, jak i umożliwiają rekonstrukcję sztuki kulinarnej, wykorzystując przy tym bogatą spuściznę nie tylko literacką, ale i ikonograficzną. I tak np. dominującą cechą archeologii stanowiska obozu robotników w Gizie z IV dynastii jest powszechność znalezisk glinianych form służących do wypiekania chleba, popiołu oraz licznych piekarni. Podobną obfitość źródeł archeologicznych informujących nas o codziennych czynnościach kulinarnych dostarczają bardziej konwencjonalne osiedla, także z okresu Starego Państwa, co oznacza, że wypiekanie chleba czy warzenie piwa należało do zwykłych czynności domowych, choć oczywiście dysponujemy informacjami o wyspecjalizowaniu się grupy zawodowej piekarzy, piwowarów czy też młynarzy (…).

Datowanie radiowęglowe
To jedna z najbardziej użytecznych metod datowania, którymi posługują się archeolodzy. Ma szerokie zastosowanie pod względem zarówno odległości chronologicznej, tj. 50 000 lat, jak i obszaru, z którego pochodzą zabytki datowane właśnie za pomocą tej metody. Datowanie radiowęglowe przynosi niezwykle interesujące informacje odnoszące się do ziem współczesnej Polski. Wykorzystywane jest też w Ameryce Południowej, Polinezji, Egipcie czy w rejonie Międzyrzecza. Jak każda z zaprezentowanych metod ma swoje ograniczenia, zarówno jeśli chodzi o dokładność wyznaczenia daty absolutnej, jak i skuteczność stosowania tej metody w odniesieniu do zasięgu czasowego. Dolną granicą jest ok. 50 000 lat p.n.e., górną natomiast ostatnie 400 lat (…)
Pierwsze wyniki datowania radiowęglowego zostały opublikowane w roku 1949 przez amerykańskiego chemika Willarda Franka Libby’ego (1908–1980), który był jednym z wielu naukowców badających w okresie II wojny światowej promieniowanie kosmiczne, tj. strumień cząstek bombardujących stale Ziemię i wytwarzających przy tym wysokoenergetyczne neutrony. Neutrony takie reagują z atomami azotu w atmosferze, produkując węgiel izotopowy 14C charakteryzujący się czasem połówkowego rozpadu
t1/2 = 5730 lat.
Libby zdał sobie sprawę, że rozpad węgla promieniotwórczego przebiegający ze stałą prędkością powinien być równoważony jego ciągłą produkcją w wyniku promieniowania kosmicznego. A zatem procent izotopu węgla 14C w atmosferze powinien pozostać przez cały czas taki sam. Stała obecność w atmosferze węgla promieniotwórczego powoduje jego absorpcję przez wszystkie żywe organizmy za pośrednictwem CO2, tj. dwutlenku węgla. Rośliny pobierają dwutlenek węgla podczas fotosyntezy, po czym są zjadane przez zwierzęta roślinożerne, które z kolei padają ofiarą zwierząt mięsożernych. Gdy zwierzęta bądź rośliny umierają, ustaje pobieranie 14C, a początkowo stała zawartość izotopu w organizmie zaczyna zmniejszać się w wyniku procesu rozpadu promieniotwórczego. Tym samym określenie wieku nieżyjących roślin i obumarłej tkanki zwierzęcej może być wyznaczone poprzez ilościowe określenie wielkości węgla promieniotwórczego pozostałego w próbce.
Praktycznym osiągnięciem Libby’ego było ustalenie i opracowanie dokładnych sposobów dokonywania pomiarów. Badacz ten odkrył, że każdy atom 14C rozpada się, emitując określone cząsteczki beta. Wykorzystując licznik Geigera-Müllera, obliczył rozmiary tej emisji, co legło u podstaw klasycznej, powszechnie stosowanej metody radiowęglowej.


Udoskonalenie tej konwencjonalnej metody radiowęglowej nastąpiło w latach 60. i 70. ubiegłego stulecia wraz z wprowadzeniem specjalistycznych urządzeń umożliwiających badanie bardzo małych próbek. W metodzie konwencjonalnej próbka musi mieć masę równą 5 g czystego węgla przed oczyszczeniem, co oznacza, że oryginalna próbka węgla drzewnego lub dowolnego drewna musiała osiągać masę mieszczącą się w przedziale od 10 do 20 g. Z kolei w przypadku badania materiału kostnego masa próbki musiała wynosić odpowiednio od 100 do 200 g. Współcześnie natomiast próbka może osiągać masę kilkuset miligramów węgla drzewnego, co zdecydowanie wpływa na powszechność stosowania właśnie tej metody.


I tak np. wiemy, że kultura natufijska, zaliczana do zespołu kultur archeologicznych mezolitu bliskowschodniego (rozwijała się na obszarze Syrii i Bliskiego Wschodu), której nazwa wywodzi się od Wadi-el-Natuf, stanowiska w dzisiejszym Izraelu, powstała ok. 12 500 lat p.n.e., co określono poprzez badania organicznych artefaktów z wykorzystaniem zmodyfikowanej metody radiowęglowej.
Jedno z podstawowych założeń wyznaczania daty metodą radiowęglową okazało się nie całkiem poprawne. Libby zakładał, że zawartość izotopu 14C w atmosferze była zawsze stała. Obecnie wiemy jednak, że jest ona zmienna, co wynika m.in. z wahań ziemskiego pola magnetycznego. Nieścisłość tę wykryto dzięki badaniom dendrochronologicznym, które dostarczyły także środków do korekty, czyli kalibracji dat radiowęglowych (...)

W naszym kraju jednym z czołowych ośrodków związanych z badaniami radiowęglowymi jest Poznańskie Laboratorium Radiowęglowe stosujące najnowocześniejszą obecnie technikę akceleratorową (AMS).
Powszechne zastosowanie datowania radiowęglowego w archeologii jest prezentowane w krajowej i międzynarodowej publicystyce naukowej. W przypadku naszego kraju wystarczy choćby wspomnieć o stanowisku związanym z kulturą łużycką w Kamieńcu koło Tarnowskich Gór czy wykorzystaniu datowania metodą 14C w kontekście badań osady i cmentarzyska, pochodzących z wczesnej fazy epoki brązu społeczności zaliczanej przez badaczy do trzcinieckiego kręgu kulturowego w Polesiu koło Łowicza, które odkryto w trakcie tzw. badań autostradowych.
Datowaniu radiowęglowemu metodą akcelerowanej spektrometrii masowej poddano jeden z bardziej tajemniczych zabytków związanych z dziejami Chrystusa, tj. Całun Turyński. Podczas badania lnianego płótna zawierającego obraz dwustronnego odwzorowania postaci ludzkiej wykazano, że tkanina pochodzi z okresu między 1260 a 1390 rokiem n.e., co stwierdzono z 95-procentową pewnością.
Metoda datowania z użyciem akcelerowanej spektrometrii masowej otwiera jeszcze inne, szersze możliwości. Dzięki zastosowaniu tej metody możemy badać zabytki bardzo cenne z punktu widzenia dziedzictwa kulturowego ludzkości, ponieważ badanie to wymaga zastosowania niewielkiej próbki datowanego przedmiotu – stąd też laboratoria w Tucson, w Oksfordzie i Zurychu w roku 1988 mogły przeprowadzić badania tkaniny Całunu Turyńskiego.


Współcześnie istnieją możliwości datowania pojedynczego ziarna zboża lub pojedynczej pestki owocu. I tak odczyt z akceleratorowej spektrometrii masowej dla pestki winogronowej z Hambledon Hill w południowej Anglii pokazał, że roślina, która ją zawierała, dostała się do tej części świata ok. roku 3500 p.n.e, licząc w latach astronomicznych, tj. ponad 3000 lat wcześniej niż poprzednio sądzono.
Liczba datowań obiektów z terenów współczesnych ziem Polski (stan na rok 1994) wynosiła ok. 1500, z czego ponad 1000 oznaczeń zostało wykonanych w Laboratorium Radiowęglowym Instytutu Fizyki Politechniki Śląskiej w Gliwicach.

Więcej przeczytacie w I części artykułu Stanisława Jędraszka „Jak określamy wiek znalezisk archeologicznych?” w nr 4/2012 „Fizyki w Szkole”.