Czy wierzyć prognozom pogody?

Rozmowa z dr. hab. inż. Lechem Łobockim z Katedry Ochrony i Kształtowania Środowiska (Wydział Inżynierii Środowiska PW).

Chciałbym rozpocząć naszą rozmowę od wydarzeń z 1997 roku. Ponoć był Pan jedną z osób, której udało się przewidzieć drugą falę opadów podczas tzw. powodzi tysiąclecia?

Nie, ten sukces był dziełem Interdyscyplinarnego Centrum Modelowania Matematycznego i Komputerowego (ICM) Uniwersytetu Warszawskiego. Mój udział w całym przedsięwzięciu tworzenia systemu prognozy meteorologicznej był pośredni. Akurat wtedy, gdy ICM powstawał, przebywałem w Stanach Zjednoczonych, gdzie pracowałem w U.S. National Meteorological Center. Wróciłem do kraju w 1996 roku, zobaczywszy rozwój wydarzeń nawiązałem kontakty z ICM i przez kilka lat starałem się wspierać ich wysiłki. W tym okresie nie mieliśmy w kraju czynnego systemu numerycznej prognozy meteorologicznej, w Instytucie Meteorologii i Gospodarki Wodnej trochę ten nurt był zaniedbany – dominował pogląd, że nie warto tego robić własnymi siłami i wystarczy wykorzystywanie produktów służb zachodnich. Zresztą, podówczas brakowało też i środków, a stworzenie i utrzymanie ośrodka obliczeniowego wymagało sporych pieniędzy. Ale jak to się mówi, gdy ktoś chce czegoś dokonać - to znajduje sposób, a jak nie chce - znajduje powody. Dopiero olbrzymie skutki powodzi w 1997 roku (tzw. powódź tysiąclecia, która nawiedziła Polskę, Czechy, Słowację, Niemcy i Austrię. W naszym kraju doprowadziła do śmierci 56 osób, a straty materialne oszacowano na 3,5 miliarda dolarów – przyp. red.) zwróciły uwagę władz na potrzebę polepszenia krajowej osłony hydrometeorologicznej. Eksploatowany w ICM – podówczas jeszcze w trybie „demonstracyjnym” model brytyjski - może zrządzeniem losu, może rzeczywiście dzięki swoim właściwościom przyniósł bardzo trafną prognozę wystąpienia drugiej fali opadów, która była praktycznie niemożliwa do przepowiedzenia tradycyjnymi metodami synoptycznymi. Oczywiście, w obliczu trwającej już klęski ostrzeżenie poszło w świat. Druga fala akurat dotyczyła Odry, może więc ta prognoza przyczyniła się w jakimś stopniu do mobilizacji w obronie Nowej Soli, która ocalała z tego potopu dzięki sprawnej akcji mieszkańców i służb. I może dzięki temu udało się nieco zmniejszyć straty?

Oceniając te zdarzenia z perspektywy czasu, można powiedzieć, że system, działający wtedy jeszcze w trybie eksperymentalnym, już na rozruchu pokazał, że jest coś tutaj rzeczywiście godnego uwagi, w co warto zainwestować. Przyczyniło się to do zwrócenia uwagi na rangę mezoskalowej prognozy numerycznej samego IMGW, jako służby odpowiedzialnej za prognozowanie pogody i zabezpieczenie hydrometeorologiczne kraju. W drugiej połowie lat 90-tych w IMGW pracowały już nad tym dwa zespoły. Jeden z nich, zespół krakowski, pracował od pewnego czasu nad użyciem modelu francuskiego, modelu Aladin. W warszawskiej centrali nie było jeszcze podówczas jednoznacznie wyrobionego poglądu, z kim podjąć współpracę. Ostatecznie IMGW nawiązał skuteczną współpracę z konsorcjum COSMO skupionym wokół niemieckiej służby meteorologicznej i tą współpracę prowadzi po dziś dzień.

 

Wydarzenia z 1997 roku, to jeden z pierwszych medialnych sukcesów zespołu ICM, zajmującego się prognozami.

Zgadza się, to były osiągnięcia medialne. One zwróciły uwagę zarówno społeczeństwa jak i osób odpowiedzialnych za osłonę hydrometeorologiczną kraju na możliwości i znaczenie precyzyjnej prognozy meteorologicznej. Pokazano też, że zadanie jest wykonalne, przy czym pojawił się czynnik konkurencji. Wtedy też znalazły się pieniądze – z pożyczki udzielonej przez Bank Światowy zakupiono nowoczesne radary meteorologiczne (poprzednio mieliśmy w Polsce dwa czynne radary) i powstała sieć obserwacji radarowych, która obecnie pokrywa cały kraj. Dzięki tej sieci możemy dziś z kilkugodzinnym wyprzedzeniem dość precyzyjnie powiedzieć, co się w atmosferze dzieje, gdzie może opad spaść i w jakiej ilości. Oczywiście trzeba dodać, że konwekcja ma charakter przypadkowy, chmury potrafią się rozwinąć stosunkowo szybko i nie wszystko można do końca dokładnie przewidzieć, nawet wtedy, gdy mówimy o tak krótkim wyprzedzeniu czasowym.

 

A jak wygląda to wszystko obecnie?

Teraz znajdujemy się w innym punkcie, ale pracujemy dalej. Wraz z moim zespołem usytuowani jesteśmy na Wydziale Inżynierii Środowiska i zajmujemy się głównie problemami dotyczącymi stanu środowiska. Spora część naszej działalności wiąże się z meteorologią stosowaną, wykorzystywaną w rozmaitych celach praktycznych. Istnieje takie hasło, jak meteorologia techniczna, a więc wykorzystywanie wiedzy meteorologicznej np. w budownictwie, energetyce, ochronie środowiska, w zabezpieczeniu różnych działów gospodarki narodowej, np. transportu, rybołówstwa. Tutaj przede wszystkim mówi się o prognozach, ale nie tylko. Oczywiście jest i agrometeorologia i wiele innych specjalności, w których potrzebne są pewne specyficzne ukierunkowania idące w stronę zastosowań. Generalnie rzecz biorąc, przez cały okres naszego istnienia widzieliśmy rację swojego bytu w lokowaniu swojej działalności właśnie w tym obszarze – a więc nie tylko w aspektach czysto poznawczych, dotyczących badań atmosfery, ile w działaniach na użytek praktyczny, np. właśnie w modelowaniu numerycznym i prognozach pogody.

Wracając do lat osiemdziesiątych… Pracując jeszcze w warunkach sporej izolacji od świata zachodniego podejmowaliśmy rozmaite próby, które dziś oceniam jako młodzieńczo naiwne. Ale wówczas, po praktycznej likwidacji ośrodków superkomputerowych i odcięcia nas od dużych, poważnych maszyn obliczeniowych, byliśmy skazani na pecety. Liczyło się na nich w miarę wygodnie, toteż zadań próbowaliśmy imać się bardzo ambitnych - włącznie z próbą stworzenia systemu osłony meteorologicznej dla powstającej wtedy w kraju elektrowni jądrowej Żarnowiec. Jak wiadomo, z tej budowy nic wyszło. Nasz zespół się wówczas rozjechał. Kolega, z którym wówczas współpracowałem wyjechał do Stanów Zjednoczonych. Ja również wyjechałem na sześć lat do USA, a wróciłem w momencie, w którym w kraju podjęto już zaawansowaną próbę wdrożenia nowoczesnej prognozy meteorologicznej opartej na modelowaniu komputerowym.

 

Zaczęliśmy rozmowę od przeszłości, ale jak rozumiem rozwiązania z tamtego okresu stosowane są do dziś?

To jest systematyczny rozwój, który tak naprawdę rozpoczął się w latach 20-tych ubiegłego stulecia, kiedy nie było jeszcze komputerów. Wtedy podjęto pierwszą próbę wykonania prognozy meteorologicznej ręcznie, metodami numerycznymi, podobnymi do tych, które dziś stosujemy. Była to bardzo czasochłonna próba, jej autorem był Lewis Frye Richardson. Niestety nie osiągnął on sukcesu. Rozwiązanie, które otrzymał było błędne. Po prostu w tych czasach wiedza o dynamice atmosfery i o metodach numerycznych nie była jeszcze na tyle zaawansowana, aby można było świadomie dobrać odpowiedni sposób rozwiązywania tych równań i dostać dobre przybliżenie. Generalnie można powiedzieć, że atmosferę charakteryzuje obecność trzech grup fal: akustyczne (wędrujące z prędkością ponad 300 metrów na sekundę), grawitacyjne (podobne w dynamice do fal tsunami na oceanie, mające również dość dużą prędkość, rzędu 200-300 metrów na sekundę) i fale typu inercyjnego (związane z bezwładnością i obrotem ziemi; one są stosunkowo wolne, ich prędkość jest rzędu kilku metrów na sekundę, ale to są właśnie te fale, które są związane z wędrówką układów synoptycznych, z tym co w meteorologii jest najistotniejsze). Metody numeryczne – a przynajmniej najprostsze metody siatkowe - zachowują stabilność wtedy, gdy dobierze się krok całkowania odpowiednio krótki w stosunku do rozdzielczości siatki, tak aby ich stosunek zgadzał się z prędkością fazową najszybszych fal. Oprócz fal mamy jeszcze samą prędkość ruchu, rzędu kilkudziesięciu metrów na sekundę, która w te analizy stabilności wchodzi. Ponieważ w modelowaniu chodzi nam przede wszystkim o te najwolniejsze grupy sygnałów wędrujących w atmosferze, do rozwiązania układu przybliżonego, odfiltrowującego fale szybkie wystarcza krok czasowy kilkukrotnie dłuższy, niż ten konieczny dla uchwycenia najszybszych fal. Jednak szybkie fale mieszane typu inercyjno-grawitacyjnego stanowią podstawowy mechanizm rozpraszania energii. Ich prędkość fazowa jest zależna od długości fali, skutkiem tego są one zdolne do rozpraszania energii. Rozpraszanie energii stanowi z kolei w atmosferze proces dopasowywania się rozkładu masy do pola prędkości. Gdyby w ogóle nie uwzględniać takich efektów, mielibyśmy przez cały czas w rozwiązaniach oscylacje nie występujące w rzeczywistości, które są właśnie dzięki tym falom wytłumiane.

 

Tego Richardson właśnie nie uwzględnił?

Tego Richardson nie wiedział, dlatego rozwiązanie które otrzymał rozsypało mu się, tworząc obraz fal akustycznych wznieconych niedokładnościami warunków początkowych, które przyjął w swoim zadaniu. Trzeba było poczekać kilkanaście lat, aż w latach 30. Carl-Gustaf Rossby podał teorię wyjaśniającą własności falowe atmosfery i wyjaśnił propagację tych właśnie długich, powolnych fal Rossby'ego, na których trzeba koncentrować uwagę w prognozowaniu pogody. Ale na komputery przyszło zaczekać aż do zakończenia II wojny światowej. Pod koniec lat 40. na komputerze ENIAC podjęto pierwszą próbę prognozy numerycznej. Bardzo prostą z punktu widzenia dzisiejszej techniki. Pasjonujący się historią meteorologii komputerowej profesor University College Dublin, Peter Lynch, napisał parę lat temu aplikację "PHONIAC" na telefon komórkowy Nokia 6300, która właśnie tę historyczną prognozę realizuje. Ale na przełomie lat 40-tych i 50-tych XX wieku był to oczywiście absolutny szczyt techniki. Ten w gruncie rzeczy prymitywny model można sobie wyobrazić tak, jak model oceanu o stałej gęstości i głębokości dajmy na to 4,5 kilometra, poddany działaniom sił bezwładności związanych z obrotem Ziemi, z ustalonym stanem początkowym. Model ten jednak pokazał zdolności prognozowania ruchu, wnoszące pewną nowość do tradycyjnych metod prognozowania. Był to sygnał, że warto tym tropem podążyć i tak to się na dobre zaczęło. Swoją drogą, podziwiam Amerykanów za ich wytrwałość, ponieważ do pierwszych skutecznych prognoz meteorologicznych potrzeba było jeszcze dwudziestu lat systematycznego inwestowania w maszyny, sprzęt oraz ludzi i kontynuowania prac mimo nie zawsze zachęcających wyników.

Wypracowane w tym okresie podejście sprowadzało się do wykorzystania jednej idei: trzeba układ równań, który rządzi dynamiką atmosfery uprościć tak, aby wyeliminować z rozwiązań szybkie fale dźwiękowe i grawitacyjne, pozostawiając w nim tylko owe fale długie. To było istotą pierwszego skutecznego rozwiązania. Potem weszliśmy na dobre 20, 30 lat w epokę, kiedy przybliżenia związane z filtracją stanowiły podstawową cechą architektury modeli. Jednak, jak się buduje model, który ma działać w wysokiej rozdzielczości nad niewielkim obszarem, to musi być inaczej skonstruowany, niż model działający na dużym obszarze - już na etapie formułowania układu równań. Kanonem stał się dobór odpowiednich przybliżeń do konkretnej skali przestrzennej; poprzez analizę skalową można było stworzyć model, dla przykładu - dobrze dopasowany do kroku siatki 300 kilometrów. Potem modele zaczęły jednak rosnąć, komplikować się. Zamiast modeli jednopoziomowych, pojawiły się kilkupoziomowe, potem kilkunasto- i wreszcie kilkudziesięciopoziomowe… Poza samą dynamiką i opisem zjawisk inercyjnych w konceptualnym modelu falującego oceanu, zaczęto do modeli włączać opis najrozmaitszych procesów fizycznych, a więc: wymiany z podłożem, bilansu cieplnego podłoża, bilansu hydrologicznego, promieniowania, kondensacji, turbulencji w dolnej atmosferze. To wszystko sprawiło, że rozmiary współczesnego kodu dużego modelu meteorologicznego są rzędu miliona instrukcji. Stąd w ostatnim dwudziestoleciu pojawiła się inna filozofia w rozwoju modeli meteorologicznych. Skoro mamy do czynienia z tworem, nad którym kilkudziesięcioosobowy zespół naukowców musi pracować jakieś 10-20 lat, zaś moc komputerów podwaja się co kilka lat, pojawia się pytanie: czy stać nas na konstruowanie modeli, które już w gruncie rzeczy w momencie wdrażania będą nieaktualne, bo nie będą dobrze dostosowane do możliwości komputerów ze względu na swoje cechy architektoniczne? Zaczęto poszukiwać możliwości uogólnienia tych przybliżeń. Powstała cała, bardzo złożona teoria pokazująca, jak w bardzo precyzyjny sposób sterować najrozmaitszymi przybliżeniami - tak, by zachować to wszystko, co jest istotne i jednocześnie najbardziej uniwersalne, a jednocześnie uniknąć kłopotów natury obliczeniowej, wynikających z niedokładnej znajomości stanu początkowego. Współczesne modele - te najnowszej generacji, są już uniwersalne i działają stabilnie w bardzo szerokim zakresie skal przestrzennych, ale za to przenoszą sporą część odpowiedzialności za powstające w przybliżonych obliczeniach błędy (nieraz duże) na modelarza. W tej chwili trzeba więc w świadomy sposób decydować o doborze parametrów obliczeniowych, dobrze znając te wszystkie przybliżenia i ograniczenia. Model jest więc dość bezpieczny i będzie działać, ale trzeba zawsze pamiętać, że otrzymany wynik jest obarczony najrozmaitszymi błędami numerycznymi, których rozmiary mogą być znaczne w razie nieprawidłowego skonfigurowania obliczeń.

 

Klaster obliczeniowy używany przez Zespół Meteorologii. Zespół stosuje model kanadyjski GEM-AQ (Global Environmental Multiscale - Air Quality)

To kwestia doboru zmiennych?

Kwestia doboru właśnie rozmaitych parametrów całkowania, kwestia doboru i samego kroku czasowego i rozmaitych przybliżeń. Nowoczesny model zwykle się nie rozsypie, ale poda nam fałszywy wynik. Przeszliśmy od epoki sprzed czasów Henry`ego Forda, gdy konstruktorzy budowali samochody w swoich warsztatach, do epoki współczesnych samochodów, nad którymi musi pracować cały sztab. W przypadku modeli numerycznych nakład pracy to kilkudziesięciu naukowców, którzy pracują nad modelem naście lat, a więc setki, albo i tysiące osobo-lat. Łatwo też sobie wyobrazić sumy pieniędzy, które za tym stoją. W tej chwili na świecie działa pięć modeli o zasięgu globalnym, które są operacyjnie używane w prognozowaniu pogody. Naszym skromnym osiągnięciem jest to, że jeden z tych modeli – kanadyjski, działa tutaj obok mojego pokoju za ścianą (śmiech).

 

Większość osób wyobraża sobie, że prognozowanie pogody polega na patrzeniu w niebo, analizowaniu zdjęć satelitarnych, analizie pomiarów wiatru, a okazuje się, że to zaawansowana matematyka.

Praktyka kiedyś była taka, że bazowano głównie na człowieku, jako na maszynie kojarzącej fakty i na tej podstawie zdolnej do przewidywania zjawisk. Natomiast my studentom wpajamy, że dawna klasyfikacja dyscyplin naukowych, lokująca meteorologię w obrębie geografii jest nieszczęściem. Geografia oczywiście też się modernizuje, niemniej trzeba powiedzieć jasno: pierwszą prognozę numeryczną wykonano w 1950 roku, pierwszy satelita meteorologiczny poleciał w kosmos w roku 1961, upłynęło już ponad 50 lat od tych dat i dzisiejsza meteorologia praktyczna to połączenie informatyki, matematyki i fizyki, a nie dawna meteorologia opisowa… Oczywiście istnieje coś takiego, jak klasyfikacja chmur, obserwatorzy na stacjach patrząc w niebo stwierdzają np. „to jest stratus”. Staje się to jednak anachronizmem, odchodzi w przeszłość. Techniki satelitarne zapewniają dużo lepsze możliwości zlokalizowania zjawisk i być może sam wygląd chmur, jakim się jawi obserwatorom, przestaje być istotny - skoro ze zdalnych pomiarów można już całkiem dokładnie określić, ile wody mieści się w obiekcie nazywanym chmurą.

 

Oglądając prognozy pogody w telewizji, wierzy pan „pogodynkom”?

Czasem oglądam prognozy telewizyjne. One są przygotowywane na podstawie wyników prognoz numerycznych. To zależy oczywiście od stacji, bo każda ma swoje ulubione źródła danych, a poszczególni synoptycy przygotowujący takie prognozy, oglądają zwykle wyniki nie jednego, a kilku modeli numerycznych. Nie ma specjalnych powodów, aby takim prognozom nie wierzyć. Ja chętnie korzystam bezpośrednio z prognoz numerycznych - spośród tych, które są dostępne na sieci w postaci map. Zwłaszcza, jak podejmuję decyzję o tym, czy iść na wycieczkę w góry, czy nie (śmiech). Patrząc na to, co się dzieje w atmosferze, jestem w stanie ocenić wiarygodność takiej prognozy - czy dana sytuacja daje możliwość pewnego przesądzenia, co się będzie działo, czy też sytuacja z natury rzeczy jest dość niepewna. Z drugiej strony jest to też ocena, co się w ogóle może zdarzyć, a co jest raczej do wykluczenia. Prezenterzy w telewizji oczywiście przedstawiają prognozy w sposób uproszczony – nie bawią się w dywagacje na temat prawdopodobieństwa zajścia przewidywanego scenariusza – a jest to przecież ważne.

 

Czyli nie wszystkie zjawiska pogodowe da się przewidzieć?

Jeśli chodzi o intensywne opady, których było bardzo dużo tego lata, trzeba powiedzieć, że mamy do czynienia z konwekcją – to proces, który jest bardzo przypadkowy ze swojej natury. Podgrzane podłoże, ruch do góry - tak jak woda w garnku, tam gdzie poleci „bąbel”, tam powstaje chmura, z której potem spada deszcz. Spróbujmy coś takiego przewidzieć... Ja często porównuję taką sytuację studentom do ołówka postawionego sztorcem na stole, który jeszcze stoi, ale jak się uderzy w stół spada, a my mamy powiedzieć, w którą stronę spadnie.

 

Tego nauka nie rozwiąże?

Trudno być optymistą, ale kto wie? Jeżeli chodzi o prognozy ultrakrótkoterminowe, wydawane na podstawie obserwacji radarowych, gdy już widać, gdzie są chmury i ile mają wody, jest dużo lepiej. Nie sposób jednak na podstawie samego radaru powiedzieć, gdzie dokładnie spadnie deszcz. Jeśli chodzi o prognozy numeryczne, możemy policzyć np. ile energii jest do uwolnienia w atmosferze. Atmosfera pracuje jak silnik cieplny – żeby odparować szklankę wody, trzeba zużyć pewną ilość energii. I to sporą. Jeśli policzyć, energia taka jest równa energii potrzebnej na ogrzanie słupa powietrza o podstawie 1 m2 i wysokości pół kilometra o jeden stopień, a więc bardzo dużo. Gdy woda znajduje się już w stanie lotnym w atmosferze, to przy jej kondensacji zachodzi uwalnianie się energii i są to wartości kolosalne. Policzmy znowu – umiarkowany opad o intensywności 4 mm/godz. odpowiada masie 4 kg wody rozlanej w tym czasie na powierzchni 1 m2. Na obszarze o rozmiarach 10x10 km będzie to już 4x108 kg; przy cieple kondensacji wody 2.5 MJ/kg daje to 1 PJ. Dla porównania - energia wybuchu zrzuconej na Hiroszimę bomby atomowej „Little Boy”, wyniosła 67 TJ, a więc prawie dwadzieścia razy mniej. A wcale nierzadko zdarzają się opady o dziesięciokrotnie większej intensywności. Takie rzeczy się w atmosferze dzieją i taka groza nam co jakiś czas nad głowami wisi. My oczywiście nie jesteśmy w stanie, ze względu na losowy, trudny do przewidzenia charakter, tych zjawisk dokładnie przewidzieć, gdzie i kiedy wystąpi katastrofalny opad. Inne zjawiska - takie, jak wędrówkę frontów w zimie można przewidzieć dużo lepiej. Jeśli burze są wynikiem przemieszczających się frontów, wtedy rządzi dynamika większych skal i generalnie można przewidzieć je lepiej. Użyteczność modeli matematycznych polega na wyjściu poza samo śledzenie przebiegu zjawisk - są w stanie przewidzieć pojawienie się zjawisk czy układów, których w momencie początkowym jeszcze nie było. Ale, warto pamiętać, sprawdzalność prognoz zależy od konkretnego procesu, od konkretnej sytuacji.

 

6 dwuprocesorowych serwerów Intel SR2600 (łącznie 96 rdzeni), 144 GB pamięci operacyjnej, wydajne połączenia Infiniband o przepustowości 20Gb/s oraz serwer zarządzający z macierzą dyskową mogącą pomieścić 36 dysków

Co uważa Pan za swój największy sukces w ostatnich latach?

Za swoje największe osiągnięcie ostatnich lat uważam stworzenie podstaw infrastrukturalnych rozwoju zespołu – w dużej mierze związanego z wspomnianym systemem prognozy meteorologicznej. Muszę tutaj oddać dużą część chwały mojemu przyjacielowi, prof. Jackowi Kamińskiemu z Kanady, który jest twórcą komponentu modelowania chemii atmosfery w obrębie tego systemu i który włożył wiele pracy w jego uruchomienie i prowadzenie. Po wielu latach pracy udało nam się dotrzeć do stanu, w którym mamy już sprzęt, działający model i zespół, który potrafi się nim posługiwać. A system działa, o czym możemy się naocznie przekonać odwiedzając stronę http://meteo.is.pw.edu.pl. Za swój sukces uznaję także sukcesy kolejnego pokolenia, m.in. dr inż. Joanny Strużewskiej, która ma już kilka publikacji w jednym z najwyżej cytowanych w tym obszarze czasopism - Atmospheric Chemistry and Physics. To są prace wkraczające bardziej w dziedzinę jakości powietrza – muszę tu dodać, że motorem napędzającym nasz system prognozy meteorologicznej jest ogólnokrajowa prognoza jakości powietrza, którą wykonujemy na zlecenie Głównego Inspektoratu Ochrony Środowiska, a także prognozy regionalne, wykonywane na zamówienie samorządów województw. Osobiście, ostatnie dziesięć lat poświęciłem w dużej części działalności organizacyjnej. Teraz – mając już zapewnioną bazę dla szybko rozrastającego się zespołu, z wielką przyjemnością wracam do moich wcześniejszych zainteresowań - przede wszystkim do zagadnień turbulencji w granicznej warstwie atmosfery. Z ostatniego roku - jedna publikacja już się ukazała, dwie dalsze są w trakcie recenzowania. Mam nadzieję, że dalej, po tej olbrzymiej inwestycji, którą zrobiliśmy i zainwestowaniu mnóstwa czasu, będziemy mieli dobry warsztat badawczy, za którym przyjdą interesujące rezultaty poznawcze.

Podobny materiał:
Profesor Andrzej Kulig w rozmowie o problemach powierzchni ziemi i o zapachach nie zawsze ulotnych cz. I