E.T. z peceta
Po blisko siedmiu latach dobiegł końca program badawczy SETI@home. Połączył miliony ludzi na całym świecie, a właściwie ich komputery, których moc obliczeniowa została wykorzystana do poszukiwania śladów cywilizacji pozaziemskiej. Znaleziono co najmniej jeden ciekawy trop.
04.01.2006 | aktual.: 04.01.2006 15:19
SETI (Search for ExtraTerrestrial Intelligence) to wszystkie rodzaje badań w poszukiwaniu dowodów istnienia inteligentnych form życia w kosmosie. Jedną z metod jest analizowanie sygnałów radiowych zbieranych przez największe teleskopy na świecie. Każdy chciałby przeżyć taką przygodę jak Jodie Foster grająca naukowca z SETI w filmie „Kontakt”, ale jak to zrobić w domu?
W połowie lat 90. David Gedye i Craig Kasnoff, naukowcy z Seattle, uprzytomnili sobie, że w setkach tysięcy rozsianych po świecie zwykłych pecetów drzemie niewykorzystana moc obliczeniowa, która po połączeniu przewyższy najpotężniejszy komputer. Pomysł był genialny. Największą przeszkodą przy analizie gigantycznej liczby sygnałów z 300-metrowej anteny radioteleskopu w portorykańskim Arecibo były ograniczenia sprzętowe. Dziennie zapisywano na taśmach 35 GB danych, którym należało się dokładnie przyjrzeć. Do tej pory robiły to komputery sprzężone z anteną, co było wysoce nieefektywne. Wymyślono więc, by olbrzymie ilości materiału podzielić na małe kawałki i rozesłać po świecie, a resztę wykonają domowe komputery – szybciej i wydajniej niż pojedyncza supermaszyna. Projekt, który w maju 1999 r. ruszył na kalifornijskim Uniwersytecie Berkeley, nazwano SETI@home (poszukiwanie pozaziemskiej inteligencji w domu). W ten sposób powstał największy wirtualny superkomputer na świecie.
Każdy mógł uczestniczyć w tym programie – nie trzeba było mieć nawet elementarnej wiedzy astronomicznej. Wystarczyło zgłosić się i zadeklarować taka wolę, by komputer pobrał odpowiedni program z serwera w Kalifornii i niezbędną porcję danych. SETI@home działał jako wygaszacz ekranu, lecz zamiast pływającego napisu Windows, fruwających gwiazdek lub innych ozdobników na monitorze pojawiał się trójwymiarowy wykres pokazujący przetwarzane dane. Po przeanalizowaniu jednego pakietu komputer łączył się z centralą projektu, odsyłał porcję zakończonych obliczeń i pobierał nową.
Pomysłodawcy zakładali, że znajdą 300 tys. chętnych. Już półtora roku później prawie 2,5 mln posiadaczy pecetów zainstalowało oprogramowanie z Berkeley. Trzymilionowy uczestnik zarejestrował się w maju 2001 r. W szczytowym okresie było ich ponad 5 mln, w ostatnich miesiącach projekt SETI@home miał około 321 tys. regularnych współpracowników z 235 krajów i terytoriów, którzy użyczyli mu ponad 644 tys. swoich komputerów. Szacowano, że przy wykorzystaniu 500 tys. komputerów moc obliczeniowa projektu mogła sięgać 100 bln operacji zmiennoprzecinkowych na sekundę (tzw. teraflopsów). Dla porównania – najszybszy obecnie na świecie superkomputer BlueGene/L firmy IBM ma 280,6 teraflopsów. Dziś przeciętne pecety mają moc rzędu kilku miliardów operacji na sekundę.
W marcu 2003 r. naukowcy z Berkeley pojechali do Arecibo, by bliżej przyjrzeć się 150 źródłom sygnałów odbiegających od normy. Za nietypowe uznano przekazy, które były podejrzanie silne albo powtarzały się. Zarządzono powtórną obserwację konkretnych punktów nieba. Po przeanalizowaniu danych okazało się, że prawie wszystkie sygnały zniknęły, ale jeden pozostał i o dziwo stał się jeszcze mocniejszy. Nadano mu symbol SHGb02+14a. Pojawił się niezależnie na komputerach informatyka z USA i inżyniera z Niemiec, potwierdzili go też specjaliści z SETI.
Dan Werthimer, szef grupy naukowej SETI@home, przyznał, że to najciekawszy sygnał w historii projektu. Nie ogłaszał jednak, że odkryto życie w kosmosie, bo pozostało zbyt wiele niejasności. Począwszy od rzeczy podstawowej – dlaczego akurat na nasłuchiwanej przez radioteleskop częstotliwości 1420 MHz mieliby się z nami kontaktować obcy i czy w ogóle używaliby fal radiowych? Inne zastrzeżenia budził fakt, iż sygnał pochodził z punktu pomiędzy konstelacjami Ryb i Barana, gdzie w promieniu 1000 lat świetlnych nie ma żadnej gwiazdy. Kolejna zagadka to „pływanie” sygnału w zakresie 8–37 Hz na sekundę, co mogłoby sugerować, że planeta, z której miałby wychodzić, obraca się nawet 40 razy szybciej niż Ziemia. Poza tym kiedy kierowano teleskop w stronę SHGb02+14a, zawsze najpierw odbierano sygnał na częstotliwości wyjściowej, a dopiero potem obserwowano odchylenia. A przecież powinno się w zasadzie za każdym razem trafiać w inny punkt wahań. Podnoszono również problem zaledwie minutowej długości sygnału, co miało
znacznie utrudnić lub wręcz uniemożliwić rzetelne jego zbadanie. Sensacja trwała krótko, bo nie dało się bez cienia wątpliwości udowodnić pochodzenia sygnału. W połowie grudnia 2005 r. program SETI@home zmienił status – przestał funkcjonować jako oddzielny projekt i stał się częścią Berkeley Open Infrastructure for Network Computing (otwarta infrastruktura przetwarzania sieciowego). Dotychczasowe wyniki kosmicznych poszukiwań zostaną podsumowane i opublikowane, ale wciąż będzie można szukać E.T. Mówi się o nowych pomysłach – włączeniu do projektu teleskopów z półkuli południowej i przeszukiwaniu innych częstotliwości. To szansa na rozwój SETI@home, który w klasycznej postaci miał działać dwa lata, a przetrwał trzykrotnie dłużej. Naukowcy z Kalifornii ze względów praktycznych postanowili połączyć w jednej platformie BOINC wiele projektów opartych na udziale tysięcy domowych komputerów (patrz ramka). Moc domowego peceta będzie można teraz dzielić według własnego uznania pomiędzy zadania analizowane przez
oprogramowanie z Berkeley.
Mimo braku konkretnego wyniku, SETI@home miał swoje pozytywy – przede wszystkim zainteresował zwykłych ludzi udziałem w specjalistycznych badaniach i przyczynił się do rozwoju koncepcji badawczych opartych na analizie danych przez rozproszone prywatne komputery. Perspektywa zostania wielkim odkrywcą w domowym zaciszu zrobiła swoje. I nadal każdy ma na to szansę.
Najpopularniejsze projekty BOINC (boinc.berkeley.edu/): Einstein@home – poszukiwanie fal grawitacyjnych emitowanych przez pulsary – ok. 84 tys. uczestników, którzy użyczają ok. 150 tys. komputerów.
Climateprediction.net – przewidywanie zmian pogodowych na podstawie weryfikacji modeli klimatycznych – ok. 67 tys. uczestników i 123 tys. komputerów. Predictor@home – badanie białek i związanych z nimi problemów z zakresu biochemii, medycyny i genetyki – ok. 39 tys. uczestników i 90,5 tys. komputerów.
Rosetta@home – badanie struktur białkowych pomocne przy wynajdowaniu nowych leków – ok. 26 tys. uczestników i 50 tys. komputerów.
LHC@home – obliczenia optymalizujące wiązkę cząstek w budowanym właśnie w laboratorium CERN w Genewie Wielkim Zderzaczu Hadronowym – ok. 22 tys. uczestników i 46,5 tys. komputerów.
Na stronie www.boincsynergy.com/stats/index.php można znaleźć szczegółowe dane statystyczne dotyczące wszystkich projektów.
Marek Żochowski