Trwa ładowanie...
11-02-2008 10:46

Przetykanie Internetu

Któregoś pięknego dnia Internet się zatka. i co wtedy? Naukowcy już zadali sobie to pytanie i pracują nad unowocześnieniem formuły, według której działa sieć.

Przetykanie InternetuŹródło: Jupiterimages
d1pbjsf
d1pbjsf

Zastanawiałeś się, ile informacji przepływa codziennie przez Internet? Pomyśl. Co wczoraj robiłeś w sieci? Wysłałeś ze 20 e‑maili, obejrzałeś trzy przezabawne filmy na YouTube, odwiedziłeś kilkadziesiąt stron WWW. Może jeszcze ściągnąłeś jakieś piosenki, a nawet film. Podsumujmy. E‑maile, niektóre z załącznikami, to pewnie najwyżej 300 kilobajtów. Filmy z YouTube to już poważniejsza sprawa – każdy ważył z siedem megabajtów. Każda z odwiedzonych stron – 300 kilobajtów. Już sam podstawowy zestaw daje ponad 20 megabajtów, a to przecież absolutne minimum. Doliczając film, piosenki, jakiś program, szybko przekraczamy pół gigabajta. Tymczasem w grudniu 2007 roku na całym świecie było ponad 1,3 miliarda internautów. Oczywiście nie wszyscy ściągali filmy, ale i tak według szacunków firmy konsultingowej Information Gatekeepers codziennie przez Internet przewala się niewiarygodna masa 40 petabajtów informacji. By zapisać to na średniej wielkości twardych dyskach, trzeba by użyć ich aż 160 tysięcy.

Po co nam te wszystkie wyliczenia? Warto uświadomić sobie, że zasady, według których działa dzisiejszy Internet, pochodzą z pierwszej połowy lat 70. Pierwszy e‑mail został wysłany w 1971 roku, a ledwie dwa lata później opracowano protokół TCP, który jest do dziś główną zasadą kierującą ruchem danych w Internecie. Dziś codziennie wysyła się blisko 180 miliardów e‑maili, w 1973 roku było ich nie więcej niż kilka tysięcy. To trochę tak, jakby współczesny ruch drogowy regulowały przepisy wymyślone około 1885 roku, gdy Karl Benz opatentował pierwszy samochód.

Twórcy TCP (Transmission Control Protocol – protokół kontroli transmisji) Vinton Cerf i Robert Kahn okazali się więc prawdziwymi geniuszami. Opracowana przez nich zasada przesyłania danych opiera się na ciągłej rozmowie komputerów wysyłających i odbierających je. Informacja, niezależnie od tego, czy jest to piracka kopia najnowszego filmu, czy list miłosny, jest dzielona na małe pakiety. Każdy z nich otrzymuje adres docelowy i rozpoczyna swoją podróż przez Internet. Większość wędruje „autostradami” – potężnymi łączami światłowodowymi, które tworzą szkielet Internetu*. Bywa jednak tak, że najszersze autostrady zatykają się chwi-lowo lub ulegają awarii. Wtedy ruch kierowany jest na mniejsze drogi i e‑mail wysłany z Berlina może dotrzeć do Warszawy przez Chicago.

Właśnie ta elastyczność Internetu jest największą zaletą protokołu TCP. Działa on bowiem niczym list wysłany za potwierdzeniem odbioru. Gdy do adresata dociera kolejny pakiet danych, odsyła on do nadawcy krótką informację: „Dotarło!”. Jeśli nadawca nie dostanie potwierdzenia, wie, że dzieje się coś złego. Zaczyna wtedy powtarzać wysyłanie zagubionych danych i jednocześnie zwalnia prędkość transmisji, by zmniejszyć prawdopodobieństwo powtórzenia błędu. Jeśli potwierdzenia zaczynają wracać do nadawcy, ten znowu zaczyna przyspieszać transmisję. Taki system samoregulacji to klasyczne sprzężenie zwrotne, czyli sytuacja, gdy zakończenie jakiegoś procesu oddziałuje na jego początek. Albo inaczej rzecz ujmując, proces dostaje informacje o własnym działaniu i dzięki temu może sam siebie regulować.

d1pbjsf

Zasada, która sprawdza się w Internecie od 35 lat, w przyrodzie obowiązuje od 3,5 miliarda lat. Sprzężenie zwrotne to podstawa życia. Każda komórka pełna jest reakcji chemicznych, których produkty wpływają na substraty. Jeśli czegoś powstaje za dużo, reakcja ulega samoczynnemu wyhamowaniu.

Badaniem przepływu informacji i sposobu, w jaki mechanizmy regulują same siebie, zajmuje się dziedzina zwana teorią sterowania. Bada ona zarówno mechanizm regulacji wydzielania białek szoku cieplnego w komórkach Escherichia coli, jak i zależność prędkości wchodzenia promu kosmicznego w atmosferę od kąta natarcia jego skrzydeł.

Tym ostatnim zadaniem zajmował się profesor John Doyle z instytutu Caltech w Pasadenie. W latach 80., gdy NASA właśnie rozpoczęła eksploatację nowych wahadłowców, agencja zwróciła się do młodego naukowca z prośbą o pomoc w ogarnięciu ogromnej masy danych, które mogły mieć wpływ na kluczowy moment lotu – powrót na Ziemię. Wiele konfiguracji zdołano przetestować w tunelach aerodynamicznych, jednak wciąż pozostawało zbyt wiele niewiadomych.

Doyle zdecydował, że trzeba wszystkie dane umieścić na czymś w rodzaju wielowymiarowego wykresu danych. Jedną osią był kąt natarcia, inną prędkość względna, jeszcze inną- nachylenie boczne, kolejną – gęstość atmosfery. W pamięci komputerów powstał rozbudowany pająk pełen danych. Dopiero mając taki model i nanosząc na niego znane już zależności, Doyle zdołał wyznaczyć wielowymiarową bryłę – przestrzeń, w której prom pozostaje bezpieczny.

d1pbjsf

Na tej podstawie opracowano udoskonalone oprogramowanie, które na zasadzie sprzężenia zwrotnego regulowało parametry lotu tak, by prom pozostawał zawsze w bezpiecznej przestrzeni. Jak dotąd system nigdy nie zawiódł – katastrofa Columbii spowodowana była uszkodzeniem poszycia promu, a nie błędem programu, który do ostatniej chwili próbował ratować wahadłowiec.

Jak to wszystko ma się do Internetu i TCP? Otóż Doyle ze współpracownikami postanowił wykorzystać swoją wiedzę do usprawnienia przepływu danych w sieci. Już dziś odczuwamy częste spowolnienia wywołane przeciążeniem struktury – bywa, że na film z YouTube trzeba czekać ponad minutę, a to zdecydowanie zbyt długo. Problemem nie jest jednak niewydolność światłowodów czy kabli, ale to, że TCP właśnie przestaje nadążać za rosnącą masą danych.

John Doyle skorzystał z doświadczeń z bakteriami oraz promami i zmienił w starym dobrym TCP jeden detal. Otóż komputer nadawca w pakiecie potwierdzającym dotarcie paczki otrzymuje nie tylko informację: „Dotarło!”, ale też dowiaduje się, jak długo paczka wędrowała. Dzięki temu może płynnie dostosować transmisję do konkretnych warunków panujących w danej chwili w Internecie, a nie tylko gwałtownie zmniejszyć jej prędkość. Może nie brzmi to rewolucyjnie, ale korzystając z nowego protokołu FAST TCP, Doyle zdołał za pomocą normalnych łączy przesłać przez Internet cztery gigabajty danych w ciągu zaledwie jednej sekundy. Cztery giga to tyle, ile zajmuje film zapisany na płycie DVD. W tym tempie przesłanie całej zawartości Biblioteki Kongresu USA (ponad 130 milionów dokumentów) zajęłoby około 15 minut. A wszystko, pamiętajmy, na normalnych łączach internetowych.

d1pbjsf

To kluczowa sprawa, bo pomysłów na przyspieszenie Internetu przez położenie nowych łączy jest mnóstwo. Tyle że dzisiejsza infrastruktura sieci powstaje od 40 lat, więc stworzenie nowej jest praktycznie nierealne. Tymczasem FAST TCP wymaga tylko zmiany oprogramowania działającego na serwerach – komputery odbierające dane, a więc te, które stoją w naszych domach, nie wymagają modyfikacji.

FAST TCP nie jest jedyną propozycją udoskonalenia 35‑letniego zbioru przepisów ruchu internetowego, ale z pewnością należy do najskuteczniejszych. A skuteczność bardzo nam się przyda – już w tym roku przewiduje się, że ilość danych przepychanych przez Internet może się zwiększyć nawet dwukrotnie. Szkoda by było, gdyby nagle wszystko się zatkało.

Piotr Stanisławski

d1pbjsf
Oceń jakość naszego artykułu:
Twoja opinia pozwala nam tworzyć lepsze treści.

WP Wiadomości na:

Komentarze

Trwa ładowanie
.
.
.
d1pbjsf
Więcej tematów