Dysk twardy - jest rocznica, czas umierać
Dyskowi twardemu stuknęła pięćdziesiątka: dokładnie pięćdziesiąt lat temu, 13 września 1956 roku IBM dostarczył swoje pierwsze urządzenie, które dziś od biedy może zostać nazwane "dyskiem twardym". Sprzęt nazywał się IBM 350 RAMAC ( Random Access Method of Accounting and Control ), ważył tonę, w jego skład wchodziły 24 talerze, na których mieściło się w sumie 5 MB danych. Gdyby jego twórcom ktoś powiedział, że następcy RAMAC-a zmieszczą się w portfelu, pozwolą na składowanie tysiące razy większych ilości danych i ich cena spadnie do poziomu najwyżej dwustu dolarów, postukaliby się znacząco w głowę. A to nie koniec: lada moment na rynku zapanuje kolejna technologia - pamięci flash.
13.09.2006 | aktual.: 19.09.2006 14:39
Dyski wchodzące w skład macierzy RAMAC-a ( oznaczone jako "IBM 350 Disk Storage Unit" ) pokryte były tlenkiem żelaza; tym samym, z którego korzystano później na taśmach magnetofonowych - nadawało im to charakterystyczną rudawą barwę. Odczytem i zapisem danych zajmowały się dwie głowice - po jednej na każdą powierzchnię talerza. Na każdej powierzchni umiejscowionych było do 100 ścieżek.
Przy szybkości wirowania wynoszącej 1200 obrotów na minutę dysk potrafił dostarczyć użytkownikowi 8800 znaków na sekundę. Warto zwrócić uwagę, że współczesne HDD wcale nie wirują dużo szybciej - zwykle od 4200 do 10000 obrotów na minutę - a wysokie transfery zapewniają raczej dzięki dużo lepszemu upakowaniu danych.
Największą zaletą RAMAC-a był fakt, że był on naprawdę "random access", czyli pozwalał na odczytanie i zapis dowolnego zgromadzonego kawałka danych. W napędach taśmowych dotarcie do konkretnego zbioru wymagało przesuwania taśmy w tę i z powrotem, czasem wielokrotnego.
Zgodnie ze słowami przedstawicieli Seagate cytowanymi przez Newsweeka, był to olbrzymi krok naprzód. Dolina Krzemowa nie powina nazywać się "Krzemową", ale raczej "Doliną Tlenku Żelaza" - bowiem to dzięki możliwości przechowywania przetwarzanych danych współczesna elektronika miała w ogóle szansę zaistnieć.
Warto pamiętać, że już 14 września 1956 roku IBM zaprezentował system przetwarzania danych IBM RAMAC 650, w którego skład wchodził "dysk twardy" IBM 355 Disk Storage Unit. Mieściło się w nim już nie 5, a 6 milionów cyfr.
Szybko, coraz szybciej
Drugiego czerwca 1961 roku IBM zaprezentował model IBM 1301, który był w stanie pomieścić już 28 milionów znaków. Czas dostępu wynosił zaledwie 180 milisekund, w przypadku transferu osiągnięto przepustowość 90 tysięcy znaków na sekundę, dyski wirowały z szybkością 1800 obrotów na minutę. Olbrzymim postępem, który dokonał się w modelu 1301 było wyposażenie każdego talerza w osobną głowicę - to rozwiązanie stosuje się do dziś. Można rzec, że od 1961 roku wszystkie ważne rozwiązania mechaniczne zostały już opracowane: batalia rozpoczęła się na polu miniaturyzacji i szybkości przesyłania danych.
Mało kto pamięta, że już w czerwcu 1981 roku dysponowaliśmy technologią, która na biurka zawitała dopiero 20 lat później: model IBM 3380 oferował użytkownikom pojemność 2,5 GB, przepustowość na poziomie 3 MB/s i średni czas dostępu wynoszący zaledwie 16 milisekund! Jedynym problem była cena - pierwsze egzemplarze IBM 3380 kosztowały od 80 do 140 tysięcy dolarów.
Komputery biurkowe
We wczesnych latach osiemdziesiątych posiadacze tanich ( do 10 tysięcy dolarów ) i małych maszyn mogli co najwyżej pomarzyć o dyskach twardych. W powszechnym użyciu były raczej wynalezione wcześniej dyskietki, a na zakup pierwszego HDD ( Seagate ST-506 o pojemności 5 MB ) stać było tylko obrzydliwie bogatych właścicieli komputerów osobistych. Jednak wkrótce pojawiły się dyski o pojemności 20, 40, a wkrótce - 120 MB. W tym samym czasie postęp prac nad pakowaniem danych sprawił, że obudowy udało się obniżyć do wysokości jednego cala i zmniejszyć do rozmiarów kieszeni 3,5".
Obecnie standardem jest dysk twardy o pojemności 40-160 GB, zwykle mieszczący się w kieszeni 3,5 lub 2,5 cala. Średnie czasy dostępu kształtują się na poziomie 10 milisekund.Dysk to też kontroler
We wczesnych latach osiemdziesiątych podstawę stanowił interfejs MFM, w którym elektronika w HDD stanowiła przedłużenie elektroniki na płycie głównej. Takie dyski należało ręcznie parkować w określonych sektorach ( zwykle za pomocą BIOS-u komputera ), w przeciwnym razie głowica mogła zniszczyć powierzchnię talerza.
Z czasem rynek zdominowały napędy ESDI ( Maxtor ), później IDE ( Western Digital ) i ATA ( Seagate ). Cel był jeden: stworzyć konkurencję dla interfejsu SCSI, który wymagał osobnej karty kontrolera, terminatorów i drogich przewodów. W ( E )IDE/ATA postawiono natomiast na redukcję kosztów: w płycie głównej montowano chip pełniący tylko podstawowe funkcje sterujące pracą dysku, natomiast kontroler znajdował się bezpośrednio w HDD.
Kiedy dyski zaczęły aktywnie wykorzystywać bezpośredni dostęp do pamięci w trybie ( U )DMA zamiast PIO, twórcy kontrolerów SCSI poczuli się zagrożeni - ich urządzenia nie dawały już wyraźnego przyrostu szybkości pracy, oferowały co najwyżej opcję zmniejszenia obciążenia systemu. Jednak kiedy w dyskach pojawiły się znacznie większe bufory cache wykorzystujące SDRAM, a w płytach głównych na dobre zagościł interfejs Serial ATA, SCSI straciło ostatnią przewagę. Skończyły się czasy, gdy dyski twarde IDE/ATA były zawodnymi, powolnymi urządzeniami - "pady" HDD to teraz rzadkość, a nawet kosztujące 200 złotych urządzeniach zapewniają transfery i czasy dostępu na bardzo przyzwoitym poziomie.
Przyszłość
Zapowiedzieliśmy, że dyski twarde muszą odejść. Nie ma w tym znaczącej przesady: choć ich niezawodność rośnie, a cena spada, coraz bardziej depczą im po piętach pamięci flash. Ich stosunek pojemności do ceny jest jeszcze o około 50 do 100 razy wyższy niż w przypadku klasycznych HDD, jednak z roku na rok ta różnica maleje. Istnieją już zastosowania, w których użytkownicy wolą zapłacić ok. tysiąc dolarów za pojemność rzędu 20 GB tylko po to, by uzyskać gwarancję odporności na urazy mechaniczne oraz dłużej działać na baterii.
Aktualnie producenci eksperymentują z dwiema ścieżkami na zupełnie wyrzucenie klasycznych dysków twardych z rynku. Pierwszym sposobem jest połączenie mechaniki z buforem wykorzystującym pamięć flash OneNAND o pojemności 1-16 Gb. W zaprezentowanej w zeszłym roku hybrydzie Samsunga dzięki cache'owaniu danych talerze w ciągu 1 godziny kręcą się zaledwie przez 90 sekund - o 3510 sekund krócej niż w tradycyjnych "twardzielach". Dzięki połączeniu cech obu nośników w jednym urządzeniu, dysk twardy może przez większą część czasu stać z zatrzymanym silnikiem - system operacyjny wykorzysta dane przechowywane w podręcznej pamięci flash. Talerze zostaną rozpędzone dopiero wtedy, gdy niezbędne informacje nie zostaną znalezione w pamięci podręcznej albo kiedy pojemność tej ostatniej będzie bliska wyczerpaniu.
Wedle Ivana Greenberga, przedstawiciela Samsunga, aktualne osiągnięcia są obiecujące ( 1-1,5 minuty w ciągu 1 godziny ), ale prawdziwym celem jest osiągnięcie stanu, w którym HDD będzie korzystał z silnika zaledwie przez 30 do 45 sekund w ciągu godziny. To ponad 59 minut krócej niż w standardowych dyskach twardych!
Pomysł Samsunga ( z niewielkimi tylko modyfikacjami ) został wykorzystany w technologii Intel Robson - http://www.idg.pl/news/87239.html.
Drugi sposób jest dużo bardziej awangardowy: z HDD wyrzucane są wszystkie części mechaniczne, które zastępuje się pamięciami flash. Pojemność dysku SSD ( Solid-State Disk ) zostaje ograniczona - najlepsze modele przechowają ok. 60 GB - jego cena podnosi się do kilku tysięcy dolarów, ale w zamian użytkownik otrzymuje absolutną ciszę, niski pobór mocy i transfery nawet trzykrotnie wyższe niż w przypadku najlepszych HDD.
Wygląda na to, że przyszłość mechanicznych urządzeń została przesądzona - takie zdanie mają również czytelnicy PC World Komputera, którzy oddali głos w pojedynku "Tradycyjny dysk twardy vs. Twarde dyski flash - http://www.pcworld.pl/pojedynek/137.html".