Data wynalezienia | 13 września 1956 |
---|---|
Wynalezione przez | Reynolda Johnsona |
Łączy się przez |
(Interfejs małego systemu komputerowego) (Ulepszony interfejs małego dysku) (Zintegrowana elektronika napędowa) (Ulepszona zintegrowana elektronika napędu) (Szeregowy załącznik zaawansowanej technologii) (Szeregowy SCSI) |
Segmentacja rynku |
|
Wspólni producenci |
Twardy (czasami w skrócie DD ; w języku angielskim, dysk twardy , HD lub HDD ) jest obracanie magnetyczny dysk pamięci masowej stosowane głównie w komputerach , ale także w cyfrowych odtwarzaczy muzycznych , kamery wideo , odtwarzacze DVD / nagrywarki salonie, konsola do gier wideo , itd.
Wynaleziony w 1956 r. dysk twardy przeszedł znaczną ewolucję pojemności i wydajności przy jednoczesnym obniżeniu jego kosztów, co przyczyniło się do upowszechnienia jego wykorzystania, zwłaszcza w informatyce . Wraz z pojawieniem się dysków SSD zmniejsza się udział dysków twardych w rynku.
W 1956 roku pierwszy system dysków twardych nazwano IBM 350. Był on używany w RAMAC 305 (RAMAC dla „ Random Access Method of Accounting and Control ”). Jest prezentowany publicznie przez IBM . Produkcja komercyjna rozpoczęła się w czerwcu 1957 roku i do 1961 roku sprzedano ponad tysiąc sztuk. Jego cena wynosi wtedy 10 000 dolarów za megabajt . RAMAC 305 składał się z 50 dysków 24 cali średnicy, głowice dwa odczytu / zapisu, które mogą przemieszczać się z jednego na drugi talerz w mniej niż sekundę. Całkowita pojemność wynosiła pięć milionów znaków.
RAMAC miał już konkurenta: Univac File Computer , złożony z 10 magnetycznych bębnów każdy o pojemności 180 000 znaków. Chociaż ten ostatni miał wyższą prędkość, to właśnie RAMAC, który mógł przechowywać trzy razy więcej informacji, miał najciekawszy stosunek kosztów do wydajności dla największej liczby aplikacji.
W czerwcu 1954 r. JJ Hagopian, inżynier IBM, wpadł na pomysł, aby głowice odczytująco-zapisujące „latały” nad powierzchnią talerzy, na poduszce powietrznej. Proponuje projekt kształtu tych głów. We wrześniu 1954 zaprojektował odpowiedniki obecnych dysków twardych: nałożone na siebie talerze i oś, na której zamocowane są głowice odczytu/zapisu. Będzie to produkt komercyjny w 1961 roku pod nazwą „ IBM 1301 Disk Storage ”.
W 1962 roku IBM wypuścił wymienny dysk twardy model 1311, który był wielkości pralki i mógł nagrać do dwóch milionów znaków na stosie dysków . Użytkownicy mogą kupować dodatkowe pakiety płyt i wymieniać je w razie potrzeby, podobnie jak szpule taśmy magnetycznej . Późniejsze modele jednostek napędów wymiennych macierzy dysków, od IBM i innych, stały się standardem w większości ówczesnych obiektów komputerowych. Osiągnęły pojemność 300 MB na początku lat 80. Nieusuwalne dyski twarde nazywano „stałymi” rejestratorami dysków twardych.
Pod koniec 1969 roku trzech inżynierów zastanawiało się, jaki byłby dla nich idealny system dyskowy. Uzgadniają model składający się z dwóch dysków po 30 MB każdy, jeden wymienny, drugi stały. Nazywa się „ 30-30 ”, podobnie jak model karabinu Winchester . Nazwa się przyjęła i nawet dzisiaj dysk „ Winchester ” odnosi się do niewymiennego dysku twardego (prawie wszystkie dyski wewnętrzne od lat 90.).
W 1970 roku , HP wydała swoje pierwsze płyty z ruchomymi głowami; najpierw HP-7900A, a następnie HP-7905, 7920 i 7925, wszystkie te dyski mają wymienne wkłady.
W tym samym czasie istniały dyski twarde z głowicami stałymi: pewna liczba głowic umożliwiała bardzo szybki dostęp od ścieżki do ścieżki, oczywiście z mniejszą pojemnością niż dyski z głowicami ruchomymi, ale mniej wrażliwymi mechanicznie; były używane do zastosowań pokładowych, zwłaszcza w odbiciu sejsmicznym .
W tym czasie dysk twardy skutecznie zastąpił bębny i taśmy , stopniowo spychając te ostatnie do zastosowań archiwizacyjnych i kopii zapasowych w latach 90. XX wieku.
W latach 80. firma HP wypuściła nowe, bardziej wydajne dyski, wymienne pakiety HP-7933 i HP-7935.
W tym czasie, dyski podłączone bezpośrednio do NAS i SAN pojawiła sieci , a następnie przez inne aplikacje, w którym okazało się, że dysk twardy jego zastosowanie: Przechowywanie informacji o kamerach , dom nagrywarki / odtwarzacze DVD , konsole do gier wideo , itd.
W latach 90. rozmiar dysków twardych można było znacznie zmniejszyć dzięki pracy Alberta Ferta i Petera Grünberga nad gigantycznym magnetooporem . Ich cena stanie się bardziej demokratyczna, a wszystkie komputery osobiste będą wyposażone w dysk twardy, a nie tylko dyskietki .
W 1998 roku, w stulecie zapisu magnetycznego (wynalezionego przez duńskiego Valdemara Poulsena ), IBM wprowadził na rynek pierwszy 25-gigabajtowy dysk twardy ( Deskstar 25 GP ), o pojemności prezentowanej wówczas przez prasę jako nieproporcjonalne do potrzeb. . Rzeczywiście: nie mieli jeszcze masowego dostępu do Internetu i pobierania, zwłaszcza nielegalnego pobierania .
W 2000 roku , zaczął konkurować w przeszłości ze względu na zmniejszenie jego kosztów dla giga bajtów i jego większej wygody dostępu; pod koniec tej samej dekady zaczęto ją zastępować jako pamięć masową, dla małych pojemności (od 4 do 32 GB ), przez pamięć flash, która choć droższa, nie wymagała opóźnień ze względu na rotację półmiski.
W 2011 roku zapotrzebowanie rynku na dyski twarde szacowano na 700 mln sztuk rocznie.
W czwartym kwartale 2011 r. powodzie w Tajlandii spowodowały niedobór dysków twardych, unieruchamiając kilka fabryk i powodując gwałtowny wzrost cen. W przypadku niektórych modeli ich cena wzrosła dwukrotnie, a nawet trzykrotnie.
Pomiędzy rokiem 1980, kiedy wypuszczono ST-506 o pojemności 5 MB , a 2008 rokiem średnia powierzchnia zajmowana przez trochę informacji na dysku została zmniejszona ponad 100 000 razy (5 MB dla tacy w 1980 i 500 GB w 2008 roku, czyli gęstość 100 000 razy większa).
Jednocześnie cena megabajta została podzielona przez ponad milion, bez uwzględnienia inflacji, ponieważ:
Dyski twarde o największych pojemnościach na rynku przekraczają 14 TB (terabajtów) (2017) i 16 TB w 2019 roku. Producent Western Digital zapowiedział wwrzesień 2019kolejny model o pojemności 20 TB (terabajtów). Pojemność dysków twardych wzrosła znacznie szybciej niż ich prędkość ograniczona mechaniką. Czas dostępu do odczytu jest powiązany z prędkością obrotu płyty oraz z czasem pozycjonowania głowic czytających. Im wyższa gęstość dysku i im wyższa prędkość obrotowa, tym lepsza jest prędkość przepływu informacji.
Pojemność | Rok | Producent | Model | Ciąć |
---|---|---|---|---|
5 MB | 1956 | IBM | 350 Ramaków | 24" |
28 MB | 1962 | IBM | model 1301 | |
1,02 GB | 1982 | Hitachi | H8598 | 14" |
25 GB | 1998 | IBM | Deskstar 25 GP | 3,5" |
500 GB | 2005 | Hitachi | ||
1 TB | 2007 | Hitachi | Deskstar 7K1000 | |
2 TB | 2009 | Western Digital | Kawior zielony WD20EADS | |
3 TB | 2010 | Seagate | ||
4 TB | 2011 | Hitachi | 7K4000 | |
6 TB | 2013 | HGST | WD Czerwony Pro | |
8 TB | 2014 | Seagate | Archiwum HDD | |
10 TB | 2015 | HGST | Ultragwiazda He10 | |
14 TB | 2018 | Seagate | Exos X14 | |
16 TB | 2019 | Seagate | Exos X16 | |
18 TB | 2020 | Seagate | Exos X18 |
W 2,5 cala (2,5 cala):
Już w 1956 roku na twardym dysku znajdują się sztywne talerze obrotowe. Każda płyta składa się z tarczy wykonanej zazwyczaj z aluminium, która ma tę zaletę, że jest lekka, łatwa w obróbce i paramagnetyczna . Od 1990 roku nowe techniki wykorzystują szkło lub ceramikę, które pozwalają na uzyskanie jeszcze gładszych warunków powierzchni niż aluminium. Boki tych talerzy pokryte są warstwą magnetyczną, na której przechowywane są dane. Dane te są zapisywane w kodzie binarnym {0/1} na dysk dzięki głowicy odczytująco-zapisującej, małej antenie bardzo blisko materiału magnetycznego. W zależności od przepływającego przez nią prądu elektrycznego głowica ta modyfikuje lokalne pole magnetyczne, zapisując na powierzchni krążka cyfrę 1 lub 0. Do odczytu używa się tego samego materiału, ale w drugą stronę: ruch lokalnego pola magnetycznego generuje na końcówkach głowicy potencjał elektryczny zależny od wcześniej zapisanej wartości, można więc odczytać 1 lub 0 .
Typowy dysk twardy zawiera oś centralną, wokół której talerze obracają się ze stałą prędkością obrotową. Wszystkie głowice do odczytu/zapisu są podłączone do szkieletu, który porusza się po powierzchni talerzy, z jedną lub dwiema głowicami na talerz (jedna głowica z każdej strony). Rama przesuwa głowice promieniowo przez talerze podczas ich obracania, umożliwiając dostęp do całej ich powierzchni.
Płytę można ustawić poziomo lub pionowo w zależności od obudowy.
Te związane elektronika kontroluje ruch zwory, jak również obrót płytki i wykonuje odczytuje i zapisuje w zależności od wniosków otrzymanych. Oprogramowanie układowe najnowszych dysków twardych jest w stanie zorganizować żądania w taki sposób, aby zminimalizować czas dostępu do danych, a tym samym zmaksymalizować wydajność dysku.
Dyski twarde z tacką to elementy mechaniczne, a przez to delikatne. Ważne jest, aby nie narażać tarcz, wewnętrznych ani zewnętrznych, na wstrząsy, które mogłyby uszkodzić łożyska, ani na niskie temperatury przechowywania, które powodowałyby zbyt lepkość smaru i uniemożliwiały rozruch.
TaceUszkodzone talerze dysków twardych.
Struktura dysku twardego z kilkoma talerzami.
Płyty są zintegrowane z osią na łożyskach kulkowych lub olejowych. Oś ta jest utrzymywana w ruchu przez silnik elektryczny. Prędkość obrotowa wynosi obecnie (2013) pomiędzy 3600 a 15 000 obr/min (typowe wartości obrotów wahają się od 3600 do 10 000 obr/min lub nawet 15 000 obr/min ). RPM jest utrzymywany na stałym poziomie we wszystkich modelach, pomimo czasami niejasnych specyfikacji sugerujących inaczej . W rzeczywistości, podążając za wzrostem troski o środowisko, producenci wyprodukowali dyski mające na celu oszczędzanie energii, często określane jako „ zielone ”; są one reklamowane jako posiadające zmienną prędkość obrotową (prędkość obrotowa nie jest zmienna, ale elektronika płyty całkowicie przestaje się obracać, gdy płyta nie jest używana przez dłuższy czas; wydaje się, że inne płyty, nie nazywane „ zielonymi ”, robią to samo , krótszy czas czuwania) , sugerując tym samym, że w spoczynku biegłyby wolniej, jednocześnie zmniejszając zużycie energii, a w przypadku stresu zwiększałyby tę prędkość. Potwierdziły się jednak (w szczególności testy akustyczne), że informacja ta była nieprawdziwa: płyty te działają dobrze przy stałej prędkości, niższej niż standardowa prędkość 7200 obr./min (tj. 5400 obr./min dla Western Digital i 5900 obr./min dla Seagate).
Dyski składają się z podłoża, dawniej z aluminium (lub cynku), coraz częściej ze szkła, obrobionego różnymi warstwami, w tym ferromagnetykiem pokrytym warstwą ochronną.
Wykończenie powierzchni musi być jak najlepsze.
Uwaga: w przeciwieństwie do płyt CD / DVD to najpierw ścieżki peryferyjne (to znaczy te najbardziej oddalone od środka talerza) są zapisywane jako pierwsze (i rozpoznawane jako „początek płyty”), ponieważ c 'jest miejscem, w którym występuje osiąga maksimum: rzeczywiście, prędkość liniowa punktu na dysku jest wyższa poza dyskiem (przy stałej prędkości obrotowej), więc głowica odczytująco-zapisująca w jednym obrocie pokrywa dłuższą serię danych niż w środku dysku.
Ramię podtrzymujące dwie głowice odczytująco-zapisujące. Rysy widoczne na powierzchni talerza wskazują, że dysk twardy został „wylądowany”.
Głowica dysku twardego z 1970 roku.
Głowica dysku twardego w 2011 roku.
WD Caviar WD205AA - 1999
Seagate - 2003
WD800JD Kawior SE - 2003
ST3146707LC-146 GB-2005
Przymocowane do końca ramienia, są zintegrowane z drugą osią, która pozwala im obracać się po łuku koła na powierzchni płytek. Dlatego wszystkie głowice obracają się jednocześnie. Na każdą powierzchnię przypada jedna głowa. Ich geometria pozwala im latać nad powierzchnią płyty bez jej dotykania: opierają się na poduszce powietrznej utworzonej przez obrót płyt. W 1997 roku głowice leciały 25 nanometrów od powierzchni talerzy; w 2006 r. wartość ta wynosiła około 10 nanometrów.
Silnik, który je napędza, musi być w stanie zapewnić bardzo silne przyspieszanie i zwalnianie. Jednym z algorytmów sterowania ruchami ramienia podpórki głowy jest maksymalne rozpędzanie się, a następnie maksymalne hamowanie tak, aby głowa znalazła się na odpowiednim cylindrze. Następnie trzeba będzie chwilę poczekać, aż drgania generowane przez to hamowanie znikną.
Podczas postoju głowice muszą być zaparkowane, albo w specjalnej strefie (najbliżej środka, w tym miejscu nie ma wtedy danych), albo poza siatkami.
Jeśli jedna lub więcej głowic zetknie się z powierzchnią talerzy, nazywa się to „lądowaniem” i najczęściej powoduje zniszczenie znajdujących się tam informacji. Taki sam efekt będzie miała niedoskonałość powierzchni, taka jak kurz. Mechanika dysków twardych jest zatem montowana w czystym pomieszczeniu i podejmowane są wszelkie środki ostrożności (uszczelnienia itp.), aby żadne zanieczyszczenia nie mogły przedostać się do wnętrza obudowy (zwane „HDA” od „ Head Disk Assembly ” w języku angielskim).
Techniki projektowania głów to (w 2006 r.):
Dwie głowy.
Głowice i ich okablowanie.
Głowice dysku twardego
Głowice dysku twardego
Składa się z części przeznaczonej do serwosterowania silnikami oraz części do wykorzystania informacji elektrycznej wynikającej z oddziaływania elektromagnetycznego pomiędzy głowicami odczytującymi a powierzchniami płytek. Bardziej skomputeryzowana część połączy się z otoczeniem i przetłumaczy bezwzględny adres bloku na współrzędne trójwymiarowe (głowica, cylinder, blok).
Elektronika umożliwia również korygowanie błędów oprogramowania (błędy zapisu).
KontrolerKontroler dysku jest montaż elektroniczny , który steruje mechaniki dysku twardym. Rolą tego zespołu jest napędzanie silników obrotowych, pozycjonowanie głowic odczytująco-rejestrujących oraz interpretowanie sygnałów elektrycznych odbieranych z tych głowic w celu przekształcenia ich w dane użytkowe lub rejestracji danych w określonym miejscu urządzenia. dysków tworzących dysk twardy.
Na pierwszych dyskach twardych, na przykład ST-506 , funkcje te pełniła karta elektroniczna niezależna od montażu mechanicznego. Obszerne okablowanie połączeniowe szybko zachęciło do poszukiwania bardziej kompaktowego rozwiązania: kontroler dysku został następnie podłączony do dysku, co dało początek standardom SCSI , IDE, a teraz SATA .
Termin „kontroler dysku” jest często używany luźno jako zamiennik „ kontrolera ATA ” lub „ kontrolera SCSI ”. „Sterownik dysku” to ogólna nazwa, która nadaje się również do innych typów urządzeń peryferyjnych lub urządzeń pamięci masowej: Dysk twardy dlatego, ale również odtwarzacz CD , taśma magnetyczna odwijak , skaner , itd.
W komputerze osobistym , zasilanie do interfejsu IDE dysku twardego jest odbierany przez złącze Molex . Niektóre dyski twarde z interfejsem Serial ATA początkowo wykorzystywały to samo złącze Molex, aby były kompatybilne z istniejącymi zasilaczami , ale wszystkie stopniowo migrowały do określonego długiego i płaskiego gniazda (zasilacz SATA).
Każda płyta (zazwyczaj mająca dwie powierzchnie użytkowe) składa się z koncentrycznych torów, początkowo oddzielonych od siebie obszarem zwanym „przestrzenią międzytorową”. Obszar ten znika w przypadku dysków twardych o większej pojemności, a ścieżki nakładają się na siebie w formacie SMR zwanym zapisem magnetycznym, który jest gęstszy, ale zapisuje się wolniej.
Tory znajdujące się w tej samej odległości od osi obrotu tworzą walec.
Ścieżka podzielona jest na bloki (złożone z sektorów ) zawierające dane.
W adresowaniu CHS potrzebne są zatem trzy współrzędne, aby uzyskać dostęp do bloku dysku (lub sektora):
Ta konwersja jest najczęściej wykonywana przez kontroler dysku z bezwzględnego adresu bloku zwanego LBA (liczba od 0 do całkowitej liczby bloków na dysku minus 1).
Ponieważ tory są kołowe (ich obwód jest funkcją promienia - c = 2 × pi × r ), tory zewnętrzne mają większą długość niż tory wewnętrzne (ich obwód jest większy). Problemem jest zatem fakt, że prędkość obrotowa dysków jest stała niezależnie od ścieżki odczytanej/zapisanej przez głowicę. Na pierwszych dyskach twardych ( na przykład ST-506 ) liczba sektorów na obrót była niezależna od numeru ścieżki (dlatego informacje były przechowywane ze zmienną gęstością przestrzenną w zależności od ścieżki). Od lat 90. XX wieku i uogólnienia obszaru zapisu bitów gęstość zapisu stała się stała, ze zmianą liczby sektorów w zależności od ścieżki.
Na pierwszych płytach powierzchnia została sformatowana w fabryce i zawierała informacje pozwalające na synchronizację systemu (aby przez cały czas wiedzieć, jaka jest pozycja głowic). Ta powierzchnia została nazwana „serwo”. Następnie te strefy synchronizacji zostały wstawione między bloki danych, ale nadal są sformatowane fabrycznie (w standardzie SCSI istnieje polecenie FORMAT, które całkowicie ponownie zapisuje wszystkie informacje wszystkich powierzchni, niekoniecznie jest zaimplementowane na wszystkich dyski). Zazwyczaj więc na każdym utworze znajdziemy następstwo:
Interfejsy dysków twardych to złącza i kable przenoszące dane. Z biegiem czasu znacznie ewoluowały ze względu na kompaktowość, ergonomię i zwiększoną wydajność. Oto dwa główne interfejsy w dzisiejszych czasach:
A także bardziej szczegółowe lub starsze interfejsy:
Uwaga: interfejsy M2 dotyczą tylko dysków SSD, a nie dysków twardych.
Protokoły komunikacji z jednostkami pamięci , w tym dyskami twardymi, są bardzo zależne od interfejsu połączenia, nie należy ich jednak mylić:
USB i Firewire / IEEE 1394 (jak również połączenia sieciowe) nie są interfejsami dysku twardego: wymienne zewnętrzne dyski twarde USB lub Firewire są wewnętrznie wyposażone w adapter interfejsu USB / S-ATA lub Firewire / S-ATA. Dyski te występują w trzech formatach: 1,3, 1,8 i 2,5 cala, ale zdarzają się też przypadki, które pozwalają na przekształcenie dysków wewnętrznych w dyski zewnętrzne, z oddzielnym zasilaniem i interfejsem, zazwyczaj USB.
Oprócz kompatybilności połączeń, użycie dysków najnowszej technologii może wymagać adaptera obsługującego tę nową technologię. Ponadto niektórych zewnętrznych dysków twardych nie można oddzielić od adaptera, ponieważ tworzą one całość (wspólny obwód drukowany); w takim przypadku dysk twardy nie może zostać wyjęty w celu zamontowania na komputerze osobistym.
Według stanu na kwiecień 2014 obecne pojemności na rynku to 160, 250, 320, 500, 640, 750 GB oraz 1, 2, 3, 4, 5, 6 TB . W droższych modelach dostępne są funkcje takie jak bezpieczeństwo biometryczne lub wiele interfejsów.
Pojemność dysku twardego można obliczyć jako: liczba cylindrów × liczba głowic × liczba sektorów na ścieżkę × liczba bajtów na sektor ( zwykle 512 ).
Jednak liczba cylindrów, głowic i sektorów jest nieprawidłowa dla dysków korzystających z obszaru zapisu bitowego (zapis o stałej gęstości) lub translacji adresów LBA . Na dyskach ATA większych niż 8 GB wartości są ustalone na 255 głowicach, 63 sektorach i liczbie cylindrów w zależności od rzeczywistej pojemności dysku w celu zachowania kompatybilności ze starszymi systemami operacyjnymi.
Na przykład z końcem dysku twardego Hitachi S-ATA 2005: 63 sektory × 255 × 10 011 głowic cylindry × 512 bajtów / sektor = 82 343 278 080 bajtów lub 76,688 Gio (lub 82,343 GB ).
FAT12 , uruchomił pierwszą wersję PC-DOS , zaprojektowany dla dysków , nie mogą wysyłać za 4096 klastrów , których wielkość może być do 4096 bajtów pod PC-DOS 2 . Spowodowało to de facto limit 16 MiB na partycję w PC-DOS 2 .
Uruchomiony z MS-DOS 3.0, FAT16 umożliwił adresowanie 16 384 klastrów o wielkości 2048 bajtów, czyli 32 MiB na partycję, z maksymalnie czterema partycjami dla MS-DOS 3.0 .
W DOS 4 liczba klastrów mogła wzrosnąć do 65 526, umożliwiając partycje o wielkości 128 MiB, ale rozmiar klastrów nadal nie mógł przekroczyć 2048 bajtów.
MS-DOS 5 i 6 pozwalały na użycie większych klastrów, pozwalając na zarządzanie partycjami 2 GiB z klastrami 32 KiB , ale nie obsługiwały dysków większych niż 7,88 GiB, ponieważ korzystały z interfejsu CHS INT-13 (AH=02h i AH= 03h) BIOS .
MS-DOS 7.0 usunął ograniczenie do 7,88 GiB za pomocą nowego interfejsu INT-13 Enhanced Disk Drive Specification ( LBA) , ale zachował ograniczenie 2 GiB na partycję właściwe dla FAT16 z klastrami 32 KiB .
MS-DOS 7.1, dystrybuowany z Windows 95 OSR/2 i Windows 98 , wspierał FAT32 , zmniejszając teoretyczny limit do 2 TiB dla MS-DOS 7.1 . Ale na dysku ATA 32-bitowy sterownik Windows 9x pozwalał tylko na użycie LBA-28, a nie LBA-48, zmniejszając praktyczny limit zarządzania dyskami 128 GiB .
BIOSy miały własne limity adresowania, a limity specyficzne dla systemu BIOS pojawiły się dla rozmiarów 504 MiB , 1,97 GiB , 3,94 GiB , 7,38 GiB , 7,88 GiB .
Ten ostatni limit 7,88 GiB mógł zostać przekroczony jedynie poprzez rozszerzenie interfejsu BIOS INT-13 o specyfikację BIOS Enhanced Disk Drive Specification .
16-bitowe narzędzia Microsoftu miały własne ograniczenia dla rozmiarów 32 GiB i 64.
LinuxPrzy rdzeniach używających tylko adresowania CHS na dyskach IDE, pojemność została ograniczona do 8 GiB .
Przy współczesnych rdzeniach natywnie wykorzystujących 48-bitowe adresowanie LBA , limit pojemności wynosi teraz 128 PiB .
Limit strukturalnyW 2010 roku adresowanie ATA zostało ograniczone do 128 Pio przy użyciu standardu LBA-48 .
Kompresji dysku jest techniką, która zwiększa ilość informacji, jaką można zapisać na dysku twardym.
Narzędzia do kompresji dysków były popularne na początku lat 90. , kiedy dyski twarde do komputerów osobistych były wciąż stosunkowo małe (20 do 80 megabajtów ) i dość drogie (około 10 [USD za megabajt ). Narzędzia do kompresji dysków umożliwiły następnie zwiększenie pojemności dysku twardego niewielkim kosztem, który w dużej mierze zniwelował różnicę w porównaniu z dyskiem o większej pojemności.
Dobre narzędzie do kompresji dysku mogłoby średnio podwoić dostępną przestrzeń przy znikomej utracie prędkości .
Kompresja dysku wyszła z użycia od połowy lat 90. , gdy postępy w technologii i produkcji dysków twardych doprowadziły do zwiększenia pojemności, niższych cen, a główne systemy operacyjne w tamtych czasach zawierały tę funkcję jako standard. Jednak nadal jest używany na niektórych zewnętrznych dyskach twardych, a nawet dyskach SSD .
Czas dostępu i przepustowość dysku twardego są wykorzystywane do pomiaru jego wydajności. Główne czynniki, które należy wziąć pod uwagę, to:
czas oczekiwania współczynnik prędkości obrotowej płyt. Czas opóźnienia (w sekundach) jest równy 60 podzielonemu przez prędkość obrotową w obrotach na minutę. Średnia latencja jest równa czasowi latencji podzielonemu przez dwa (ponieważ statystycznie szacuje się, że dane znajdują się w odległości pół obrotu w pobliżu głów). Na pierwszych dyskach twardych, do 1970 roku, czas oczekiwania wynosił jeden obrót: musieliśmy czekać na pojawienie się adresu domowego , pierwotnego promienia ( 1 ⁄ 2 obrót) przed głowicami, a następnie szukaliśmy sektorów lub dotyczy z tego adresu domowego ( 1 ⁄ 2 tury). IBM dostarczył 3033 dyski z całą stałą ścieżką adresowania, co wyeliminowało potrzebę adresu domowego ; czas pozycjonowania (w języku angielskim seek time ) czas potrzebny na dotarcie głowicy do wybranego cylindra. Jest to średnia pomiędzy ścieżką czasu do śledzenia, a najdłuższą możliwą ( pełny skok ); czas transferu to czas potrzebny na przesłanie danych między dyskiem twardym a komputerem za pośrednictwem jego interfejsu.Aby oszacować całkowity czas transferu, dodajemy trzy poprzednie czasy.
Możemy na przykład dodać czas odpowiedzi kontrolera. Często konieczne jest zwrócenie uwagi na specyfikacje producentów, będą oni przekazywać wartości szczytowe zamiast wartości trwałych (np. dla natężenia przepływu).
Dodanie pamięci RAM do kontrolera dysku zwiększa wydajność. Ta pamięć zostanie wypełniona blokami, które następują po żądanym bloku, mając nadzieję, że dostęp do danych będzie sekwencyjny. W trybie zapisu dysk może poinformować hosta, który zainicjował transfer, że transfer został zakończony, podczas gdy dane nie zostały jeszcze zapisane na samym nośniku. Jak każdy system pamięci podręcznej , stwarza to problem spójności danych.
Szybki rozwój systemów prowadzący do okresowej wymiany sprzętu, wiele przetworzonych dysków twardych zawiera informacje, które mogą być poufne (rachunki bankowe, dane osobowe itp.). Dostępne są przewodniki dotyczące wymazywania nośników magnetycznych.
Zawartość dysków twardych jest coraz częściej szyfrowana, aby zapewnić lepsze warunki bezpieczeństwa. Szyfrowanie może być programowe (zarządzane przez system operacyjny) lub zarządzane przez chip zintegrowany z dyskiem twardym.
W środku krążka.
Na krawędzi krążka.
Na pierwszych torach.
Stare dyski twarde korzystające z interfejsu Modified Frequency Modulation (w) , takie jak Maxtor XT-2190, posiadały etykietę identyfikującą uszkodzone sektory. Podczas formatowania, a zatem w ramach przygotowań do użycia, konieczne było ręczne wprowadzenie tej listy uszkodzonych sektorów, aby system operacyjny nie miał do niej dostępu. Ta lista niekoniecznie była pusta w momencie zakupu.
Z biegiem czasu elektroniczne kontrolery dysków twardych fizycznie przejęły uszkodzone sektory. Obszar dysku twardego jest zarezerwowany do realokacji uszkodzonych sektorów. Wydajność jest zmniejszona, ale liczba sektorów jest niska, efekt jest znikomy dla użytkownika.
Zużycie warstwy magnetycznej, ważne na pierwszych dyskach twardych, ale coraz bardziej ograniczone, może powodować utratę sektorów danych.
Wbudowany elektroniczny kontroler dysku twardego zarządza odzyskiwaniem uszkodzonych sektorów w sposób przejrzysty dla użytkownika, ale informuje go o jego stanie za pomocą SMART ( technologia samokontroli, analizy i raportowania ). W zdecydowanej większości przypadków kontroler nie próbuje odzyskać nowych uszkodzonych sektorów, ale po prostu oznacza je jako bezużyteczne. Zostaną one ponownie przydzielone przy następnym formatowaniu niskiego poziomu do doskonale czytelnych sektorów zastępczych. Jednak w zależności od sterownika i zastosowanego algorytmu realokacja może nastąpić podczas pracy.
Uszkodzone sektory są przeszkodą w dublowaniu kopii zapasowych sprzętu na dysku twardym (niezależnie od tego, czy używa się podwójnej stacji dokującej z urządzeniem do kopiowania w trybie offline, czy polecenia takiego jak dd w systemie Linux ), ponieważ sektory te mogą istnieć na jednym dysku, a nie na drugim, a nawet znajdować się w różne miejsca na każdym dysku, przez co fizyczna kopia jest niedoskonała.
Wymiary dysków twardych są znormalizowane:
Istnieją mniejsze dyski, ale należą do kategorii mikronapędów o rozmiarze 1 cala (2,54 cm ).
Poprzednie standardowe formaty są definiowane zgodnie z rozmiarem tac. Istnieje również standaryzacja rozmiaru obudów, aby dyski twarde wszystkich producentów pasowały do wszystkich komputerów.
Współczynnik kształtu (współczynnik kształtu) |
Szerokość (cale / mm) |
Długość (cale / mm) |
Wysokość (cale / mm) |
Podanie |
---|---|---|---|---|
2,5 "19 mm wysokości" | 2,75 / 70 | 3,94 / 100 | 0,75 / 19 | Dyski 2,5 cala o największej pojemności stosowane w laptopach |
2,5 "17 mm wysokości" | 2,75 / 70 | 3,94 / 100 | 0,67 / 17 | Dyski o średniej pojemności używane w niektórych komputerach przenośnych |
2,5 "12,5 mm wysokości" | 2,75 / 70 | 3,94 / 100 | 0,49 / 12,5 | Dyski o małej pojemności stosowane w małych laptopach ( notebookach ) |
2,5 "9,5 mm wysokości" | 2,75 / 70 | 3,94 / 100 | 0,37 / 9,50 | Dyski o bardzo małej pojemności stosowane w bardzo małych laptopach ( mini-notebookach ) |
2,5 "7 mm wysokości" | 2,75 / 70 | 3,94 / 100 | 0,28 / 7,00 | Dyski zwane „slim”, typowy format dysków SSD, używany w bardzo małych laptopach ( mini-notebookach ) |
3,5 "połowa wysokości" | 4.0 / 101 | 5,75 / 146 | 1,63 / 41,5 | Wysokiej klasy dyski twarde o dużej pojemności |
3,5 ″ Niskoprofilowy | 4.0 / 101 | 5,75 / 146 | 1,0 / 25,4 | Standardowe dyski przemysłowe, najpopularniejsza forma dysku twardego |
Dysk Microdrive został stworzony w 1998 roku przez IBM . Microdrive jest zastrzeżonym znakiem towarowym bardzo małego dysku twardego opracowanego, a następnie wprowadzonego na rynek od 1999 r. w celu zaspokojenia potrzeb cyfrowych odtwarzaczy muzycznych, a zwłaszcza fotografii cyfrowej . .
Microdrive pożycza wymiary i połączenia o CF karty pamięci ( CF typu 2 ) i jest używany w ten sam sposób. Jego pojemność waha się od 170 MB do 8 GB . W tamtym czasie płyta ta miała większą pojemność niż karty pamięci, ale była droższa (mechanika precyzyjna z systemami amortyzacji), bardziej krucha i zużywała więcej energii elektrycznej ze względu na swój mikrosilnik. Był używany głównie w profesjonalnych aparatach i niektórych odtwarzaczach MP3 ze względu na jego dużą pojemność. Od około 2007 roku tego typu dyski twarde bezpośrednio konkurują z kartami pamięci flash , które są mniej wrażliwe na wstrząsy, ponieważ są wykonane z czystej elektroniki, a ich cena stale spada.
Wirtualnego dysku to oprogramowanie, które pozwala emulować dysk z przestrzeni przydzielonej w centralnej pamięci. Jego tworzenie odbywa się za pomocą sterownika dysku wirtualnego, jego zniszczenie następuje poprzez reset lub wyłączenie komputera (rzadziej sterownik), dostęp poprzez wywołania systemowe identyczne jak dla dysków rzeczywistych ( jądro musi zawierać odpowiednie sterowniki ) . Czasy dostępu są niezwykle szybkie, jednak z natury rzeczy pojemność dysku wirtualnego nie może przekraczać rozmiaru pamięci głównej.
Ponieważ dane są tracone, jeśli pamięć nie jest już zasilana energią elektryczną, pliki są zazwyczaj zapisywane na dysku wirtualnym tylko do odczytu, kopie plików na dysku lub pliki pośrednie, których utrata nie ma większego znaczenia, na przykład:
Historycznie, pierwszym szeroko rozpowszechnionym wymiennym dyskiem twardym była obudowa montowana w stojaku zawierająca dysk twardy i wyposażona w interfejs IDE; przy tego typu technologii nie było możliwe podłączanie na gorąco. Wprowadzane później na rynek dyski zewnętrzne typu hot-plug mają głównie port FireWire , eSata lub USB .
Zewnętrzne dyski twarde podłączane przez port USB są coraz bardziej przystępne cenowo i mają np. pojemności 500 GB , 1 lub 2 TB , do typowego wykorzystania do archiwizacji dużych danych (zdjęć, muzyki, wideo). Interfejs to USB 2.0 lub USB 3.0 i służy również do zasilania. Czasami są wyposażone w dwa gniazda USB, drugie umożliwiające lepsze zasilanie, jeden port ograniczony do 500 mA ; przy użyciu dwóch portów osiąga 1000 mA .
SSD (dla dysku SSD ) może mieć wygląd klasyczny dysk twardy na zewnątrz, w tym interfejsie, lub mają mniejszy format (mSATA, mSATA pół-size, czyli pół-Format), ale to w żadnym obudowa składa się z kilku układów pamięci flash i nie zawiera żadnego elementu mechanicznego.
W porównaniu z dyskami twardymi czasy dostępu są bardzo szybkie przy ogólnie niższym zużyciu, ale po uruchomieniu ich pojemność nadal była ograniczona do 512 MB i ich bardzo wysoka cena.
Od 2008 roku byliśmy świadkami sprzedaży laptopów (ogólnie ultraprzenośnych ) wyposażonych w SSD zamiast dysku twardego, przez większość głównych producentów ( Apple , Acer , Asus, Sony, Dell, Fujitsu, Toshiba itp .). Modele te mogą być używane na przykład w autobusie, co byłoby niewskazane w przypadku modelu z fizycznym dyskiem twardym, ponieważ głowica czytająca może wtedy zetknąć się z dyskiem i uszkodzić oba.
Jak każda nowa technologia, funkcje zmieniają się bardzo szybko:
W połowie drogi między dyskiem twardym a SSD hybrydowe dyski twarde (SSHD) to konwencjonalne dyski magnetyczne, którym towarzyszy niewielki moduł pamięci flash (od 8 do 64 GB w zależności od producenta) oraz pamięć podręczna (8 przy 64 MB w zależności od producenta).
Opracowane głównie z myślą o laptopach, zaletą tych dysków jest fakt zmniejszenia zużycia energii, zwiększenia szybkości uruchamiania i ostatecznie wydłużenia żywotności dysku twardego. .
Kiedy laptop z napędem hybrydowym musi przechowywać dane, tymczasowo przechowuje je w pamięci flash, uniemożliwiając uruchomienie części mechanicznych.
Korzystanie z pamięci flash powinno poprawić ładowanie komputera i czas rozruchu o 20%. Laptopy powinny zyskać na zwiększeniu autonomii o 5 do 15%, co może przełożyć się na zysk o 30 minut w porównaniu z najnowszymi generacjami laptopów .
Liczba producentów dysków twardych jest obecnie dość ograniczona, ze względu na różnego rodzaju przejęcia lub fuzje firm, a nawet zaniechanie przez niektóre firmy tej działalności. .
Pozostali światowi producenci to:
Historyczni producenci to: