Rozmiar. – Dyski HDD występują w rozmiarach 2,5 oraz 3,5 cala. Dyski 3,5 cala są znacznie większe i zazwyczaj stosuje się je w komputerach stacjonarnych. Nośniki 2,5 cala ze względu na kompaktowy rozmiar znalazły zastosowanie w laptopach i jako przenośne magazyny danych. Warto uwagę na ten parametr przy wyborze dysku.
Pamięć USB. Dyski flash USB, znane również jako PenDrives, to urządzenia pamięci masowej półprzewodnikowe o pojemności od 1 GB do 1 TB. Pendrive'y stały się obecnie najczęściej używanymi urządzeniami pamięci masowej do przenoszenia danych z jednego miejsca do drugiego.
Wtórne(pomocnicze)urządzenia pamięci masowej i nośnikiIstnieje potrzeba posiadania alternatywnego, długoterminowego miejsca przechowywania danych i informacji, innego niż pamięć główna.Te alternatywne urządzenia pamięci masowej, które nie są częścią pamięci głównej, są nazywane wtórnymi lub pomocniczymi urządzeniami pamięci masowej.Urządzenia te nie są bezpośrednio
Oznaczenia C2, C4, C6 i C10. Wyżej wymienione oznaczenia przedstawiają minimalną prędkość zapisu, kolejno: 2 MB/s, 4 MB/s, 6 MB/s oraz 10 MB/s. Oznaczenia C (Class) są starsze od oznaczeń UHS. I obecnie nie powinniśmy zwracać uwagi na karty pamięci, na których nie umieszczono przynajmniej oznaczenia C10.
Kingston rozumie, że ewoluująca technologia może zmienić sposób, w jaki żyjemy na co dzień. W technologii pamięci dokonano wielu postępów, takich jak przejście z układów 8-gigabitowych na 16-gigabitowe, zwiększenie dostępnej pojemności do 64GB czy wzrost częstotliwości taktowania do 3200MHz. Postęp technologiczny dotyczy
Trudno o jednoznaczną odpowiedź na to pytanie. Na wybór dysku o określonej pojemności wpływają przede wszystkim potrzeby jego przyszłego użytkownika. Jeśli komputer, który będzie szczęśliwym posiadaczem nowego dysku SSD, ma służyć jedynie do przeglądania zasobów sieci globalnej, wystarczy model o pojemności 256 czy nawet 128 Gb.
. LaCie Little Big Disk: pierwszy zewnętrzny dysk ze złączem Thunderbolt. Prawie rok po premierze cudownego złącza Apple’a Thunderbolt (alias Lightpeak) urządzeń w nie wyposażonych wciąż jest niewiele. Chociaż teoretycznie jest ono dwa razy szybsze od popularnego obecnie USB jednak bardzo niewielu producentów zdecydowało się dotychczas na jego implementację. Nic dziwnego, bo port Thunderbolt mają jak na razie tylko aktualne komputery Apple’a jak na przykład MacBook Pro i Air czy też iMac. LaCie, wypuszczając Little Big Disk, robi w tej dziedzinie krok do przodu. Ten zewnętrzny dysk jest dostępny w dwóch wersjach HDD – z pojemnościami 1 i 2 TB – oraz w przetestowanym przez nas wariancie SSD o pojemności 240 GB, który składa się z dwóch napędów Intel SSD 510 (SSDSA2CW120G3) połączonych w macierzy RAID 0. Jego cena, wynosząca około 3500 zł, nie stanowi powodu do dumy. Dodatkowe 200 zł trzeba wyłożyć na kabel Thunderbolt. Kompaktowy, ale głośny We wszystkich trzech wersjach urządzenia Little Big Disk firma LaCie wykorzystała tą samą obudowę ze żłobkowanego aluminium, posiadającą wbudowany wentylator. Ma to uzasadnienie, ponieważ obudowa służy za pasywny radiator a sam wentylator wytwarza dodatkowy pęd powietrza. SSD-eki nie potrzebują aktywnego chłodzenia, a tutaj aktywny jest szybko wirujący wiatrak, co jest zwyczajnie denerwujące. Ponieważ urządzenia Thunderbolt są zawsze połączone szeregowo, Little Big Disk posiada dwa porty Thunderbolt oraz zewnętrzny zasilacz. LaCie Little Big Disk: po jednym porcie Thunderbolt – do połączenia z Mac-iem oraz dalszej komunikacji z następnym urządzeniem. Tak testowaliśmy Jako urządzenia docelowego użyliśmy do testu 13,3-calowego MacBook-a Air z procesorem Core i7-2677M, pamięcią operacyjną o pojemości 4 GB oraz dyskiem SSD o pojemności 256 GB. Podłączyliśmy do niego testowane urządzenie i zanotowaliśmy 530 MB/s podczas odczytu i 265 MB/s podczas zapisu przy użyciu przewodu Thunderbolt – to bardzo szybko. Ponieważ z technicznego punktu widzenia jest to ciekawostka, nie umieszczamy wersji SSD dysku LaCie Little Big Disk w rankingu z normalnymi, zewnętrznymi dyskami 3,5 cala, jednak porównanie wyników pomiarów pokazuje, że jest on znacznie szybszy niż wszystkie dotychczasowe dyski twarde wyposażone w złącza USB oraz eSATA. W porównaniu z jak na razie jedyną alternatywną pamięcią masową z portem Thunderbolt – Promise Pegasus R6 – sprawa wygląda jednak już inaczej. Bez względu na to, czy jest to odczyt czy zapis, czy są to dyski twarde, czy SSD-eki, macierz RAID Pegasus R6 bije LaCie Little Big Disk pod każdym względem. Jest on jednak znacząco droższy (od 4500 zł). Porównanie wyników pomiarów Model Odczyt Zapis LaCie Little Big Disk (2 x SSD) 530 MB/s 265 MB/s Promise Pegasus R6 (6 x HDD) 745 MB/s 745 MB/s Promise Pegasus R6 (4 x SSD) 569 MB/s 746 MB/s Promise Pegasus R6 (2 x SSD) 799 MB/s 751 MB/s Podsumowanie Lacie Little Big Disk jest bardzo szybką i drogą ciekawostką wśród napędów. Kto szuka dysku dla portu Thunderbolt, nie przejdzie koło niego obojętnie. Nie, ponieważ jest on wyjątkowo dobry, ale dlatego, że jak na razie po prostu nie ma innych dysków ze złączem Thunderbolt. Do tego trzeba znosić niepotrzebny hałas. Radzimy Wam ostatecznie jeszcze się wstrzymać, aż na rynku pojawią się konkurencyjne modele ze złączem Thunderbolt. Alternatywa Jako że port Thunderbolt jest dostępny na razie tylko w środowisku Apple i oprócz LaCie Little Big Disk nie ma jeszcze innych napędów z Thunderbolt-em, prawdziwej alternatywy nie ma. Najlepszym zewnętrznym dyskiem dla Mac-ów byłby oferujący szybkie transfery Seagate FreeAgent GoFlex Desk STAC3000201 3TB. Podłączony do FireWire 800 osiąga w naszych testach ponad 100 MB/s, oferuje 3 TB pamięci masowej, ma wymienny interfejs (zapowiedziano również Thunderbolt) i sprzedawany jest od 1300 zł. LaCie Little Big Disk Bardzo szybki, drogi i głośny dysk zewnętrzny ze złączem Thunderbolt. PLUSY: Bardzo szybki Wysokiej jakości aluminiowa obudowa MINUSY: Tylko dla złącza Thunderbolt Głośny wentylator Brak w ofercie kabla Thunderbolt Cena: 3500 zł Powiązane treści: Dyska zewnętrzny 500GB – jaki wybrać?
Twarde dyski są wolne i znacznie szybsze nie będą. Z tego powodu nasze komputery nie działają tak szybko, jak by mogły. Procesor, zamiast wykonywać zlecone mu zadania, musi czekać na dane, których dysk nie jest mu w stanie dostarczyć w krótkim czasie. Przekonywanie, że jest inaczej, to mydlenie oczu nieistotnymi informacjami. Czy SSD jest wybawieniem z tej sytuacji? Aby się o tym przekonać warto poznać czym w rzeczywistości jest wydajność napędów dyskowych. Trochę historii… W 1956 r. firma IBM publicznie zaprezentowała komputer IBM RAMAC 305. Była to maszyna wyjątkowa ze względu na fakt zainstalowanej w niej pamięci masowej zbudowanej z rotujących, magnetycznych talerzy. Komponent ten miał nazwę IBM 350 i był to pierwszy twardy dysk. Wywołało to rewolucję w informatyce. Wcześniej dane przechowywano najczęściej na kartach perforowanych. W dużych firmach ich ogromne ilości były układane w skrzyniach (tub files). Gdy zachodziła konieczność użycia danych (np. wystawienie faktury), pracownik ręcznie odszukiwał odpowiednie karty (dane klienta i kupowanych produktów), ładował je do czytnika i uruchamiał właściwy program (tworzenie faktury). Następnie zabierał je oraz ewentualnie nowe karty wynikowe (faktura) i odkładał w tub file. Aby optymalnie wykorzystać cenny czas pracy komputera zlecenia wykonania obliczeń zbierane były w większe paczki. Karty układano w sekwencje zgodnie z kolejnością zleceń w paczce i dla wszystkich uruchamiano przetwarzanie. Dzięki temu nie trzeba było biegać między tub files a komputerem za każdym razem, jak pojawiło się nowe zlecenie. Ten wsadowy tryb pracy (batch), mimo, że jest efektywny, ma jedną istotną wadę – oczekiwanie na wynik wymaga cierpliwości. Głównym zadaniem inżynierów IBM przy tworzeniu RAMAC 305 było stworzenie nowego rodzaju systemu, którego podstawą jest uzyskiwanie rezultatów działania bezpośrednio po jego zleceniu. Z czasem taki tryb pracy z komputerem przyjął nazwę OLTP – OnLine Transaction Processing. Rozważano także użycie technologii taśmowej. Stosowano ją wtedy w systemach komputerowych już od pięciu lat. Prędkość sekwencyjnych zapisów i odczytów na taśmy była ponad 2x większa niż w przypadku IBM 350. Jednak próby losowego dostępu do danych nie przynosiły dobrych rezultatów. Podobnie jak w przypadku tub files, taśmy można było efektywnie używać tylko do przetwarzania w trybie wsadowym. Pomysł na umieszczenie danych na rotujących magnetycznych talerzach okazał się najlepszy. Zastosowanie IBM 350 umożliwiło szybki, losowy dostęp do danych. Zmieniło to sposób pracy z komputerem. Operator IBM RAMAC 305 mógł uruchomić program dla dowolnych danych w dowolnym czasie i od razu uzyskać wynik obliczeń. Taki sposób dostępu do informacji był tak istotny, że od niego wzięła się właśnie nazwa RAMAC – Random Access Method of Accounting and Control, czyli Losowa Metoda Dostępu dla Księgowości i Kontroli. Fizyczność dysku Ten historyczny rys miał na celu pokazanie jakie były powody powstania dysków twardych. Mimo, że od tamtych wydarzeń minęło już ponad pół wieku, są one nadal aktualne. Znacznie zwiększyła się jednak ilość danych oraz nasze wymagania. Pracując z komputerem oczekujemy natychmiastowego wyniku naszych operacji. Jeżeli do ich wykonania wymagane jest skorzystanie z informacji zapisanych na dysku, powinny być one szybko odszukane i dostarczone. Nie chcemy też czekać na zapisanie wyników naszej pracy. Aby sprostać tym oczekiwaniom dysk musi kręcić się z wielką prędkością, a jego głowica szybko i precyzyjnie lokalizować sektory szerokości zaledwie kilku atomów. Jest to konieczne dla uzyskania wysokiej wydajności i pojemności. Budowa dysków twardych wymaga od ich konstruktorów przełamywania kolejnych fizycznych barier. Niestety większość z nich jest już niemożliwa do sforsowania. W 2000 roku firma Seagate zaprezentowała pierwszy dysk kręcący się z prędkością 15 tys. obrotów na sekundę (RPM). Dzisiaj jest to nadal najlepszy wynik, dostępny tylko w najdroższych modelach. Większość dostępnych na rynku HDD ma 7200 RPM. Ruchy głowicy w najszybszym aktualnie dysku są tylko o 25% szybsze od wspomnianego Seagate’a. Oznacza to, że realna wydajność dysków twardych w ciągu 9 lat wzrosła o 16%. Jest to fakt, którym producenci nie chcą się chwalić i w sumie nie ma co się dziwić, jako że przemilczanie tej prawdy jest wymogiem współczesnego marketingu, podobnie jak eksponowanie nieistotnych parametrów. W przypadku HDD przykładem takiej nieistotnej informacji jest maksymalna prędkość transmisji danych wyrażana w MB/s. Mydlenie oczu Podawana przez producentów maksymalna prędkość transmisji danych jest z roku na rok coraz większa. Wynika to głównie z coraz szybszych interfejsów (SATA, SAS, FC). Ich możliwości ciągle się zwiększają, co jest związane z postępem w dziedzinie elektroniki. Nie oznacza to bynajmniej, że jednocześnie rośnie wydajność dysku. Do osiągnięcia wyników transferu prezentowanych w specyfikacjach niezbędne jest wykonanie testu, który nie ma nic wspólnego z rzeczywistością. W tym celu generowany jest sekwencyjny strumień danych złożony w wielkich bloków (1, 2, 4 MB). Jest to dobra metoda na sprawdzenie mocy napędów taśmowych, które są przeznaczone do obsługi sekwencyjnych strumieni danych. Nie sprawdza się jednak w przypadku dysków, których główne przeznaczenie to udostępnianie danych w sposób losowy. Aby poznać wydajność HDD trzeba sprawdzić jak będzie on sobie radził w warunkach, w których najczęściej przyjdzie mu pracować. Parametrem, który to najlepiej obrazuje, jest średnia ilość losowych operacji zapisu/odczytu na sekundę (IOPS). Wartości tej nie można znaleźć w specyfikacjach dysków twardych. Są tam jednak dostępne informacje, dzięki którym łatwo go obliczyć samodzielnie – prędkość obrotowa dysku (RPM) i średni czas pozycjonowania głowicy (average seek time). Parametry te określają generowane przez dysk opóźnienia w dostępie do danych. Cała reszta danych dostarczanych przez producentów nie jest istotna dla wydajności. Dotyczą one elektroniki, a w porównaniu z elementami mechanicznymi jest ona dużo szybsza. IOPS to informacja o tym, ile razy w ciągu sekundy dysk jest w stanie ustawić głowicę nad zadanymi sektorami. W tym celu trzeba obliczyć ile średnio trwa pojedynczy losowy dostęp do danych (average access latency). Jest to równe sumie opóźnień generowanych przez obroty dysku (average rotation latency) i ruch głowicy (average seek latency): average rotation latency = 60s / RPM / 2 average seek latency = (read seek time + write seek time) / 2 average access latency = average rotation latency + average seek latency Teraz wystarczy tylko wyliczyć ile operacji I/O przy takim opóźnieniu jest w stanie wykonać się w ciągu sekundy i otrzymujemy nasze średnie IOPS dla operacji losowych: average random IOPS = 1000ms / average access latency Przykład: dysk Seagate Barracuda 1TB 7200 RPM read seek time: 8,5 ms write seek time: 9,5 ms avarage rotation latency 60s / 7200 / 2 = 4,2ms avarage seek latency (8,5ms + 9,5ms) / 2 = 9ms average access latency 4,2ms + 9ms = 13,2ms average random IOPS 1000ms / 13,2ms = 75,75 Użycie takiego kalkulatora ułatwia liczenie. Dopiero znając wartość parametru IOPS można wyliczyć prędkość transferu danych dla różnych wielkości bloku: 75,75 * 4 kB = 303 kB 75,75 * 8 kB = 606 kB 75,75 * 32 kB = 2424 kB 75,75 * 128 kB = 9696 kB 75,75 * 512 kB = 38784 kB 75,75 * 1 MB = 75,75 MB Jak widać przy losowych operacjach, dopiero bardzo duże wielkości I/O pozwalają na uzyskanie szybkiego transferu danych. Wiemy, że w rzeczywistości komputery operują głównie małymi blokami. Dlatego też przy codziennej pracy trudno zaobserwować prędkości większe od 20 MB/s. Im więcej IOPS, tym wyniki będą lepsze. Problem jest taki, że najszybszy twardy dysk średnio wykonuje 186,92 losowych IOPS i raczej nie ma perspektyw na polepszenie tego wyniku. Od czasu IBM 350 pojemność dysków wzrosła 476625 razy (4,4 MB vs 2 TB). Wydajność tylko 112 razy (1,66 IOPS vs 186,92 IOPS). Niecałe 200 IOPS przy tak dużej ilości danych magazynowanych na pojedynczym HDD to bardzo mało. Już od dawna sposobem na zwiększenie komfortu pracy z dyskiem jest wykorzystanie pamięci półprzewodnikowej. Stosuje się ją jako cache w wielu miejscach: system operacyjny, kontroler, macierz, a także w samym HDD. Odciąża ona dysk. Dzięki temu operacje na najczęściej używanych obszarach danych są wykonywane znacznie szybciej. Im więcej pamięci podręcznej tym lepsze są efekty. Ta zasada była podstawą dla powstania rozwiązań SSD – Solid State Drive, czyli pamięci masowej pozbawionej ruchomych elementów mechanicznych. My name is Solidny, Stan Solidny Dane w tego typu rozwiązaniach przechowywane są nie na materiale magnetycznym, a w pamięci półprzewodnikowej. Warunkiem, jaki musi ona spełniać, jest utrzymanie stanu komórek po odłączeniu zasilania. Dla komputera prezentują się jako zwykły twardy dysk, co sprawia, że ich implementacja jest łatwa. SSD staje się coraz bardziej popularne. Dużą zasługę w tym ma dynamiczny wzrost produkcji i sprzedaży pamięci flash. Krótko mówiąc, technologia ta stała się na tyle tania, że używanie jej jako storage jest już opłacalne. Najbardziej znaną postacią SSD są pendrive’y USB. Idealne do przenoszenia danych między komputerami. Zastąpiły zawodne i mieszczące mało danych nośniki magnetyczne (dyskietki, zipy, taśmy). Kolejnym krokiem w rozwoju Solid State Drive było zastosowanie tej technologii w komputerze jako podstawowej pamięci masowej. W tym celu powstała ich nowa forma – kości flash zamknięte w obudowie standardowego dysku 3,5″, 2,5″ lub 1,8″. Do komunikacji z komputerem wykorzystują typowe interfejsy – SATA, SAS, FC. Pamięci flash w porównaniu z magnetycznymi talerzami mają wiele zalet: brak opóźnień wynikających z ruchu elementów mechanicznych dużo większa odporność na wstrząsy, upadki itp. zdecydowanie niższy pobór prądu bezgłośna praca czas odpowiedzi mniejszy o rząd wielkości (ms vs ns) brak konieczności chłodzenia napędu Na wydajność przekłada się to w postaci rewelacyjnej obsługi losowych operacji odczytu. Problemy z pisaniem W przypadku losowych zapisów nie jest już tak kolorowo. Wynika to z konstrukcji pamięci flash. Powstała ona jako pamięć o zapisie sekwencyjnym. Jej początkowe przeznaczenie to przestrzeń na firmware’y i BIOS’y gdzie taki tryb pracy sprawdza się znakomicie. Flash nie umożliwia bezpośredniej zmiany zawartości komórek pamięci. W tym celu należy wykonać najpierw operację kasowania. Dodatkowo nie można tego zrobić na pojedynczej komórce, tylko na całym bloku (erase segment). Wyklucza to losowy dostęp dla zapisu danych. Zapewnienie takiej funkcjonalności wymaga dodatkowych zabiegów. Każdy producent SSD realizuje to w inny sposób, różnymi algorytmami i z wykorzystaniem różnych dodatkowych komponentów sprzętowych. Brak standardu występuje również w przypadku sposobów radzenia sobie z drugą wadą pamięci flash, jakim jest jej stosunkowo krótka trwałość. Operacja kasowania segmentu komórek wymaga użycia wysokiego napięcia. Twórca tej technologii porównywał to z błyskiem lampy fotograficznej (flash). Efektem takiego traktowania półprzewodników jest degradacja ich właściwości. Zależnie od typu kości, prawidłowe funkcjonowanie komórki szacowane jest na od kilkudziesięciu tysięcy do kilkudziesięciu milionów cykli kasowania-zapisu. Jest to wystarczające dla pendrive’ów wykorzystywanych jako pamięć przenośna. Bez dodatkowych mechanizmów te liczby mogą się jednak okazać za małe w przypadku przestrzeni roboczych, na których zapisy są wykonywane bardzo intensywnie. Jak poznać SSD? Pamięć masowa oparta na półprzewodnikach to ciągle nowość. Aktualnie kilkanaście firm oferuje napędy SSD. Każda z nich ma swoje pomysły na ich budowę. Nie zawsze są one dobre. Różnice w jakości i wydajności są znaczne, a wybór właściwego rozwiązania jest trudny. O ile dla dysków twardych możliwe jest obliczenie mocy produktu na podstawie jego specyfikacji, to w przypadku SSD takiej możliwości już nie ma. Jedyny sposób na poznanie możliwości konkretnego produktu to właściwie przeprowadzone testy wydajnościowe. Wynikiem takich benchmarków będzie oczywiście średnia liczba losowych operacji. Część producentów publikuję te informacje. Trudno jednak uznać ich rzetelność skoro nie wiadomo, w jaki sposób zostały one obliczone/zmierzone. Organizacja Storage Performance Council, zajmująca się testowaniem rozwiązań pamięci masowej, póki co też nie opublikowała jeszcze wyników dla SSD. W takiej sytuacji pozostaje wykonać taki benchmark samodzielnie. Uzyskanie wiarygodnych wyników jest uzależnione od prawidłowego wykonania testów. W tym celu powinny zostać spełnione następujące warunki: Przed testami cała powierzchnia SSD kilkakrotnie zapisana losowymi danymi – Jakość algorytmów odpowiedzialnych za losowy zapis i przeciwdziałających utracie danych można poznać dopiero wtedy, gdy wartość każdej z komórek pamięci flash zostanie kilkakrotnie zmieniona. Osobne testy dla odczytu, zapisu i mieszanego strumienia I/O – W przypadku HDD zapis trwa tylko odrobinę dłużej niż odczyt. Do określenia wydajności wystarcza w tym wypadku tylko jeden parametr – IOPS. Duża różnica w czasie wykonania tych operacji na urządzeniach SSD wymusza zebranie aż trzech wyników: średnia ilość losowych operacji odczytu (OPS) – 100% odczytów; średnia ilość losowych operacji zapisu (IPS) – 100% zapisów; średnia ilość losowych operacji odczytu/zapisu (IOPS) – 50% odczytów / 50% zapisów Operacje I/O wykonywane bezpośrednio na surowym urządzeniu – Testy na systemie plików (NTFS, EXT3, …) nie będą wiarygodne ze względu na cache systemowy. Każdy test powinien trwać kilka godzin – Napędy SSD to w dużej części skomplikowane algorytmy zapisane w firmware. Aby się przekonać czy działają prawidłowo dobrze jest je sprawdzić pod maksymalnym obciążeniem w długim okresie czasu. Niedopasowana wielkość operacji I/O (un-aligned I/O) – Aktualnie pamięć Flash do zapisu używa 4kB segmentów danych. Pisanie mniejszym blokiem wymusza uruchomienie algorytmu, który najpierw odczyta zawartość całego segmentu, zmodyfikuje go nowymi danymi, a na koniec zapisze w docelowym miejscu (read-modify-write). Trwa to znacznie dłużej niż zapis całego segmentu. Testy można wykonać różnymi programami. Muszą one jednak mieć możliwość: generowania zarówno sekwencyjnego jak i losowego strumienia danych regulacji stosunku operacji odczytu do zapisu ustawienia różnych wielkości operacji I/O użycia surowych urządzeń określenia współczynnika trafień w cache Wszystkie te funkcjonalności ma aplikacja Vdbench. Jest to oprogramowanie napisane w języku Java co sprawia, że można je używać w różnych systemach operacyjnych i platformach sprzętowych. Przebieg testu przedstawiany jest w sposób tekstowy, ułatwiający interpretację wyników i tworzenie wykresów. Vdbench jest dostępny na zasadach wolnego oprogramowania. Na koniec… Historia HDD rozpoczęła się ponad 50 lat temu. Dzisiaj to urządzenie powszechne. Jest obowiązkowym elementem niemal każdego komputera. Kręci się w iPod’ach, kamerach, telewizorach… Znacząca większość informacji i wiedzy ludzkości jest magazynowana i udostępniana z dysków twardych. Technologia ta cały czas się rozwija. Dotyczy to jednak jedynie pojemności. Wydajność pozostaje bez zmian już od bardzo dawna. Mimo usilnych starań marketingu i reklamy, nie da się ukryć, że dysk jest “metalową kulą u nogi” współczesnych komputerów. Rozpowszechnienie rozwiązań Solid State jest szansą na znaczne polepszenie mocy pamięci masowej. Skok w wydajności przypomina przesiadkę z kart perforowanych na IBM 350. O ile o mocy HDD wiemy praktycznie wszystko, to wokół SSD ciągle jest mnóstwo tajemnic, spekulacji, nieprawdziwych lub nieaktualnych danych. Jednocześnie są to bardzo drogie rozwiązania. Część z dostępnych aktualnie produktów wydajnością nie odbiega od dysków twardych. Czasami okazuje się, że w realnych warunkach sprawują się one nawet gorzej. Inne rozwiązania sprawdzają się z powodzeniem nawet w macierzach. Na horyzoncie pojawiają się też nowe technologie pamięci półprzewodnikowych, które z czasem zastąpią niezbyt doskonały flash. Minie jeszcze parę lat zanim ta sytuacja się ustabilizuje. Prawdopodobnie pozostanie na rynku kilka firm, których napędy będą miały porównywalną wydajność. Wtedy wybór będzie równie prosty jak dziś w przypadku HDD. Póki co, aby nie wydać niepotrzebnie pieniędzy na produkt, który nie będzie spełniał naszych oczekiwań, pozostaje nam sprawdzać wyniki opisanych testów. Aktualnie są one trudno dostępne i szczątkowe. Ta sytuacja poprawi się wraz ze wzrostem popularności SSD. Niemniej, z pewnością Solid State Drive jest właściwym kierunkiem rozwoju pamięci masowej. Marek Wołynko, ekspert ds. pamięci masowych, Netia SA wmarow@
To oczywiste i chyba nie trzeba tego faktu specjalnie udowadniać, że ilość danych, jakie tworzymy rośnie. Sposobów na ich przechowywanie jest sporo, a producenci nośników kuszą nas coraz większą pojemnością, szybkością i - dla odmiany - coraz niższą ceną. Jaki nośnik wybrać jeśli zależy nam na niezawodności i bezpieczeństwie danych? Przygotowaliśmy dla Was porównanie niezawodności różnych nośników mamy do wyboru?Nośniki optyczne, takie jak płyty CD-R, DVD-R, czy Blue-RayDyski HDD i SSDPamięć FlashChmuraTaśmy magnetyczneNośniki optyczneJeszcze kilka lat temu płyty CD i DVD były jednymi z najpopularniejszych nośników wykorzystywanych do przechowywania dużej ilości danych - zwłaszcza wśród użytkowników domowych. Wynikało to ze stosunkowo wysokich cen dysków HDD, a tym bardziej SSD i ich małej pojemności. W porównaniu z nimi dyski optyczne były konkurencyjne, zarówno w kontekście ceny, jak i oferowanej pojemności. Producenci płyt deklarowali także stosunkowo długą żywotność tworzonych przez siebie nośników, co jednak dosyć szybko zostało zweryfikowane przez rzeczywistość. W zależności od producenta i wykorzystanej technologii, płyta powinna służyć nam od 5 do nawet 200 lat (nie wspominając o płytach z trawionego szkła, które w teorii powinny przetrwać 1 000 do 1 500 lat!), jednak czas użytkowania uzależniony jest od tak wielu czynników, że powinniśmy być przygotowani na to, że płyta przestanie być możliwa do odczytania w każdej chwili - i to raczej wcześniej niż grozi nośnikom optycznym? Przede wszystkim nasze niechlujstwo - przechowywanie w nieodpowiednich warunkach, zarysowywanie, zatłuszczenie (kto z nas nie chwytał płyt, pozostawiając na nich pełny zestaw śladów daktyloskopijnych?) to powszechne grzechy użytkowników. Ale okres użytkownika płyty skraca także skąpstwo producentów, którzy wykorzystują materiały niskiej jakości, oszczędzają na grubości warstw ochronnych, przyspieszając tym samym proces utleniania się warstwy tym problemem może okazać się także technologia. Czy za kilka, kilkanaście lat nadal będziesz posiadał sprzęt, który odczyta dane z posiadanych przez Ciebie płyt? Nowe komputery często w ogóle nie mają stacji dysków, a nawet jeśli tak, to nie obsłużą każdego formatów. CD-R, CD-RW, DVD-RAM, DVD-R, DVD+R, DVD-RW, DVD+/–R DL - każdy z tych formatów oznacza inną technologię i inny sposób odczytu, może się więc okazać, że niedługo nie uda Ci się zdobyć odpowiedniego czytnika do swojej i SSDRozwój technologii HDD i SSD doprowadził do znacznego obniżenia cen tego typu nośników, przy równoczesnym wzroście ich pojemności, co sprawia, że dyski optyczne przestały być opłacalnym nośnikiem danych. Skoro bowiem możemy kupić dysk o pojemności 1, a nawet 2 TB za kilkaset złotych, nagrywanie płyt przestało mieć jakikolwiek sens. Zarówno klasyczne dyski HDD, jak i SSD, a także ich hybrydy (SSHD) nadają się do tworzenia układów macierzowych, dzięki czemu ich możliwości w zakresie przechowywania czy archiwizowania danych są praktycznie nieograniczone. Jeśli przechowujemy większą ilość danych i chcemy mieć do nich dostęp online, możemy rozważyć zakup magazynu danych w celu stworzenia prywatnej chmury (koszt 6 TB w tej technologii to około 3 500 zł). Oczywiście czym bardziej rozbudujemy naszą infrastrukturę, tym więcej będziemy musieli ponosić związanych z tym kosztów - zakupu sprzętu, energii elektrycznej, dyski także nie zagwarantują wieczności naszym danym. W przypadku zapisu magnetycznego na dyskach HDD, zachodzi zjawisko zaniku ładunku magnetycznego. Nie jest to może szybko postępujący proces - około 1% rocznie, ale w perspektywie czasu, może być groźny dla naszych danych. Również dyski SSD nie zawsze gwarantują pełne bezpieczeństwo i niezawodność - szczególnie istotne są tutaj zakresy temperatur, w jakich urządzenie pracuje. Np. podniesienie temperatury o 5 C w pewnych warunkach może zmniejszyć o połowę gwarantowany czas przechowywania danych (choć sytuacja taka musi jeszcze spełniać dodatkowe warunki i jest raczej rzadko spotykana, o czym przekonują specjaliści Seagate’a, dementujący Internetowe plotki na ten temat). Również duże wahania temperatur mogą być dla takiego dysku i zapisanych na nim danych mordercze. Pamiętać trzeba także, że każdy dysk ma określoną żywotność, ograniczony cykl życia, co oznacza, że nie ma dysku, który będzie działał zawsze. Odpowiednia infrastruktura jest oczywiście w stanie utrzymywać zdolność operacyjną i uratować nasze dane - nawet w przypadku jeśli jeden (a nawet więcej) dysków ulegnie danych na pendriveMożna chyba uznać, że ten typ pamięci na stałe zagościł w naszych kieszeniach. A wszystko za sprawą małych kart SD i pamięci USB, czyli popularnych pendrive’ów, które pozwalają nam w bardzo wygodny sposób przechowywać i przenosić znaczne ilości danych. Podstawowym minusem tej technologii jest ograniczona liczba cykli zapisu i kasowania, po przekroczeniu której, dochodzi do nieodwracalnego uszkodzenia wykorzystanych zagrożenie wiąże się z największą zaletą nośników z pamięcią flash - ich rozmiar i poręczność, sprawiają, że równie łatwo jak je przenosić, można je również zgubić. Malutka karta SD uwielbia się gubić i wpadać w szczeliny z których nie jesteśmy w stanie jej wyjąć. Bywa też łakomym kąskiem (dosłownie) dla małych dzieci, lub psów, które lubią je gryźć. Pamięć USB pada z kolei często ofiarą uszkodzeń mechanicznych - głównie wynikających z nieumiejętnego wyjmowania z portu USB, ale także przypadkowego uderzenia, kopnięcia, zmiażdżenia. Pamiętać przy tym należy, że odzyskiwanie danych z tego typu nośników, jest znacznie bardziej skomplikowane niż w przypadku tradycyjnych nośników z oferty dostawców usług w chmurze, którzy gwarantują przestrzeń dyskową dostosowaną do naszych potrzeb, jest rzeczywiście wygodne. Większość popularnych dostawców zapewnia nam darmową usługę podstawową - nawet 500 GB pamięci masowej online do naszej dyspozycji. Nasze dane są w ten sposób zabezpieczone - ich kopie znajdują się w rozproszonych lokalizacjach na całym świecie, dzięki czemu ryzyko ich utraty jest jednak musimy zarządzać sporą ilość danych, cena takiej usługi może znacznie przekroczyć koszt własnej infrastruktury - przykładowo cena 10 TB w popularnej usłudze Google Drive to około 1200 USD, czyli ponad 4 tyś zł rocznie! Ponadto przechowywanie danych w chmurze może być postrzegane jako bardziej ryzykowne - w momencie kiedy wrzucamy nasze dane do Internetu, tracimy nad nimi kontrolę i zwiększamy możliwość wycieku danych. W związku z tym nie rekomenduje się wykorzystywania tej technologii do przechowywania danych wrażliwych i dobra taśmaWyraźnie widać, że czym większy rozmiar danych, które musimy przechowywać, tym większe koszty z tym związane. Jest to ogromny problem, który przede wszystkim dotyka przedsiębiorstwa, może w poważnym stopniu ograniczać ich rozwój - eksplozja ilości administrowanych i przechowywanych danych prowadzi bowiem do lawinowego wprost wzrostu kosztów utrzymywania infrastruktury. Dużym wyzwaniem jest więc znalezienie takiego rozwiązania, które zagwarantuje możliwie jak najlepszy stosunek ceny do pojemności i wydajności. W tym kontekście swoją drugą młodość przeżywają obecnie taśmy magnetyczne. Rozwiązanie to jest sprawdzone i stabilne - od dziesięcioleci wykorzystywane jest do przechowywania danych, cieszy się opinią bezpiecznego i bezawaryjnego. W czasach śrubowania parametrów sprzętu, a przede wszystkim szybkości, taśmom wróżono szybki koniec. Nic jednak bardziej mylnego - okazuje się bowiem, że dwie cechy tego rozwiązania mogą zadecydować o jego losie - ogromna pojemność ( najnowsze prototypy mogą przechowywać do 220 TB na jednej taśmie!) idzie w parze z energooszczędnością. Taśma zużywa 200-krotnie mniej energii niż twardy dysk… Idealne rozwiązanie do przechowywania i archiwizowania ogromnej ilości danych.
HDD i SSD to dwa główne rodzaje dysków, jakie stosuje się w komputerach osobistych – dużych PC i w laptopach. Obydwa dzielą się także na dyski wewnętrzne i zewnętrzne. Dyski HDD i SSD różnią się między innymi prędkością zapisu i odczytu. Wolisz większą pojemność za mniejszą cenę, czy może preferujesz ultra-szybki transfer danych, a pieniądze nie grają dla Ciebie roli? Tutaj dowiesz się, jak się od siebie różnią te dwa typy dysków. HDD i SSD znacząco różnią się w cenie, w oferowanych prędkościach. Jeśli posiadasz nowego laptopa, kupionego w przeciągu kilku ostatnich lat, istnieje spora szansa, że dysponujesz w nim właśnie dyskiem SSD. Natomiast w przypadku komputerów stacjonarnych często można jeszcze spotkać nośniki HDD – np: jako drugi dysk na dodatkowe dane. Przyjrzyjmy się najważniejszym różnicom, wadom i zaletom, zanim zdecydujesz się na zakup nośnika pamięci masowej. Co to jest dysk HDD?Dysk SSD – co to jest?Dyski hybrydowe – czym się charakteryzują?Jaki dysk wybrać HDD czy SSD?Wydajność dysków Co to jest dysk HDD? HDD to skrót od Hard Disk Drive i oznacza klasyczny dysk magnetyczny, w którym zapis danych odbywa się na wirujących talerzach wewnątrz komputera. Taki dysk złożony jest z ruchomego ramienia oraz kilku głowic (transduktorów) odpowiadających za odczyt i zapis danych na dysku. Ramię porusza się tuż przy powierzchni dysku, aby odczytywać dane, a proces ten można porównać do sposobu działania gramofonu odczytującego płyty winylowe (z tą różnicą, że głowica dysku nie dotyka fizycznie talerzy). Dyski HDD z reguły mieszczą się w 2,5-calowych lub 3,5-calowych obudowach – odpowiednio dla laptopów i dużych PC. Z końcem 2020 roku żaden nowy laptop sprzedawany w Europie Zachodniej nie posiada już dysku HDD (dane za firmą analityczną Context z lutego 2020). Ten typ dysku jest nadal dostępny dla komputerów stacjonarnych. Typowe pojemności HDD to obecnie pomiędzy 1 a 8TB (terabajtów), a według danych Seagate za ostatniego kwartał roku 2021, przeciętna pojemność sprzedawanych konsumentom dysków HDD wynosiła 5,4TB. Dysk SSD – co to jest? Solid State Drive, w skrócie SSD, to dysk zapisujący dane na połączonych ze sobą układach pamięci NAND flash. W przeciwieństwie do HDD, dyski SSD nie posiadają ruchomych części, a przez to mają znacznie mniejsze gabaryty, są całkowicie bezgłośne, a także o wiele dostępu jest tutaj znacznie krótszy niż w HDD, gdyż nie trzeba tutaj czekać na rozpędzenie się talerzy. Dyski SSD mogą być umieszczone w 2,5-calowych obudowach, ale także w postaci kart rozszerzeń do złącza PCIe, lub zamontowane bezpośrednio na płycie głównej w gniazdach typu Montowanie dysku SSD bezpośrednio na płycie głównej jest obecnie popularne w wielu laptopach z wysokiej półki, a także komputerach typu All-in-One. Dyski SSD najczęściej spotykamy w wariantach 128, 256, 512GB, 1TB, 2TB. Dyski hybrydowe – czym się charakteryzują? Interesującym, ale już coraz rzadziej stosowanym typem nośnika pamięci masowej są dyski hybrydowe, tzw. SSHD, łączące technologie HDD i SSD. Znajdziemy w nich więc tradycyjne talerze magnetyczne wraz z modułem pamięci NAND Flash. Tego typu dyski są szybsze od HDD, ale i tańsze od SSD. Komponenty SSD zapewnią szybszy rozruch komputera, jak również krótszy czas dostępu do plików systemowych czy też programów. Natomiast tradycyjny napęd magnetyczny służy do przechowywania plików, które nie wymagają natychmiastowego dostępu. W dobie coraz tańszych dysków SSD, napędy hybrydowe są już jednak obecnie rozwiązaniem dość rzadko spotykanym. SSD i HDD – który dysk wybrać? Jeśli zastanawiasz się, czy wybrać dysk SSD czy HDD, jest kilka czynników, które warto rozważyć. Cena – kiedyś dyski SSD były o wiele droższe niż HDD. Teraz jednak nośniki SSD są dostępne w znacznie przystępniejszych cenach, choć nadal zauważalnie wyższych. W praktyce za dysk SSD o pojemności 500GB zapłacimy tyle samo, co za 1TB HDD. Różnice w cenach mogą być bardziej odczuwalne przy wyższej pojemności. Szybkość – jednak to co zyskujemy w nośniku SSD to niewiarygodna szybkość uruchamiania systemu. Wynosi zaledwie kilka sekund, szybkość kopiowania plików i uruchamiania aplikacji. Typowy HDD kopiuje pliki z prędkością 15-30MB/s, podczas gdy tani SSD około 500MB/s Najnowsze NVMe SSD osiągają nawet 4GB na sekundę! Jeśli mówimy o grach, to również otrzymamy bardzo namacalne różnice. Czasy ładowania są drastycznie skrócone, co przekłada się na krótsze czekanie na załadowanie się poziomu, czy też wczytywanie zapisanego stanu gry. Wystarczy raz spróbować pograć na dysku SSD, by już nigdy nie chcieć wracać do HDD. HDD i SSD – wydajność Nośniki SSD są lepsze pod każdym względem w wydajności niż HDD, choć wcale nie oznacza to, że trzeba po nie sięgać w każdej sytuacji. Niestety dyski SSD, choć coraz tańsze, nadal jeszcze nie zbliżyły się do cen HDD. Dlatego jeśli planujesz używać dysku głównie do przechowywania dużej ilości danych, np. kolekcji zdjęć czy nagrań wideo – bardzo pojemny dysk HDD może okazać się rozsądnym rozwiązaniem, ze względu na niską cenę. Natomiast w każdym innym przypadku lepszy będzie dysk SSD Interesującą opcją może być także używanie dysków HDD i SSD razem. Wtedy to nośnik HDD może być wykorzystywany do przechowywania danych niewymagających szybkiego dostępu, natomiast SSD służyłby jako dysk systemowy, a także nośnik do gier oraz programów. Może Cię zainteresować: Przechowywanie danych w chmurze. Najlepsze dyski internetoweBootowalny pendrive z Windows 10 – jak zrobić?Pamięć DDR5 – co już wiadomo o pamięciach nowej generacji?Czym jest defragmentacja dysku? Jak ją wykonać?
dlaczego nośniki pamięci masowej mają coraz większe pojemności