Dysk twardydysk HDD, napęd dysku twardego) – dysk komputerowy, pamięć masowa nośnik magnetyczny do przechowywania . Nazwa „dysk twardy” wynika z zastosowania twardego materiału jako podłoża dla właściwego nośnika, w odróżnieniu od dysku miękkiego, w którym nośnik magnetyczny nanoszono na podłoże elastyczne.
WD ma w ofercie serię RED stworzoną specjalnie z myślą o serwerach NAS ), a następnie je w niej zainstalować. Producent obudowy dostarcza, rzecz jasna, oprogramowanie do zarządzania tak powstałym dyskiem sieciowym. Ceny obudów ponownie wahają się od kilkuset do nawet kilkudziesięciu tysięcy złotych, w zależności od konfiguracji
W ciągu ostatniej dekady urządzenia pamięci masowej zasilane z zewnętrznej magistrali wzrosły zarówno pod względem pojemności, jak i szybkości. Podczas gdy PCIe / NVMe jest sterownikiem prędkości dysków SSD, szybsze interfejsy hosta (takie jak Thunderbolt 3 i USB 3.x) pomogły po stronie pamięci masowej podłączanej bezpośrednio
Kliknij w prawym górnym rogu ikonę puli pamięci masowej, którą chcesz usunąć, a następnie wybierz opcję Usuń. Przeczytaj i postępuj zgodnie z instrukcjami wyświetlanymi w oknie podręcznym. Kliknij przycisk Usuń, aby kontynuować. DSM 6.2 i starsze: Przejdź do Zarządzanie przechowywaniem przechowywaniem > Pula pamięci masowej.
Utwórz kopię zapasową wszystkich danych. Wyłącz serwer Synology NAS, a następnie wymień wszystkie dyski na dyski o większej pojemności. Włącz serwer Synology NAS, a następnie zainstaluj ponownie system DSM. Utwórz nową pulę pamięci masowej i wolumen. Przywróć dane z kopii zapasowej do nowej puli pamięci masowej i wolumenu.
Tego typu nośniki oferują zwykle największą pojemność pamięci, najczęściej od 500 GB do ponad 2 TB. Dysk zewnętrzny pozwoli na przechowywanie i przenoszenie danych, a nawet mniejsza pojemność 500 GB to wystarczająca ilość miejsca, aby pomieścić ponad 100000 zdjęć, 60 godzin filmów czy 7000 godzin muzyki. Dyski zewnętrzne to
63yiBp. Jedna z sześciu kart pamięci jednostki pamięci masowej PDHU na pokładzie sondy Gaia. Fot. SYDERAL SA Podobnie jak w komputerach na Ziemi, tak w urządzeniach wysyłanych w przestrzeń kosmiczną gromadzonych jest coraz więcej danych. Stąd naukowe sondy kosmiczne oraz wykonujące szereg zadań satelity krążące wokół planety muszą być wyposażane w bezpieczne, trwałe i pewne nośniki pamięci. Przełomem może być tutaj szerokie wdrożenie zastosowania pamięci typu Flash, nad czym intensywnie pracuje dla ESA firma SYDERAL Polska z Gdańska. Stosowane powszechnie w komputerach nośniki pamięci służą zapisywaniu programów i przechowywaniu danych. Tego rodzaju pamięci dzielą się na dwa podstawowe typy: ulotne oraz nieulotne (trwałe). Pamięci ulotne Do pamięci ulotnych zaliczają się na przykład te reprezentujące technologie SRAM czy SDRAM. Przykładem tego rodzaju pamięci, wykorzystywanej chociażby w komputerach osobistych, jest pamięć operacyjna. Najbardziej podstawową cechą pamięci ulotnej jest to, że dla swojego działania potrzebuje ona ciągłego zasilania energią elektryczną. W momencie odłączenia zasilania wszystkie dane z takiej pamięci znikają. Co za tym idzie, pamięci ulotne cechują się generalnie większym poborem mocy niż pamięci nieulotne. Należy jeszcze dodać, że nie ma tutaj określonego limitu liczby cykli nagrywania i kasowania danych, po którym taka pamięć ulegałaby zużyciu. Pamięci ulotne cechuje również prostsze niż w przypadku pamięci trwałych zarządzanie przepływem danych oraz mniejsza niż w przypadku tych drugich pojemność nośnika pamięci przypadająca na jednostkę objętości. Pamięci nieulotne Główną zaletą pamięci nieulotnych jest fakt, że zmagazynowane na nich dane nie ulegają skasowaniu wraz z odcięciem dostępu energii elektrycznej do nośnika pamięci. W związku z tym mogą potrzebować tej energii istotnie mniej. Przykładem takiej pamięci są karty pamięci, na przykład te działające w standardzie Secure Digital bądź Memory Stick. Charakteryzuje je to, że nośniki o dużej pojemności mogą mieścić się w małej objętości. W stosunku do pamięci ulotnych dużo bardziej skomplikowany jest tutaj sposób zarządzania danymi. Przykład pamięci nieulotnej stanowi pamięć Flash, będąca następcą pamięci EPROM. Tego typu pamięć ma ograniczoną żywotność, jej komórki ulegają zużyciu. Zwykle można na nich wykonać do 100 tys. operacji zapisu/kasowania. W przestrzeni kosmicznej Pamięci masowe tworzone pod kątem pracy w surowych warunkach kosmicznych muszą rzecz jasna cechować się szczególną wytrzymałością. Wskazana jest tu między innymi zdolność do pracy w skrajnych temperaturach. Dodatkowo, nośnik takiej pamięci pracujący na pokładzie statku kosmicznego musi być zabezpieczony przed szkodliwym dla elektroniki działaniem promieniowania kosmicznego. Sprzedaż nośników pamięci Flash stale się rozwija. Znajdują one coraz szersze zastosowanie również w sektorze kosmicznym. W kontekście rozwoju swoich programów kosmicznych Europa będzie potrzebować tego typu pamięci masowych dla swoich licznych satelitów. Weźmy choćby przykład programu obserwacji Ziemi Copernicus Komisji Europejskiej. Na jego dalszy rozwój zostało niedawno przeznaczone kolejne 96 mln euro. Operujące w ramach programu Copernicus satelity Sentinel nieustannie gromadzą ogromne ilości danych pochodzących z obserwacji planety, które to dane są następnie przesyłane na Ziemię. Wykorzystuje się je bardzo szeroko w administracji, rolnictwie czy zarządzaniu kryzysowym. Pamięć masowa może też znajdować niezwykle istotne zastosowanie w misjach naukowych ESA, kiedy to dedykowane sondy kosmiczne gromadzą informacje o egzoplanetach czy gwiazdach Drogi Mlecznej. Przykładem misji poświęconej temu ostatniemu celowi jest Gaia. Realizująca ją sonda sporządza dokładną trójwymiarową mapę naszej Galaktyki. Na pokładzie sondy Gaia znajduje się jednostka pamięci masowej (ang. Payload Data Handling Unit (PDHU)), od szwajcarskiej firmy SYDERAL. Zadaniem jednostki PDHU jest przetwarzanie pozyskiwanych danych, ich sortowanie, a następnie zapisywanie w pamięci wykonanej w technologii SDRAM. Mamy tu więc do czynienia z pamięcią ulotną. Jednostka pamięci masowej Payload Data Handling Unit (PDHU) dla sondy Gaia. Fot. SYDERAL SA Wszystko wskazuje natomiast na to, że przyszłością misji kosmicznych jest jednak wykorzystanie pamięci nieulotnych typu Flash. Przemawia za tym przede wszystkim większe bezpieczeństwo gromadzonych danych i brak ryzyka ich utraty na skutek przerwy w zasilaniu nośnika pamięci. Nie bez znaczenia jest również możliwość zmieszczenia nośnika pamięci o większej pojemności w mniejszej objętości oraz mniejsze zapotrzebowanie pamięci Flash na energię elektryczną. Wyzwaniem pozostaje natomiast w tym przypadku bardziej złożone sterowanie tego typu pamięcią polegające na kontroli równomiernego zużycia bloków pamięci, detekcji uszkodzonych obszarów pamięci, czy też zaimplementowanie kodowania korekcyjnego. Patrząc z szerokiej rynkowej perspektywy jasnym jest, że popyt na wytrzymałe i niezawodne nośniki pamięci dla misji kosmicznych będzie rósł. Jak już powyżej nakreślono, będzie to widoczne szczególnie przy realizacji coraz bardziej złożonych misji naukowych oraz pośród gromadzących ogromne ilości danych satelitów obserwacji Ziemi. Tą ostatnią dziedziną zajmuje się, obok samej Unii Europejskiej, coraz więcej firm prywatnych, jak choćby Planet, ICEYE, Spire Global, DigitalGlobe, UrtheCast czy Airbus Defence & Space. Z kolei niedawny przykład na to, jak ważna może być odpowiednia pamięć w sondzie kosmicznej, pochodzi z misji NASA New Horizons. Dnia 1 stycznia 2019 r. sonda ta minęła odległą planetoidę z pasa Kuipera, a w drugiej połowie tego miesiąca New Horizons przesłała na Ziemię dobrej jakości zdjęcie odwiedzonego obiektu. Obraz ten wcześniej został skompresowany, sformatowany i zapisany właśnie w pamięci typu Flash. Nisza dla polskiego gracza Zastosowanie w misjach kosmicznych pamięci masowych typu Flash wciąż jest nowym trendem. W Europie zajmuje się tym bardzo nieliczna grupa przedsiębiorstw. W gronie tych firm na europejskim rynku jest jeszcze miejsce dla kolejnego podmiotu. W zaistniałej sytuacji owo miejsce skutecznie stara się zagospodarować SYDERAL Polska. To firma dostarczająca rozwiązania z zakresu elektroniki i oprogramowania dla przemysłu kosmicznego. Jej misją jest dostarczanie wysokiej jakości produktów oraz otwartość na nowe rozwiązania w branży inżynierii kosmicznej. Jednostka PDHU po integracji z sondą Gaia. Fot. Astrium Przedsiębiorstwo SYDERAL Polska zdobyło w ramach ESA PLIIS (Polish Industry Incentive Scheme) kontrakt ESA na opracowanie projektu urządzenia „Controller for Flash Mass Memory (FMM)”. Realizacja zadania rozpoczęła się w styczniu 2019 r. i zakończy się w pierwszej połowie roku 2020. W ramach projektu przedsiębiorstwo koncentruje się na rozwinięciu takiego modułu pamięci, który będzie mógł stanowić podstawę dla rozwiązań opracowywanych pod kątem przyszłych misji kosmicznych. Z takiej podstawy będzie można skorzystać przy budowie pamięci masowych oraz modułów pamięci zintegrowanych bądź to bezpośrednio z komputerem pokładowym statku kosmicznego bądź z konkretnym instrumentem na pokładzie takiego statku. W ramach projektu dotyczącego kontrolera FMM dla ESA chodzi o: zaprojektowanie architektury o skalowalnej pojemności pamięci; opracowanie kontrolera do pamięci Flash (FPGA); implementację zabezpieczenia danych. Cele te będą zrealizowane poprzez zaprojektowanie, skonstruowanie i integrację oraz przeprowadzenie testów modelu demonstracyjnego. Rozwiązanie ma osiągnąć poziom gotowości technologicznej TRL-4, co oznacza że „działanie komponentu technologii lub jej podstawowych podsystemów zostało sprawdzone w warunkach laboratoryjnych”. Docelowo, produkcja kontrolera będzie odbywać się w Polsce, przy zaangażowaniu krajowego partnera. Praca nad rozwojem tego komponentu przyczyni się do rozwijania nad Wisłą ważnej, innowacyjnej technologii, która znajdzie zastosowanie nie tylko w sektorze kosmicznym. Przyszłość SYDERAL Polska ubiega się również w ESA o kolejny kontrakt w ramach PLIIS. Tym razem chodzi o zadanie „Scalable Mass Memory Module”, co byłoby de facto kontynuacją obecnie realizowanego projektu. O nowy kontrakt firma stara się jako członek konsorcjum, które stworzyła specjalnie do tego celu wspólnie z niemieckim OHB System. Wstępne wymagania, zawarte we wspólnej ofercie obu podmiotów dla ESA, zostały opracowane na podstawie doświadczeń nabytych przy realizacji misji obserwacji Ziemi prowadzonych przez OHB. Dzięki temu proponowane przez konsorcjum rozwiązanie będzie odpowiednio dopasowane do potrzeb rynku satelitów w najbliższych latach. Już przy obecnie realizowanym projekcie FMM SYDERAL Polska dąży do dopasowania tworzonego systemu pod kątem wymagań otrzymanych od OHB. W ten sposób polskie przedsiębiorstwo może osiągnąć dla swoich podzespołów pełną zgodność z technologicznymi oczekiwaniami głównych wykonawców (ang. primes) systemów satelitarnych na europejskim rynku. To daje podstawy do obustronnej dobrej współpracy i niezagrożonej kontynuacji rozwoju nośników pamięci masowej Flash dla zastosowań kosmicznych. Tekst powstał we współpracy z SYDERAL Polska.
W najbliższym roku nie będziemy świadkami wprowadzania nowych technologii pamięci masowych, które mogłyby mieć duże znaczenie. Zamiast tego będziemy obserwować popularyzację i udoskonalanie stosowanych standardów. W najbliższym roku nie będziemy świadkami wprowadzania nowych technologii pamięci masowych, które mogłyby mieć duże znaczenie. Zamiast tego będziemy obserwować popularyzację i udoskonalanie stosowanych standardów. Postęp w technologiach pamięci masowej i wdrożenie nowinek postępuje znacznie wolniej, niż w przypadku procesorów czy kart graficznych. Od wstępnej koncepcji do przyjętego standardu i produktów na rynku upływa czasem nawet kilka lat. Później produkty dojrzewają, zostają udoskonalone, stają się szybsze, bardziej pojemne, ale w swoich założeniach wciąż podobne do modeli sprzed kilku lat. Tego właśnie będziemy świadkami w 2004 roku. Trend 1. Nagrywarki DVD +/-R/RW Nagrywarki DVD, dzięki spadającym cenom i obsłudze wielu formatów, podbiją ostatecznie w 2004 roku rynek. Nagrywarki CD-R/RW to już przeszłość! Wniosek to może jeszcze nieco zbyt śmiały, ale w perspektywie kilkunastu miesięcy bliski prawdy. Co nas skłania do tego twierdzenia? Prosta prawda, że lepsze jest wrogiem dobrego, a lepsze są nagrywarki DVD, które jednocześnie potrafią nagrywać płyty CD. Urządzenia tego typu są na rynku już od pewnego czasu, ale dopiero teraz ich sprzedaż powinna wzrosnąć z kilku powodów. Pierwszym jest, oczywiście, spadek cen. Najtańsze modele można kupić już za 700 zł, podczas gdy na początku roku kosztowały około 2500 zł. Współczujemy wszystkim, którzy w poszukiwaniu nowinek tak bardzo przepłacili. Po drugie, coraz więcej nagrywarek obsługuje co najmniej dwa formaty, najczęściej ze znaczkiem + oraz -. Zgodność tylko z jednym formatem, przy braku ostatecznego, dominującego standardu, powstrzymywała wiele osób przed zakupem starszych nagrywarek. Możliwość wyboru jednego z dwóch daje praktycznie pewność, że nagrane płyty będzie można na przykład odtworzyć w prawie każdym stacjonarnym odtwarzaczu DVD. I wreszcie - nagrywanie płyt CD osiąga poziom zbliżony do tego, który znamy z samodzielnych nagrywarek CD-R/RW. Pojawiły się już pierwsze modele nagrywarek DVD, które płyty CD wypalają z prędkością x40. W takim wypadku kupowanie oddzielnej nagrywarki CD przestaje mieć sens, a zaoszczędzone pieniądze można przeznaczyć na zakup bardziej zaawansowanego urządzenia. W tej chwili najszybsze modele nagrywają płyty typu R z prędkością x4, a płyty RW z prędkością x2,4. Wszystkie znaki na niebie i ziemi wskazują jednak, że już na początku nowego roku w sprzedaży pojawią się modele x8, które całą płytę typu R będą mogły nagrać w ciągu mniej więcej 10 minut! Oznacza to, że przyszłość tego typu urządzeń rysuje się w różowych barwach i zapewne podążać będą taką samą ścieżką, jak wcześniej napędy CD-ROM, nagrywarki CD i napędy DVD. A to oznacza, że za mniej więcej 3 lata nagrywarka DVD powinna kosztować zaledwie 200-300 zł. Trend 2. USB Stick Najpierw było o dużych pojemnościach, teraz będzie o mniejszych, ale niezwykle użytecznych. Pamięci USB Stick (typu flash, podłączane przez USB) rozpoczęły podbój rynku! Stanowią idealny wymiennik dyskietki, która nie ma już racji bytu. Popularne modele mają pojemności od 32 do 256 MB i coraz częściej zgodne są ze standardem USB dzięki czemu transfer danych odbywa się błyskawicznie. Lista potencjalnych zastosowań tego typu pamięci jest bardzo długa i wcale nie ogranicza się do przenoszenia plików. Fantastycznych pomysłów w tym zakresie powstaje bardzo wiele, część z nich ma charakter rozszerzeń sprzętowych, część zaś polega na inteligentnym wykorzystaniu oprogramowania. Przykłady można mnożyć. Pierwszym z brzegu jest hybryda - odtwarzacz MP3 i USB Stick w jednym, czyli MuVo firmy Creative. Może działać jak typowa przenośna dyskietka, ale po dołożeniu drugiego modułu zamienia się w wygodny miniaturowy odtwarzacz. Miniaturowy aparat cyfrowy zintegrował z USB Stickiem Philips. Od strony programowej dostępne są na przykład specjalne dystrybucje Linuksa z bogatym pakietem przydatnych narzędzi, które można uruchamiać bezpośrednio z USB Sticka. Firma IOmega przygotowała bogaty pakiet zmodyfikowanych programów, które uruchamiają się bezpośrednio z USB Stick, bez instalacji. Są wśród nich narzędzia biurowe, internetowe i wiele innych. Trend 3. Serial ATA Dyski Serial ATA nie są wprawdzie dużo szybsze niż obecne dyski IDE, ale wygodniejsze w montażu i mają dużo większy potencjał na przyszłość. W 2004 roku dyski Serial ATA powinny już dominować w sprzedaży. Od kilku miesięcy praktycznie wszystkie płyty główne są już wyposażone w odpowiednie kontrolery, a dodatkowy kontroler IDE tylko niepotrzebnie podnosi cenę płyty głównej. Naszym zdaniem, przełom nastąpi wraz z wprowadzeniem chipsetów Grantsdale i magistrali PCI Express. Będzie to moment, w którym wiele starych technologii zostanie odesłanych do muzeum, a wśród nich właśnie dyski IDE. Trend 4. Ku terabajtom Kilka lat temu informacja, że jakiś potężny system komputerowy wyposażony jest w pamięć dyskową liczoną w terabajtach, mogła wywoływać zdumienie. Tymczasem dzisiaj standardem stają się dyski powyżej 100 GB, a za nieco powyżej 1000 zł można kupić dysk 200 GB. Biorąc pod uwagę, że niektóre płyty główne pozwalają podłączyć nawet 12 twardych dysków, a standardem jest sześć, oznacza to, że możesz mieć w komputerze bez trudu (a jedynie ponosząc pewne koszty) nawet ponad 2 TB powierzchni dyskowej. Trendy w pigułce Zalety Serial ATA - coraz bardziej uniwersalne i coraz bardziej pojemne nośniki pamięci masowych. Wady Dyski IDE - niech spoczywają w spokoju.
Pamięć masowa może być instalowana bezpośrednio w serwerach w postaci dysków tworzących tzw. system DAS (Direct Attached Storage), jako specjalizowany, dodatkowy serwer pamięci masowej NAS (Network Attached Storage) udostępniany przez sieć LAN lub WAN, albo też zestaw urządzeń pamięciowych wykorzystujących oddzielną dedykowaną sieć SAN (Storage Area Network). Tego rodzaju architektury są podstawą systemu pamięci w każdym systemie IT. Należy jednak zwrócić uwagę, że stopniowo rośnie też popularność pamięci masowych, oferowanych jako usługa świadczona w chmurze. W tym przypadku usługodawca buduje własny system pamięci, z zasady oparty na architekturze SAN, a następnie udostępnia pojemność zewnętrznym użytkownikom za pośrednictwem internetu lub dedykowanych łączy sieciowych. Budując własny system pamięci masowej, trzeba przede wszystkim znaleźć odpowiedź na pytanie: kiedy wystarczy skorzystać z pamięci DAS, a kiedy warto wdrożyć zewnętrzną pamięć NAS lub sieć SAN? Odpowiedź zależy od aplikacji oraz indywidualnych wymagań dotyczących wydajności i niezawodności systemu. Zobacz również:HPE zaprezentowało serwer nowej generacji HPE ProLiant RL300 Gen11 Należy również zwrócić uwagę, że rozwój technologii i coraz bardziej podobne funkcje różnych rozwiązań pamięci masowych - stopniowo zacierają granice między systemami NAS i SAN. Ponadto, już od kilku lat rozwijane są koncepcje sieci konwergentnych, które umożliwiają łączenie wszystkich urządzeń pracujących w systemie IT przy wykorzystaniu jednolitej infrastruktury sieciowej. Sieci konwergentne są uważane za technologię, która w niedalekiej przyszłości opanuje centra danych. Pamięci masowe w sieci Już w latach 80. ubiegłego wieku pojawiła się koncepcja NAS, jako urządzenia udostępniającego pamięć masową serwerom plików pracującym pod kontrolą NetWare lub Windows i obsługującym komputery klienckie w sieci typu klient-serwer. A pierwszym producentem, który opracował i wprowadził do sprzedaży pamięci NAS w formie urządzeń typu appliance, była firma NetApp (Network Appliance). Obecnie pamięci NAS są wykorzystywane przez miliony użytkowników do przechowywania systemów plików obsługujących aplikacje, takie jak Microsoft Exchange czy SQL Server. W porównaniu z wewnętrznymi, zainstalowanymi bezpośrednio w serwerze dyskami DAS, pamięci NAS mają wiele zalet. Jest to rozwiązanie bardziej uniwersalne, które z reguły oferuje większą skalowalność pojemności niż DAS, i umożliwia obsługę wielu aplikacji, serwerów i urządzeń klienckich. Natomiast u podstaw SAN leży idea, by oddzielić wymianę danych między pamięciami masowymi i serwerami - od ruchu obsługiwanego przez standardowe sieci LAN i WAN. Umożliwia to istotne zwiększenie wydajności takich aplikacji, jak: transakcyjne bazy danych, systemy ERP lub CRM. Jest to więc rozwiązanie stosowane w dużych lub średnich firmach. Oddzielenie serwerów aplikacyjnych od SAN i podłączenie ich do wielu urządzeń pamięci, przy wykorzystaniu dedykowanej sieci Fibre Channel, specjalnie zaprojektowanej do takich zastosowań, daje wiele korzyści. System taki może być łatwo skalowany, ale przede wszystkim ma wyższą wydajność i niezawodność w porównaniu z rozwiązaniami wykorzystującymi pamięci NAS. Zwolennicy rozwiązań SAN podkreślają, że w systemach obsługujących biznesowe aplikacje o znaczeniu krytycznym, w których wydajność jest parametrem kluczowym, zastosowanie pamięci NAS jest trudne do zaakceptowania. Z zasady bowiem, wykorzystanie sieci LAN do wymiany danych z pamięciami masowymi i jednocześnie obsługi ruchu generowanego przez serwery i urządzenia klienckie będzie powodować konflikty i negatywnie wpływać na wydajność aplikacji. Ale wielu użytkowników systemów NAS nie zgadza się z taką opinią, twierdząc, że w praktyce nigdy nie mieli z tym problemu i nie ma zasadniczych powodów, by pamięci NAS nie stosować do obsługi krytycznych aplikacji biznesowych. Dyskusje i spory między zwolennikami NAS i SAN mają często charakter ideologiczny, wynikający z przyzwyczajeń i doświadczeń użytkowników. A rozwój technologii powoduje, że zmienia się perspektywa spojrzenia na te systemy i wiele klasycznych argumentów traci na znaczeniu. W praktyce zarówno pamięci SAN, jak i NAS można czasami zalecić jako najlepsze rozwiązanie, pod warunkiem że spełniają wymagania konkretnej aplikacji. Wybór często nie jest jednak prosty i oczywisty. Dodatkowym problemem dla osób odpowiedzialnych za projektowanie systemu IT jest rosnąca oferta pamięci NAS z interfejsami iSCSI, które oferują funkcje typowe dla pamięci SAN. Dlatego osoby tworzące plany rozwoju architektury systemów pamięci masowej powinny dobrze rozumieć różnice techniczne oraz znać wady i zalety obu tych technologii. Klasyczna różnica między pamięciami NAS i SAN Chyba każdy, kto choć trochę miał do czynienia z pamięciami masowymi, jako podstawową różnicę między urządzeniami NAS i SAN wymieni zastosowanie systemu plików w NAS oraz bloków danych w SAN. Pamięci NAS, zależnie od wykorzystywanego systemu plików, z reguły oferują zestaw zaawansowanych funkcji, takich jak mechanizmy kontroli dostępu, indeksowanie plików itp. Ich system operacyjny pozwala na udostępnianie plików bezpośrednio urządzeniom klienckim podłączonym do sieci. podstawowa topologia systemu wykorzystującego pamięci NAS Natomiast w sieci SAN pamięć masowa może być współdzielona, ale jest widoczna jako dysk dostępny na poziomie bloków danych. Większość pamięci SAN wykorzystuje sieć Fibre Channel, czyli protokół specjalnie zaprojektowany do takich zastosowań. Wraz z popularyzacją standardów iSCSI i FCoE, które umożliwiają dostęp do pamięci dyskowych na poziomie bloków, ale przy wykorzystaniu protokołu TCP/IP lub sieci Ethernet, klasyczne różnice między NAS i SAN stają się coraz mniej wyraźne. Podstawowa topologia sieci SAN Choć generalnie wdrożenie systemu SAN jest znacznie bardziej skomplikowane niż pamięci NAS, to koncepcja architektury SAN jest prostsza i oparta na współdzieleniu danych na znacznie niższym, podstawowym poziomie. Polecamy: Pamięci masowe - poradnik kupującego
Dlaczego nośniki pamięci masowej mają coraz więcej pojemności? Bo te osoby, które tworzą nośniki pamięci mają coraz lepsze pomysły jak wbudować więcej Gigabajtów (GB). Myślę, że dobrze i licze na naj. ;)
Twarde dyski coraz częściej stanowią wąskie gardło w systemach IT. Jednocześnie obserwujemy spadek cen pamięci flash. Dlatego w centrach danych zaczynają pojawiać się półprzewodnikowe nośniki SSD, zwiększające wydajność aplikacji czy niezawodność. Jednak koszty inwestycyjne są wciąż wysokie, a nie w każdym zastosowaniu ta technologia wypada lepiej niż HDD. Dlatego należy z rozwagą podchodzić do każdego wdrożenia. Dyski twarde w ciągu ostatnich dekad stały się wszechobecne, ale ich rola spada. Owszem, wciąż obserwujemy, że jest jeszcze przestrzeń do rozwoju technologii HDD i nie chodzi wcale o większe pojemności czy szybkość transferu, ale całkiem nowe rozwiązania. Przykładem są dyski Ultrastar HE 6 o pojemności 6 TB firmy HGST. Powietrze zastąpiono w nich helem, co według producenta pozwoliło osiągnąć 50-procentowy wzrost pojemności (dysk ma 7 talerzy), przy jednoczesnym ograniczeniu poboru prądu o 23 % i zmniejszeniu wagi o 40 %. Mimo takich nowinek architektura chmurowa i narastająca fala danych płynących z urządzeń mobilnych w połączeniu z coraz szybszymi i pojemniejszymi nośnikami SSD sprawiają, że dyski twarde postrzega się jako technologię odchodzącą w przeszłość. Z jednej strony wymagania dotyczące bardzo szybkiego dostarczania danych w środowiskach chmurowych stawiają technologię SSD jako kandydata do budowania korporacyjnych macierzy. Z drugiej strony, nośniki flash są bardzo przydatnym dodatkiem do klasycznych dysków twardych. Taki tandem pozwala na budowanie bardzo skalowalnych rozwiązań macierzowych. Wprowadzenie technologii Solid-State umożliwia wyposażenia macierzy w bardzo szybki cache czy mechanizmy typu data off-load. Daje to organizacjom nieosiągalne dotychczas możliwości w zakresie tworzenia wielowarstwowych środowisk, którego mogą być automatycznie dostosowywane do bieżących wymagań wydajnościowych i pojemnościowych. Zobacz również:Nowe dyski do serwerów trafiają na rynek - mają 22 TB pojemności Niewielka część przedsiębiorstw, które będą analizować duże zbiory danych (Big Data), będzie wymagać pełnej dostępności do najszybszych rozwiązań. Jednak z reguły organizacje, które optują za rozwiązaniami SSD, przeinwestują, ponieważ nie będą w stanie w pełni wykorzystywać możliwości tych nośników. Dane nie są takie same Błędem, który popełniają orędownicy SSD jest założenie, że wszystkie dane są takie same. Owszem, obecny przyrost ilości danych jest generowany głównie w procesach obsługi usług internetowych i transakcyjnych, ale nie jest to pełen obraz współczesnego środowiska danych. Świetnym przykładem nierówności między zbiorami danych jest cyfrowy monitoring wideo. W agencjach rządowych, urzędach, bankach czy biurach 24 godziny na dobę rejestruje się obraz z newralgicznych miejsc, co generuje popyt na duże przestrzenie dyskowe, nawet przy stosowaniu kompresji, deduplikacji i innych technik ograniczających ilość danych. Jeśli już średniej wielkość organizacja potrafi wygenerować petabajt nagrań z monitoringu, nie ma mowy o zastosowaniu tutaj nośników SSD czy przechowywaniu w chmurze publicznej. Dlatego przed inwestycją w macierz SSD należy sobie odpowiedzieć na pytane, czy kilkudziesięciokrotny wzrost wydajności przyniesie skalę korzyści uzasadniającą duże nakłady inwestycyjne. Dobra wiadomość jest taka, że zróżnicowanie nośników i stały napływ nowych, zintegrowanych platform dyskowych łączących różne techniki przechowywania danych daje organizacjom duże pole do manewru w zakresie optymalizacji ich środowiska pamięci masowych. Cztery scenariusze Flash jako pamięć masowa może być zastosowana nie tylko w macierzach. Architekci systemów przechowywania danych wymyślili różne sposoby na zwiększenie wydajności aplikacji poprzez implementację tej technologii. Warto je zrozumieć, aby móc samodzielnie ocenić poszczególne opcje. Pomijając specyficzne rozwiązania, jak IBM FlashSystem, nośniki flash występują w trzech podstawowych formach: nośniki SSD - kształtem obudowy przypominają twardy dysk, ale wewnątrz nie ma ruchomych części. SDD emuluje działanie HDD, co pozwala łatwo włączyć ten rodzaj pamięci masowej do istniejących systemów serwerowych i macierzowych, bez stosowania specjalistycznych PCIe - montowane w standardowych gniazdach w serwerach bądź macierzach czy kontrolerach macierzowych. Emulują zachowanie tradycyjnych kart pamięci, wykorzystując sterownik cache jako SSD - aby skomplikować sytuację, niektóre karty PCIe emulują napędy SSD. Poza kwestią ceny i nietypowego formatu to podejście powoduje też inne implikacje, jak dostępność kart typu hot-swap. Jest kilka sposobów wykorzystania tych „klocków” w serwerach i macierzach. Wybrane podejście determinuje, gdzie w infrastrukturze zostanie wykorzystana pamięć flash i jakie korzyści przyniesie aplikacjom. Są cztery sposoby umiejscowienia pamięci flash. Flash jako cache w serwerze W tym scenariuszu flash jest podłączony do korporacyjnego systemu przechowywania danych jako pamięć cache przechowująca aktywne dane blisko procesorów serwerowych. Wymaga to zaawansowanego oprogramowania pamięci cache, ale pozwala przekształcić nośniki SSD bądź karty PCIe w rozszerzenie pamięci cache. Przykładowo, takie rozwiązanie może służyć do obsługi krytycznych aplikacji, które charakteryzują okazjonalnymi, nieprzewidywalnymi wzrostami obciążenia, np. systemy transakcyjne OLTP czy rozwiązania do analityki danych. Wprawdzie w ten sposób uzyskuje się najszybszy dostęp do danych w pamięci cache, ale wiąże się to jednocześnie z koniecznością dodatkowego zarządzania serwerem. Flash jako cache w macierzy Zamiast montować pamięć flash w serwerze, można ją podłączyć bezpośrednio do macierzy i jednocześnie zainstalować oprogramowanie do tieringu. Takie podejście wprowadza dodatkową warstwę pamięci masowej, do której zostaną automatycznie przeniesione z dysków twardych najczęściej używane dane. Jest to świetny sposób na zwiększenie szybkości odczytu danych przez wszystkie serwery mające dostęp do macierzy dyskowej. Wprawdzie opóźnienia będą większe niż w przypadku użycia pamięci flash w serwerze, ale za to nie będzie problemu z czyszczeniem pamięci podręcznej w momencie restartu serwera. Ta metoda przyspiesza odczyt, natomiast zapis może być wolniejszy niż na dyskach HDD, ponieważ zapisywanie na nośnikach flash wymaga przeprowadzenie mało wydajnego cyklu kasowania. Należy też zwrócić uwagę na dobranie odpowiedniej wielkości nośnika flash, w przeciwnym razie może się on szybko zapełnić.
dlaczego nośniki pamięci masowej mają coraz większe pojemności