Przejdź do głównej treści

Taśmy – dead or alive?

Katgoria: IT Solutions / Utworzono: 16 lipiec 2015

Taśmy – dead or alive?

Dyskusja na temat taśm i ich przyszłości toczy się w świecie IT od kilku lat, czy to na łamach specjalistycznej prasy, blogach internetowych, podczas debat branżowych czy w trakcie spotkań z klientami. Cały czas wzbudza wiele emocji. Choć wydawać by się mogło, że dyskusja ta jest niewarta poświęconego czasu, bo przecież fakty przywoływane przez przeciwników technologii taśmowej są oczywiste i trudne do obalenia, to jednak w stanowisku drugiej strony nie trudno odnaleźć trafnych kontrargumentów.

Co w takim razie wygra, bardziej donośny głos czy może większość? Pewne jest, że historię napiszą sami użytkownicy. To oni zdecydują, czy wykorzystywanie tej technologii w dzisiejszych czasach ma jeszcze sens.

Historia napędów taśmowych w świecie IT sięga roku 1951. Wtedy to firma Remington Rand wyprodukowała pierwsze urządzenie do zapisu danych na nośnikach magnetycznych. Warto wspomnieć o parametrach samego napędu jak i nośnika: 6 ścieżek zapisu danych, gęstość zapisu danych na poziomie 128 bitów na cal, prędkość odczytu 7200 znaków na sekundę. Kolejne rewolucje nastąpiły w latach 80-tych XX wieku. Zmieniono sposób ułożenia danych na taśmach, dzięki czemu zwiększyły się zarówno pojemności, jak i prędkość zapisu/odczytu. Dziś, dominująca technologia LTO6 oferuje natywnie 2.5TB pojemności (6.25TB po kompresji), 2176 ścieżek zapisu danych oraz gęstość zapisu na poziomie 368Kbit na cal (3 tysiące razy więcej od możliwości pierwszego napędu taśmowego i pierwszej taśmy). W jeszcze większym stopniu zwiększyły się transfery – aktualnie do 160MB/sek.

Przez ten czas nie zmieniła się natomiast charakterystyka pracy taśm i napędów – sekwencyjność w najczystszej formie, co dziś jest uznawane za jedną z największych wad tego typu urządzeń.

Mamy więc do czynienia z technologią, która funkcjonuje od niemal 70 lat. Powiedzieć, że to w świecie IT jak cała epoka, to chyba za mało.

Co na to krytycy?

Wykorzystywanie taśm w środowiskach IT zmieniało się na zasadzie ewolucji. Coraz rzadziej pojawiały się jako podstawowe repozytorium dla danych, chowały się za urządzeniami dyskowymi oferując tanie i niezwykle pojemne repozytorium. I pewnie wszystko byłoby w porządku, gdyby nie grupa rewolucjonistów, której zamarzyło się wymazanie technologii taśmowej z rynku i zastąpienie jej wirtualnymi bibliotekami taśmowymi, technologiami deduplikacji i replikacji. Nie bez znaczenia pozostawał fakt, że najbardziej zagorzałymi przeciwnikami taśm byli producenci, którzy nie posiadali w swoim portfolio tych produktów lub wręcz nie oferowali dla nich wsparcia. Powstało nawet hasło, eufemistycznie mówiąc mało cenzuralne – „tape sucks”. Co ciekawe, wsparcie pojawiło się a hasło częściej od przeciwników wykorzystują obecnie zwolennicy chcący pokazać, że radykalne podejście nie zawsze jest najlepszym rozwiązaniem.

Taśmy są wolne i oferują słabe transfery – to kolejny zarzut. Gdyby spojrzeć bardzo wąsko na ten argument, wielu użytkowników mogłoby się z nim zgodzić. Proces mający na celu przeniesienie taśmy ze slotu biblioteki do napędu, zamontowanie nośnika a następnie przewinięcie go do odpowiedniego miejsca trwa. Gdy na taśmę zapisujemy lub odczytujemy dużo małych plików, oferowany transfer też nie może równać się z możliwościami dysków twardych. Odpowiedzmy sobie jednak na pytanie, czy w naszym scenariuszu wykorzystania taśm jest to typowy przypadek? Czy planujemy system backupu, w którym większość przypadków przywracania danych będzie wymagała przywołania nośnika i umieszczenia go w napędzie? Zdecydowanie nie. Dziś, taśmy mają zupełnie inne zadania, w których ilość wykonywanych procesów montowania została ograniczona. Tym samym struktura danych pozwala wykorzystać w sposób maksymalny transfer oferowany przez napęd.

Często pojawia się też pytanie o bezpieczeństwo danych. Przecież systemy dyskowe posiadają zabezpieczenia na poziomie grup RAID, dyski hot-spare, sygnalizują uszkodzenia natychmiast po ich pojawieniu się. A przecież o tym, że taśma jest uszkodzona, dowiadujemy się w momencie, w którym chcemy przywrócić dane. Wydawałoby się, że ciężko z tymi argumentami polemizować. Jednak dojrzała technologia potrafi i z tego obronić się. Jak? Załóżmy, że awarii ulega jedna taśma i jeden dysk z grupy, na której przechowywaliśmy dane. W przypadku systemów dyskowych natychmiast rozpoczyna się przebudowa, która w dobie wysoko pojemnych nośników trwa od kilku godzin do nawet kilku dni. W tym czasie wydajność całej grupy jest mocno ograniczona, zarówno przez backup, jak i odtwarzanie danych. Co więcej, ryzyko awarii kolejnego dysku podczas odbudowy jest zdecydowanie wyższe, a to może skończyć się nieodwracalną utratą danych. Co w przypadku taśm? W momencie kiedy odtwarzanie zostanie zainicjowane i nośnik okaże się wadliwy, system wybiera nową taśmę, która jest jego wierną kopią. Dane odtwarzamy natychmiast, z identyczną prędkością, bez żadnego procesu przebudowy. Jeśli dodamy do tego argument, że taśmy ulegają awariom zdecydowanie rzadziej niż dyski, to znowu okaże się, że przechowywanie danych w klasyczny sposób nie jest wcale mniej bezpieczne.

Czy taśmy dziś są nam jeszcze potrzebne?

Zarzutów w kierunku taśm jest znacznie więcej i nie sposób ich wszystkich wymienić. Ale przyjrzyjmy się faktom, które dowodzą, że ta technologia ma się całkiem dobrze. Zatrzymajmy się przy trwałości. Współcześnie produkowane nośniki są zaprojektowane w taki sposób, aby dane były z nich odczytywalne nawet po okresie 30 lat (zakładając, że warunki przechowywania spełniały wymogi producenta). I, o ile znane są sytuacje (i nie są one wcale rzadkością), kiedy taśmy nagrane kilkanaście lat temu pozwoliły na odtworzenie 100% zapisanych na nich danych, to w przypadku dysków twardych nie jest już tak łatwo. Nikt nie utrzymuje tak długo systemów dyskowych a jeśli nawet dyski były składowane w sejfie (i wyłączone), to ponowne ich uruchomienie po tak długim czasie nieaktywności często graniczy z cudem.

A co z kosztami eksploatacji? Tutaj różnica również jest kolosalna. Taśma raz nagrana jest odkładana do slotu biblioteki (lub do sejfu) i tam oczekuje na moment, w którym pojawi się potrzeba odczytania pewnych danych. Nie potrzebuje do tego zasilania, klimatyzacji oraz zajmuje mniej przestrzeni (w przeliczeniu na pojemność). Dyski, zupełnie odwrotnie – najlepiej dla ich żywotności, gdy pracują nieprzerwanie. Pobierają prąd, generują ciepło, wymagają serwisowania i ciągłego monitorowania. To wszystko przekłada się na wymierne koszty, zdecydowanie wyższe niż w przypadku taśm. Wyliczenia pokazują, że nakłady na zbudowanie i utrzymanie środowiska wielkości 2PB w przypadku wykorzystania urządzeń dyskowych jest ponad 3 razy droższe.

Do czego zatem wykorzystać taśmy aby w pełni wykorzystać ich możliwości i najlepsze cechy? W dobie digitalizacji, tworzenia milionów dokumentów w postaci cyfrowej, ogromnych archiwów, w których dane są głównie generowane a odczytywane rzadko, nie ma obecnie lepszej technologii. Taśmy oferujące olbrzymie pojemności, łatwą rozbudowę, zdolność do prostego` eksportowania nośników do innych lokalizacji w celach Disaster Recovery, zaczynają rysować się jako rozwiązanie idealne. Nie bez powodu przedsiębiorstwa z branży M&E (Media and Entertainment) masowo budują środowiska, w których dane ostatecznie są składowane na taśmach. Do tego możemy dodać rozwiązania typu HSM (Hierarchical Storage Management), w których system automatycznie, na podstawie zdefiniowanych reguł, przenosi pliki z systemów dyskowych na tańszy storage pozostawiając na systemie plików odnośnik, który pozwala na przywrócenie pliku z taśmy. A LTFS? To nowy filesysem, ogłoszony w kwietniu 2010 roku, który pozwala prezentować dane i oferować do nich dostęp z poziomu urządzenia taśmowego w taki sposób, jakby były przechowywane na urządzeniach dyskowych. Stało się to możliwe dzięki zapisywaniu danych i metadanych w odpowiednim formacie, dzięki czemu, w odróżnieniu od systemów hierarchicznego składowania danych, nie ma konieczności wykorzystywania zewnętrznych baz danych opisujących strukturę systemu plików i jego zawartości. Każdy taki nośnik można zamontować w dowolnym napędzie taśmowym wspierającym technologię LTFS i uzyskać dostęp do zapisanych na nim danych. Wygoda w przesyłaniu dużej porcji informacji połączona z oferowanym bezpieczeństwem, łatwością implementacji i, co najważniejsze, z niewielkimi kosztami, pozwala na dynamiczny rozwój technologii taśmowej.

Cały czas jesteśmy świadkami pojawiających się nowych generacji taśm i napędów. Z każdą nową edycją wzrastają transfery i pojemności – w pewnym przybliżeniu jest zachowany dwukrotny wzrost tych parametrów. Na koniec roku 2015 zapowiadane jest pojawienie się 7. generacji najpopularniejszej dziś technologii – LTO, a od niedawna dostępne są plany uwzględniające 10. generację o zawrotnej pojemności 120TB - zakładając wykorzystanie kompresji sprzętowej. Czy tak wyglądałaby technologia i plany jej rozwoju, gdyby faktycznie rację mieli Ci, którzy nazywają ją „umierającą”?

Subiektywnie

Technologia taśmowa ugruntowuje swoją pozycję na rynku od niemal 70 lat. Na początku swojej historii medium to było jedyną rozsądną możliwością gromadzenia dużej ilości danych jako backupy i archiwa. Z czasem jej rola zmieniała się ale nie można powiedzieć, że w którymś momencie technologia ta znalazła się u schyłku życia. Tak samo jest i dziś. Taśmy nie zostały pozbawione swoich wad ale nadal nie wymyślono nic lepszego, co adresowałoby potrzeby współczesnych środowisk i problemy gromadzenia terabajtów danych w tani sposób. Głównie dzięki konkurencyjności pod względem kosztowym, możliwości przechowywania olbrzymich ilości danych na niewielkiej powierzchni oraz bezobsługowości, z taśmami będziemy spotykać się jeszcze przez wiele lat. Nie będzie przesadą, jeśli powiemy, że jest to technologia, która na rynku informatycznym będzie gościła najdłużej spośród wszystkich innych.

Autor: Przemysław Jagoda architekt systemów backupu, Infonet Projekt SA

Najnowsze wiadomości

Customer-specific AI: dlaczego w 2026 roku to ona przesądza o realnym wpływie AI na biznes
W 2026 roku sztuczna inteligencja przestaje być ciekawostką technologiczną, a zaczyna być rozliczana z realnego wpływu na biznes. Organizacje oczekują dziś decyzji, którym można zaufać, procesów działających przewidywalnie oraz doświadczeń klientów, które są spójne w skali. W tym kontekście coraz większe znaczenie zyskuje customer-specific AI - podejście, w którym inteligencja jest osadzona w danych, procesach i regułach konkretnej firmy, a nie oparta na generycznych, uśrednionych modelach.
PROMAG S.A. rozpoczyna wdrożenie systemu ERP IFS Cloud we współpracy z L-Systems
PROMAG S.A., lider w obszarze intralogistyki, rozpoczął wdrożenie systemu ERP IFS Cloud, który ma wesprzeć dalszy rozwój firmy oraz integrację kluczowych procesów biznesowych. Projekt realizowany jest we współpracy z firmą L-Systems i obejmuje m.in. obszary finansów, produkcji, logistyki, projektów oraz serwisu, odpowiadając na rosnącą skalę i złożoność realizowanych przedsięwzięć.
SkyAlyne stawia na IFS dla utrzymania floty RCAF
SkyAlyne, główny wykonawca programu Future Aircrew Training (FAcT), wybrał IFS Cloud for Aviation Maintenance jako cyfrową platformę do obsługi technicznej lotnictwa i zarządzania majątkiem. Wdrożenie ma zapewnić wgląd w czasie rzeczywistym w utrzymanie floty, zasoby i zgodność, ograniczyć przestoje oraz zwiększyć dostępność samolotów szkoleniowych RCAF w skali całego kraju. To ważny krok w modernizacji kanadyjskiego systemu szkolenia załóg lotniczych.
Wykorzystanie AI w firmach rośnie, ale wolniej, niż oczekiwano. Towarzyszy temu sporo rozczarowań
Wykorzystanie sztucznej inteligencji w firmach rośnie, ale tempo realnych wdrożeń pozostaje znacznie wolniejsze od wcześniejszych oczekiwań rynku. Dane pokazują, że z rozwiązań AI korzysta dziś wciąż niewiele przedsiębiorstw, a menedżerowie coraz częściej wskazują na bariery regulacyjne, koszty oraz brak powtarzalnych efektów biznesowych. W praktyce technologia jest testowana głównie w wybranych obszarach, a kluczowe decyzje nadal pozostają po stronie człowieka. Również w firmach, które wdrożyły AI, nierzadko towarzyszą temu rozczarowania.

Europejski przemysł cyfryzuje się zbyt wolno – ERP, chmura i AI stają się koniecznością
BPSCEuropejski przemysł średniej wielkości wie, że cyfryzacja jest koniecznością, ale wciąż nie nadąża za tempem zmian. Ponad 60% firm ocenia swoje postępy w transformacji cyfrowej jako zbyt wolne, mimo rosnącej presji konkurencyjnej, regulacyjnej i kosztowej. Raport Forterro pokazuje wyraźną lukę między świadomością potrzeby inwestycji w chmurę, ERP i AI a realną zdolnością do ich wdrożenia – ograniczaną przez braki kompetencyjne, budżety i gotowość organizacyjną.



Najnowsze artykuły

5 pułapek zarządzania zmianą, które mogą wykoleić transformację cyfrową i wdrożenie ERP
Dlaczego jedne wdrożenia ERP dowożą korzyści, a inne kończą się frustracją, obejściami w Excelu i spadkiem zaufania do systemu? Najczęściej decyduje nie technologia, lecz to, jak organizacja prowadzi zmianę: czy liderzy biorą odpowiedzialność za decyzje czy tempo jest dopasowane do zdolności absorpcji oraz czy ludzie dostają klarowność ról i realne kompetencje. Do tego dochodzi pytanie: co po go-live - stabilizacja czy chaos w firmie? Poniżej znajdziesz 5 pułapek, które najczęściej wykolejają transformację i praktyczne sposoby, jak im zapobiec.
SAP vs Oracle vs Microsoft: jak naprawdę wygląda chmura i sztuczna inteligencja w ERP
Wybór systemu ERP w erze chmury i sztucznej inteligencji to decyzja, która determinuje sposób działania organizacji na lata — a często także jej zdolność do skalowania, adaptacji i realnej transformacji cyfrowej. SAP, Oracle i Microsoft oferują dziś rozwiązania, które na pierwszy rzut oka wyglądają podobnie, lecz w praktyce reprezentują zupełnie odmienne podejścia do chmury, AI i zarządzania zmianą. Ten artykuł pokazuje, gdzie kończą się deklaracje, a zaczynają realne konsekwencje biznesowe wyboru ERP.
Transformacja cyfrowa z perspektywy CFO: 5 rzeczy, które przesądzają o sukcesie (albo o kosztownej porażce)
Transformacja cyfrowa w finansach często zaczyna się od pytania o ERP, ale w praktyce rzadko sprowadza się wyłącznie do wyboru systemu. Dla CFO kluczowe jest nie tylko „czy robimy pełną wymianę ERP”, lecz także jak policzyć ryzyko operacyjne po uruchomieniu, ocenić wpływ modelu chmurowego na koszty OPEX oraz utrzymać audytowalność i kontrolę wewnętrzną w nowym modelu działania firmy.
Agentic AI rewolucjonizuje HR i doświadczenia pracowników
Agentic AI zmienia HR: zamiast odpowiadać na pytania, samodzielnie realizuje zadania, koordynuje procesy i podejmuje decyzje zgodnie z polityką firmy. To przełom porównywalny z transformacją CRM – teraz dotyczy doświadczenia pracownika. Zyskują HR managerowie, CIO i CEO: mniej operacji, więcej strategii. W artykule wyjaśniamy, jak ta technologia redefiniuje rolę HR i daje organizacjom przewagę, której nie da się łatwo nadrobić.
Composable ERP: Przewodnik po nowoczesnej architekturze biznesowej
Czy Twój system ERP nadąża za tempem zmian rynkowych, czy stał się cyfrową kotwicą hamującą rozwój? W dobie nieciągłości biznesowej tradycyjne monolity ustępują miejsca elastycznej architekturze Composable ERP. To rewolucyjne podejście pozwala budować środowisko IT z niezależnych modułów (PBC) niczym z klocków, zapewniając zwinność nieosiągalną dla systemów z przeszłości. W tym raporcie odkryjesz, jak uniknąć pułapki długu technologicznego, poznasz strategie liderów rynku (od SAP po MACH Alliance) i wyciągniesz lekcje z kosztownych błędów gigantów takich jak Ulta Beauty. To Twój strategiczny przewodnik po transformacji z cyfrowego "betonu" w adaptacyjną "plastelinę".

Przeczytaj Również

Wykorzystanie AI w firmach rośnie, ale wolniej, niż oczekiwano. Towarzyszy temu sporo rozczarowań

Wykorzystanie sztucznej inteligencji w firmach rośnie, ale tempo realnych wdrożeń pozostaje znaczni… / Czytaj więcej

Vertiv Frontiers: 5 trendów, które przeprojektują centra danych pod „fabryki AI”

Centra danych wchodzą w erę „fabryk AI”, gdzie o przewadze nie decyduje już sama skala, lecz zdolno… / Czytaj więcej

Cyberbezpieczeństwo 2026. 6 trendów, które wymuszą nowe podejście do AI, danych i tożsamości

Rok 2026 zapowiada się jako moment przełomu w świecie cyfrowego bezpieczeństwa. W obliczu dynamiczn… / Czytaj więcej

Jurysdykcja danych w chmurze: dlaczego polskie firmy coraz częściej wybierają „gdzie leżą” ich system

Jurysdykcja danych przestała być detalem w umowach chmurowych – dziś decyduje o zgodności, bezpiecz… / Czytaj więcej

Tylko 7% firm w Europie wykorzystuje w pełni potencjał AI

72% firm w regionie EMEA uznaje rozwój narzędzi bazujących na sztucznej inteligencji za priorytet s… / Czytaj więcej

Chmura publiczna w Unii Europejskiej – między innowacją a odpowiedzialnością za dane

Transformacja cyfrowa w Europie coraz mocniej opiera się na chmurze publicznej, która stała się fun… / Czytaj więcej