Twoje PC  
Zarejestruj się na Twoje PC
TwojePC.pl | PC | Komputery, nowe technologie, recenzje, testy
M E N U
  0
 » Nowości
0
 » Archiwum
0
 » Recenzje / Testy
0
 » Board
0
 » Rejestracja
0
0
 
Szukaj @ TwojePC
 

w Newsach i na Boardzie
 
TwojePC.pl © 2001 - 2024
Środa 13 lutego 2019 
    

Seagate zapowiada 24TB dyski HDD


Autor: Wedelek | źródło: Myce | 05:58
(26)
Seagate chce w przyszłym roku wprowadzić na rynek nowe nośniki HDD o pojemności 16TB i 24TB przeznaczone dla użytkowników biznesowych. Dyski te mają korzystać z technologii HAMR (Heat Assisted Magnetic Recording), która podczas zapisu danych używa wiązki lasera do chwilowego podniesienia temperatury powierzchni dysku. Dzięki temu gęstość upakowania danych wzrasta do 2,381 Terrabita na cal kwadratowy, a to z kolei pozwala zapisać na pojedynczym talerzu do 3TB informacji. Nowe dyski Seagate będą ponadto korzystać z systemu zapisu opartego o dwie głowice, co przełoży się na duży wzrost wydajności.

Podczas typowej pracy średnia prędkość będzie wynosić około 480 MB/s. Dla porównania obecnie jest to około 240MB/s.

 
    
K O M E N T A R Z E
    

  1. 2 głowice zwiększą zawodność (autor: pwil2 | data: 13/02/19 | godz.: 11:14)
    ale ciekawe, czy w przypadku awarii jednego zespołu głowic pozwolą na odczyt danych za pomocą drugiego. Zakładając, że te pierwsze nie porysują przy okazji talerzy.

  2. to chyba oczywiste - NIE (autor: Master/Pentium | data: 13/02/19 | godz.: 13:23)
    to poprostu 2xHDD w jednej obudowie (RAID0). Nie da się pozycjonować dwóch zestawów głowic na tym samym talerzu, chyba że im udało się rozwiązać kilka naprawdę problematycznych kwestii technicznych.
    To ewidentnie dyski do backupów i innych stosunkowo zimnych danych.


  3. @2. (autor: Mariosti | data: 13/02/19 | godz.: 14:46)
    Ze zdjęć wynika że 2 komplety głowic obsługują po połowie talerzy w tym dysku, więc jeśli jeden komplet głowic padnie to na pewno dane z połowy talerzy będą niedostępne.

    Ciekawe jest natomiast to czy w takiej sytuacji druga połowa danych będzie dostępna.


  4. @2 Dlaczego (autor: pandy | data: 13/02/19 | godz.: 14:58)
    niemożliwe? Przecież jest jeden kontroler - dyski z dwoma zestawami głowic były już dostępne komercyjnie - firma Micropolis kiedyś lider na rynku macierzy oferowała takie dyski SCSI.
    Nie widzę żadnych problemów z głowicami obejmującymi wiele śladów i wieloma zestawami głowic - po prostu jest to nieopłacalne choć dziś akurat dla producentów HDD może być to jedyna szansa na przedłużenie pozostawania w biznesie.


  5. @3 Nie będzie (autor: Master/Pentium | data: 13/02/19 | godz.: 15:32)
    to to samo co RAID0, dane nawet jakby co to i tak będą poszatkowane tak że i tak będą bezużyteczne.

  6. @4 Kwestie mechaniczne (autor: Master/Pentium | data: 13/02/19 | godz.: 15:36)
    Umieszczenie dwóch niezależnych mechanizmów pozycjonowania na tym samym talerzu przy zachowaniu odpowiedniej miniaturyzacji, wydajności i niezawodności jest poprostu wyczepiście trudne konstrukcyjnie. Ale fakt, to jest teoretycznie możliwe.
    PS. HDD powoli zajmują miejsce streamerów pod względem zastosowań ;)


  7. @6... (autor: muerte | data: 13/02/19 | godz.: 16:41)
    Streamery i taśmy jeszcze dłuuuuugo będą w użyciu i nie sądzę żeby zastąpiły je dyski twarde. Są za bardzo awaryjne i zbyt mało odporne na czas :)

    Niedawno odzyskiwałem dane z taśm nagranych we wczesnych latach 90. Odzyskało się wszystko, stopa błędów zerowa. Tymczasem odzyskiwanie kopii zrobionych na dyskach w latach 2005-2008 które były przechowywane razem z taśmami nie obyło się bez problemów, na szczęście ktoś wtedy podszedł do tego z głową i zdublował kopie na 2 dyskach. Jak na razie taśmy są raczej bezkonkurencyjne.


  8. teoretycznie jest mozliwe (autor: g5mark | data: 13/02/19 | godz.: 23:00)
    zastosowanie niezaleznej glowycy dla kazdego z talerzy,co zdecydowanie bedzie jeszcze bardziej wydajne. Zappewne ewolucja HDD bedzie szla w tym kierunku. \wyobrazcie sobie dysk 6 talezowy z szescioma niezaleznymi glowicami co teoretycznie daje transfer na poziomie 1440MB/s. Mowie teoretycznie bo pozostaja kwestie stworzenia zupelnie nowej magistrali dla takich dyskow, SATA nawet kolejnej generacji nie uciagnelaby takich predkosci

  9. @8 słowo klucz teoretycznie (autor: Master/Pentium | data: 14/02/19 | godz.: 07:11)
    nie głowica jest problemem a jej mechanizm pozycjonowania, tu jest pies pogrzebany,

  10. @7. (autor: Master/Pentium | data: 14/02/19 | godz.: 07:16)
    taśmy już znikły z low i medium. Trzymają się jeszcze trochę w high ale raczej przez zgodność wsteczną z tym co już tam mają.
    Backupy na HDD to raczej stosowne macierze niż dyski trzymane w szafie.
    Aha - z taśm nagranych w późnych latach 90tych odzysk danych miałem na poziomie 20-50%. Źródło: wiele niedużych firm. Tak więc kwestia użytych taśm i środowiska przechowywania.
    Ogólnie brakuje nam pojemnego nośnika archiwalnego


  11. @Master/Pentium (autor: pandy | data: 14/02/19 | godz.: 11:58)
    Ale wiesz że fakty nie potwierdzają tego co napisałeś? Tak to robiono kiedyś http://stcarchiv.de/tos1992/images/conner-hdd.jpg Conner Chinook. Dwa aktuatory mogą nawet marginalnie poprawiać ogólną niezawodność dysku twardego (tylko nie w rozwiązaniu proponowanym przez Seagate ale przez np Conner czy Micropolis).
    Jak myślę rozwiązanie to nie było popularne bo udawało się dotąd utrzymać atrakcyjność HDD przy jednym aktuatorze, niestety rosnącą konkurencja ze strony SSD wymusza konieczność innowacji również w mechanice a nie tylko w elektronice HDD. Ciekawe czy branża HDD wróci do głowic tangencjalnych które pozwalałyby na zwiększenie ilości TPI (kosztem pogorszenia separacji).
    Zgadzam się z twoja ostatnia konkluzja - brakuje nam nośnika do archiwizacji taśmowej - takiej która nie wymaga krótkich czasów dostępu ale oferuje k krotnie (znacząco większą) większą pojemność danych.


  12. @12 (autor: Master/Pentium | data: 14/02/19 | godz.: 12:44)
    Zobacz rozmiary.
    A teraz zminiaturyzuj to do rozmiarów współczesnych HDD zachowując cenę, precyzję i odpowiednią wydajność pozycjonowania. Powodzenia.
    Ogólnie "innowacje" w HDD kojarzą mi z innowacjami w gramofonach. Nostalgia i marketing ale ograniczeń technologii nie przełamiesz. Poprostu dawno temu doszliśmy do fizycznych ograniczeń owych technologii.


  13. @12 jaki jest problem z miniaturyzacja?... (autor: gantrithor | data: 14/02/19 | godz.: 20:05)
    https://www.pcmag.com/...dia/term/46926/microdrive dysk twardy talerzowy wielkosci typowego znaczka pocztowego , dzis drobiny magnetyczne na talerzach dyskow twardych sa tak male ze wymagaja albo asysty termicznej albo wiru mikrofalowego aby drobiny zmienily stan namagnesowania.
    Teoretyczne jest mozliwe zapisane jednego bita danych na jednym atomie co udowodnila firma IBM w 2017 roku.
    Mechanizmy pozycjonowania sa juz bardzo dokladne chociazby skanery i steppery firmy ASML ktore potrafia w ciagu sekundy naswietlic do 4 procesorow na waflu krzemowym pozycjonujac wafel z dokladnoscia do 2nm jesli to nie jest precyzja to ja nie wiem co ty jeszcze chcesz.
    Dzisiejsze dyski twarde potrafia pozycjonowac glowice w 0,01 sekundy i dokladnoscia do ~1nm.
    Dodanie jednego , dwoch czy nawet trzech niezaleznych mechanizmow z glowicami w dzisiejszych czasach jest mniej skomplikowane niz zwiekszenie gestosci zapisu na cal kwadratowy.
    Problemem zawsze byla cena , dzis cena nie jest problemem tylko pojemnosc dysku i coraz wieksze wymagania stawiane przez klientow.


  14. @13 (autor: Master/Pentium | data: 14/02/19 | godz.: 20:59)
    Oj cena zawsze jest problemem. Ja wiem że można stworzyć ultra precyzyjne wielokrotne pozycjonowanie. Ale czy zmieści się ono w obudowie 2,5/3,5"? I będzie odpowiednio wydajne i tanie?

    Droższe dyski nie bardzo mają niszę rynkową, od tej strony wygryzają je SSD.
    Pozatym to rozwiązanie ma wszystkie wady RAID czyli NIE zmniejsza się czas dostępu do danych, poprawia się I/O ale tylko max. 2x czyli też nie jakoś szczególnie.
    Ludzie zainteresowani użyją RAID gdzie możliwości konfiguracyjne są dużo lepsze.
    Ogólnie w 1995 czy 2005 to byłby hit, teraz jest zwyczajnie za późno.
    PS. Microdrive miał tragiczną wydajność, przejście na Flash to była duża ulgaaaa. Nigdy więcej microdrive :)


  15. Master/Pentium (autor: pandy | data: 15/02/19 | godz.: 02:36)
    Ale wiesz jak poruszany jest zestaw głowic w HDD? Liniowy aktuator (VCM/VCA) o dokładności pozycjonowania określonej praktycznie wyłącznie precyzją z jaką jesteś generować napięcie sterujące?
    To rozwiązanie nie ma wielu wad RAID - np nie ma potrzeby synchronizowania prędkości obrotowej różnych dysków bo dysk jest jeden (kiedyś dyski posiadały specjalny sygnał do synchronizowania macierzy) - każdy dysk ma inna prędkość obrotową co prowadzi do wielu problemów np rezonansów i interferencji co z kolei zaburza prace dysków - poczytaj o efekcie zdudnienia i wpływie wibracji na żywotność macierzy - nawet dźwięki mogą wpływać na wydajność oraz żywotność dysków.
    Czas dostępu do danych może się zmniejszyć o połowę (bo są dwie autonomiczne głowice).
    W technologiach HDD jest jeszcze sporo zapasu.
    24TB zwyczajnie jest niepotrzebne ok 80% populacji - wysycenie następuje od ok 4 - 8TB zwłaszcza że coraz więcej osób preferuje chmury.


  16. @15 sorry jakieś dziwy opowiadasz. (autor: Master/Pentium | data: 15/02/19 | godz.: 08:02)
    1. Macierze nie mają potrzeby synchronizowania obrotów HDD. Zdudnienia i inne dźwiękowe magie zostaw filmikom na youtubie. Na świecie chodzi tyle macierzy liczonych w setkach+ HDD i nic im nie jest. Ogólnie mówisz o problemie nie znanym sysadminom.
    2. Czas dostępu NIE zmniejsza się (podobnie zresztą jak w RAID). Czas dostępu do dowolnych danych jest ograniczony mechanicznie (czas obrotu+czas pozycjonowania). Więcej głowic/dysków pozwala na wykonanie więcej operacji I/O jednocześnie ale nie skraca dostępu do danych. Swoją drogą ten argument słyszę często też przy macierzach, i tylko się zastanawiam czy ludzie zastanawiają się nad tym co mówią. Żeby było zabawniej wiele głowic/dysków może w pewnych wypadkach pogarszać delikatnie czas dostępu (RAID1 bez cache mu wydajność zapisu na poziomie 90-95% najsłabszego dysku z macierzy).
    Ogólnie ja rozumiem że wiele głowic wygląda na świetny pomysł okiem laika i idea wraca co jakiś czas (pamiętam też multigłowicowe czytniki CD). Problem w tym że w warunkach bojowych zysk jest niewarty problemów.
    Ot taki informatyczny odpowiednik silnika wankla. Teoretycznie fantastyczne rozwiązanie które w praktyce jest zwykle nadspodziewanie złe.
    https://pl.wikipedia.org/wiki/Silnik_Wankla
    PS. Doskonale wiem jak działa pozycjonowanie głowic w HDD :)


  17. Podsumowując (autor: pwil2 | data: 15/02/19 | godz.: 09:30)
    Wnioski są podobne jak wiele lat temu, gdy wycofywano się z tej drogi. Jak ktoś chce więcej wydajności kosztem złożoności, wrzuca 2x więcej dysków w RAID0 (lub RAID50/60/10/0+1). Wg mnie max co da się rozsądnie ulepszyć w kwestii wydajności HDD to zastąpienie ich dyskami SSHD z większymi rozmiarami pamięci flash (32GB/TB).

    Głównym ograniczeniem jest samo wykorzystywanie wirujących talerzy, prawa fizyki. Jeśli nie wycisną 10TB/talerz w ciągu najbliższych lat, pamięci flash je wygryzą z rynku. Skoro SSD 2TB to kilka kostek i kontroler, 4TB to też kilka kostek + kontroler, to "za chwilę" będą konsumenckie 2.5" 8/16/32/64TB. Kwestia spłacenia się technologii i konkurencji cenowej między producentami.


  18. @16. (autor: pwil2 | data: 15/02/19 | godz.: 09:42)
    Po prostu większość myśli o średnim czasie dostępu, a ten maleje, gdy spada obciążenie i długość kolejki.

  19. @pwil2 (autor: Master/Pentium | data: 15/02/19 | godz.: 09:47)
    ano zgadzam się, to nie są nowe zagadnienia.

  20. @16 bo jesteś młody (autor: pandy | data: 16/02/19 | godz.: 01:24)
    to się dziwisz. Zdudnienie jest faktem - dyski do macierzy maja właśnie specyfikowane takie parametry (są zwyczajnie lepiej wyważone). A sygnał do synchronizacji dysków macierzy był dawno dawno temu dostępny (Spindle synchronization) pierwszy z brzegu patent Quantum np US5438464. Sysadmini nie mierzą latency - weź sobie software mierzący latency i poeksperymentuj - zobacz jak delikatne wibracje wpływają na wydajność dysku.
    Oczywiście ze czas dostępu zmniejsza się o polowe (oczywiście zależy to od strategii pracy głowic) jak zauważyłeś opóźnienie zależy od prędkości obrotowej ale mając dwie niezależne głowice możesz przetwarzać 2 komendy seek w tym samym czasie. W RAID1 masz właśnie ten kłopot ze zapis może być wolniejszy ale odczyt jest zazwyczaj szybszy (ze względu na brak synchronizacji miedzy dyskami wiec wygrywa ten który wcześniej zacznie czytać dane). W wypadku dysku z dwoma lub więcej głowicami odpada ten problem bo dysk jest jeden, ściśle sprzężony mechanicznie.
    Jak już napisałem HDD musi iść w nowe rozwiązania - co prawda flash zawsze będzie droższy i będzie oferował mniejszą pojemność tyle ze na razie konsumenci są wysyceni pojemnością nośników... - sam chyba nie posiadam więcej niż 4TB unikalnych danych załóżmy ze nie potrzebuje więcej niż 8TB.
    Tyle ode mnie...Ja zaczynałem przygodę z informatyką gdy HDD miało 5MB pojemności i długą kartę kontrolera MFM (bo nawet nie RLL2.7) z dwoma tasiemkami - mój pierwszy HDD to było ST-251. Do dziś mam płytę oryginalnego IBM AT która bez dysku odpala wbudowany w ROM BASIC z obsługą kaseciaka...


  21. @20. Nie jestem aż tak młody, pamiętam dyski 20/40MB (autor: Master/Pentium | data: 16/02/19 | godz.: 10:41)
    Reszta odpowiedzi to absolutnie niczym nie uzasadniony optymizm.
    1. Czas dostępu to czas pozycjonowania głowicy+0,5 czasu obrotu talerza.
    Przy dwóch głowicach masz czas pozycjonowania+0,25 czasu obrotu talerza. Nijak nie widać 2x przyśpieszenia, wynik to w super optymalnych warunkach odpowiednik dysku 15krpm.
    2. Flash zawsze będzie droższy? A niby DLACZEGO? Słyszałem to już kiedyś wiele razy, np. CD zawsze będzie droższe od kaset.
    3. Flash zawsze będzie oferował mniejszą pojemność. DLACZEGO? Brak limitów z HDD, spokojnie można iść w 3D (już się idzie).
    Co do owych zdudnień
    4. Sysadmini mierzą czas dostępu do macierzy z HDD a ten w praktycznych pomiarach nie zmienia się z precyzją do 1 msek. Więc podtrzymuję iż zwalczasz w praktyce nieistniejące zjawisko (tak, też widziałem te filmiki na youtube). Stworzenie odpowiednio masywnej klatki na dyski+tłumienie wibracji to nie jest problem.
    5. Twoje wielogłowicowe dyski nadal są podatne na wszystkie wspomniane ewentualne problemy tak samo jak zwykłe, nadal trzeba używać macierzy więc sorry ale gdzie ten przełomowy zysk?


  22. @21 Ja juz pisalem uzywalem 5 i 10MB (autor: pandy | data: 16/02/19 | godz.: 15:19)
    1. dwie autonomiczne głowice pozwalają wykonać dwie niezależne komendy SEEK w tym samym czasie - tu nie musi chodzić o ten sam sektor ale wykonywanie dwóch operacji w tym samym czasie (a systemy wielozadaniowe konkurują o zasoby).
    2&3. FLASH będzie droższy bo osiągamy limity technologi półprzewodnikowej - kiedyś bardzo dawno temu były struktury WSI (Wafer Scale Integration) - przeczytaj sobie dlaczego to była porażka. Teraz przenieś to na FLASH i wyobraź sobie ze 300mm masz np 8 struktur. Oczywiście możesz to wszystko stackować jak to się robi w pamięciach 3D i poprawiać uzyski ale dalej HDD będzie wygrywał w kategorii cena/pojemność.
    4. Czas dostępu do macierzy a latency w dostępie danych do pojedynczego sektora (np przy liniowym odczycie) to nie jest to samo.
    5. Zgadzam się ale dwie głowice na jednym dysku są mniej awaryjne niż dwa dyski zestawione w RAID0. Zyskiem jest wydajność nie pojemność. Pomyśl o takim dysku jak o przejściu z jednego rdzenia w CPU na dwa - to dokładnie ta sama zasada.


  23. @20 (autor: Master/Pentium | data: 16/02/19 | godz.: 18:55)
    Ad1. Dokładnie jak w RAID, zwiększa sie I/O ale czas dostępu do danych nie zmienia się (zakładam brak nasycenia I/O czyli kolejka=1 w obu wypadkach).
    Ad2/3. Stackowanie 3D można dalej rozwijać, nie rozumiem skąd założenie że HDD będzie zawsze wygrywał w tej kategorii. Cena za 1GB na SSD spada zgodnie z prawem Moora, to samo w HDD wykazuje wieloletnią stagnację i brak większych szans na zmianę. Za moment SSD w 2,5" przekroczy pojemności HDD 2,5".
    Ad4. Te czasy są ze sobą związane, czas dostępu do macierzy bez cache jest ściśle związany z latencją dysków. Poprostu zdudnienia itp. nie występuje w istotnym zakresie o ile konstruktor czegoś nie spieprzył. Wiem jak wibruje dysk, wiem też jak wibruje klatka na 8xHDD. W zasadzie to pozycjonowanie głowic jest głównym źródłem wibracji. Ogólnie uwielbiam SSD właśnie ze względu na niski czas dostępu. Bardzo miłe przy bazach danych.
    Ad5. Zysk byłby na poziomie 1,5-1,8 (x2 jest nieosiągalne w realnych zastosowaniach). Jeśli uzyskasz to bez istotnego podnoszenia ceny i/lub zawodności to super.

    Ale sądzę że w firmach produkujących HDD (a było ich kiedyś sporo) nie pracują idioci, jakby dodanie niezależnego pozycjonowania drugiej głowicy było stosunkowo łatwe to już by było zastosowane przynajmniej w niektórych liniach HDD.


  24. @23 (autor: pandy | data: 16/02/19 | godz.: 21:45)
    Czas dostępu średnio ulega zmniejszeniu choćby dlatego że możesz podzielić sobie przestrzeń talerz na pol i wachlować głowicą po połowie powierzchni a nie jechać z początku na koniec.
    W praktyce pewnie średni czas dostępu będzie nieco większy niż polowa ale to i tak jest nieźle.
    Można rozwijać ale dochodzą zjawiska tunelowe jak i żywotność komórek 0 ta ilosc cykli zapisu ulega zmniejszaniu nieprzypadkowo - policz ile kosztowałoby zrobienie 24TB na SLC w 32nm (żywotność danych!).
    Owszem jest stagnacja na rynku HDD i ciśnienie ze strony FLASH dlatego pojawiają się pomysły by podnieść atrakcyjność HDD.
    Oszem SSD jest fajne, nikt nie twierdzi że jest inaczej ale technologia FLASH nie jest bez wad...
    Ciekawą koncepcją byłoby FRAM ale to też nie jest ideał.


  25. @24 (autor: Master/Pentium | data: 17/02/19 | godz.: 10:52)
    Flash to nie koniec drogi. Jest choćby Optane czyli 3D XPoint. Tutaj jest spora droga do odkrycia i sporo alternatywnych technologii do opracowania.
    Ogólnie jak dla mnie HDD powoli odchodzi do historii oraz zastosowań specjalistycznych/niszowych. Ot taki odpowiednik taśmy, większa retencja danych i pojemność ale fatalna wydajność.
    Ogólnie jeśli uda się zwiększyć wydajność/pojemność HDD bez istotnego podnoszenia kosztów to super ale w to okurat szczerze wątpię. Ale kto wie.


  26. SSD (autor: pwil2 | data: 18/02/19 | godz.: 13:08)
    Od roku masowo produkuje się 30TB SSD, pojemność się podwaja, a talerzowce mają dokładane po 2TB i ciężko wrzucić drugie tyle talerzy i głowic do obecnej obudowy.

    
D O D A J   K O M E N T A R Z
    

Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.