Twoje PC  
Zarejestruj się na Twoje PC
TwojePC.pl | PC | Komputery, nowe technologie, recenzje, testy
M E N U
  0
 » Nowości
0
 » Archiwum
0
 » Recenzje / Testy
0
 » Board
0
 » Rejestracja
0
0
 
Szukaj @ TwojePC
 

w Newsach i na Boardzie
 
TwojePC.pl © 2001 - 2024
Piątek 16 września 2011 
    

Dyski SSD Intela z kontrolerami SandForce?


Autor: Zbyszek | źródło: LeightReviews | 19:42
(29)
Według nieoficjalnych informacji Intel rozważa wprowadzenie na rynek dysków SSD korzystających z kontrolerów SandForce. Aktualnie firma w swoich dyskach stosuje kontrolery firmy Marvell lub własne autorskie konstrukcje. Zarówno jednym jak i drugim trudno jednak zrównać się pod względem osiągów z drugą generacją kontrolerów SandForce (SF-2200 i SF-2500), to też flagowe serie dysków SSD Intela miałby korzystać właśnie z nich. Smaczku sprawie dodaje fakt prezentacji na jednym z ostatnich IDF (Intel Developer Forum) prototypowego dysku SSD z 25nm pamięciami Flash oraz kontrolerem SandForce.

Według specjalistów z branży Intel mógłby nawet kupić producenta kontrolerów. Decyzje taką rozważała wcześniej firma OCZ jednak ze względu na wysoki dla niej koszt nabycia SandForce zdecydowała o zakupie innego producenta kontrolerów dla dysków SSD - firmy Indilinx.


 


    
K O M E N T A R Z E
    

  1. czekam na komentarz Apostola Boga Intelu (autor: josefek | data: 16/09/11 | godz.: 20:16)
    zwanego takze SW. Pomodorem...czyli Intel nie tak wrzechnomocny jest , jak nam ten Apostol wmawia...

  2. ... (autor: Mav | data: 16/09/11 | godz.: 20:58)
    Ciekawe czy dopuszcza zeby ich dyski na sf sprawialy tyle samo problemow co vertexy czy moze troche lepiej dopracuja firmware. Zreszta u intela chyba tez z tym teraz kiepsko sadzac po wpadce z 310tkami...

  3. hmm (autor: beiks | data: 17/09/11 | godz.: 13:19)
    calkiem mozliwe, ze Intel kupi SandForce :/ - widac nie potrafia zrobic wlasnego porzadnego kontrolera nowej generacji (nawet w G3 dalej jada na jakims kotlecie sprzed paru lat)

  4. @josefek, beiks (autor: ElFi | data: 17/09/11 | godz.: 15:55)
    To nie jest kwestia wiedzy jak to zrobić, tylko patentów. SandForce opatentowało kilka rzeczy i reszta ma teraz kłopot, jak zrobić to samo, ale inaczej. Dla Intela to może nie jest znacząca działka, ale taki np: Seagate też przespał sprawę. Jedyne wyjście dla takich firm to kupno właścicieli patentów (lub słone opłaty).

  5. @2. (autor: Mariosti | data: 17/09/11 | godz.: 16:13)
    Jak dyski twarde padają sobie z terabajtem danych to wszystko jest ok, ale jak mały ssd z systemem i bez żadnych istotnych danych padnie na niedopracowanym fw to jest wielkie halo, pomyśl chwilę zanim takie bzdury będziesz znów wypisywał...

  6. @up (autor: Plackator | data: 17/09/11 | godz.: 18:36)
    Dane odzyskać z HDD to nie problem, ale już z SSD, jest duży problem.

    Ale nikt raczej SSD w zastosowaniach profesjonalnych nie używa, patrząc na ich awaryjność i małą żywotność.

    A HDD jak nie padają, tak dalej nie padają, poza tym odpadami za 200-400zł, które się wpycha ludziom.


  7. C6- tylko za drugie 200 zloty sobie backup zrobisz (autor: josefek | data: 17/09/11 | godz.: 20:32)
    i problemu prawie nie ma...
    a co do C4- nie wydaje mnie sie ze Inteel nic nie opatentowal...


  8. @6. (autor: Mariosti | data: 17/09/11 | godz.: 21:08)
    A kto będzie dane z hdd odzyskiwał jak nie ma kasy na ssd? To bynajmniej nie jest tanie.

  9. .:. (autor: anon1984 | data: 17/09/11 | godz.: 21:50)
    @Mariosti

    Jak dotlej porty nie słyszałem żeby ktoś z dysków SDD budował sobie macierze RAID 5 i wykorzystywać je w zastosowaniach serwerowych. Dlatego że w ich przypadku awarii mamy przechlapane na samym początku, powodem jest sposób zapisu danych i niedorozwinięte narzędzia oraz metody odzyskiwania danych (mechaniczne dyski twarde maja już 54 lata).

    Co do odzyskiwania danych - wiadomo ceny są z kosmosu, ale już zakup profesjonalnego oprogramowania daje wymierne korzyści i nie jest jakimś niewyobrażalnym kosztem. W takich zastosowaniach stosuje się przynajmniej RAID'a 1 i co jakiś czas tworzy kopie zapasowe całego serwera.

    Pzdr.


  10. @9. (autor: Mariosti | data: 18/09/11 | godz.: 00:04)
    W środowiskach serwerowych swego rodzaju protoplaści ssd byli wykorzystywani już prawie 30 lat temu, więc zdziwiłbyś się jakie to popularne rozwiązanie właśnie na tym rynku... Czy na prawdę sądzisz że ktoś przy zdrowych zmysłach stawiając serwer bazodanowy zamiast wykorzystania dwóch sztuk ssd w raid1 (~100000 iops), kupi sobie całą szafę rackową serwerowych hdd(~300 iops sztuka) połączonych w wielką macierz bardzo drogimi kontrolerami tylko po to aby osiągnąć zbliżoną liczbę transakcji? W profesjonalnych zastosowaniach ludzie myślą i trzeba by postradać zmysły aby używać hdd w serwerach obsługujących wielką liczbę transakcji, a jak ma się kasę na szafę rackową dysków twardych to ma się też kasę np na ssd rack'i robione przez fusion io, albo sun/oracle i wtedy ma się kosmiczną wydajność i bezpieczeństwo danych we względnie małym serwerze, zużywającym mało energii, tanim w kolokacji i zakupie.
    Co innego serwery plików, tam zawsze wykorzystywana będzie pamięć z najniższą ceną za GB pojemności.


  11. @10 (autor: bmiluch | data: 18/09/11 | godz.: 10:24)
    SSD wyglądają nadal na bardziej awaryjne i droższe

    koszt większej awaryjnosci, przekłada się na wyższe koszta serwisu i dłuższe przestoje;
    wprowadzanie nowych rozwiązań to dodatkowe ryzyko, za które może zostać zwolnionym (wystarczy czasem sam pech)

    w standardowych profesjonalnych rozwiązaniach nikt nie chce być świnką morską i jeżeli to możliwe, unika niesprawdzonych rozwiązań

    jeżeli coś chodzi trochę wolniej, ludzie narzekają; jeżeli coś się psuje (jak SSD) i serwis jest offline - sypią się głowy

    u nas nowsze serwery mają 64GB ram, ale nadal działają na HDD (ale może decydenci są staroświeccy)


  12. @11. (autor: Mariosti | data: 18/09/11 | godz.: 14:10)
    Jaka jest szansa że padną 2 ssd w raid 1 na raz? Żadna. Jaki jest koszt utrzymania, serwisowania i zakupu macierzy hdd mogącej obsługiwać taką samą liczbę operacji na sekundę jak pojedynczy ssd? Kosmiczna. I to by było na tyle.

  13. .:. (autor: Shneider | data: 18/09/11 | godz.: 16:21)
    Mariosti - niestety bardzo duża.

    Raid (sprzętowy) nie korzysta z trim. Dodatkowo dane na obu dyskach są zapisywane identycznie w identycznych miejscach (wear leveling wiele nie pomoże).
    Nowe kości flash mają co najwyżej 2000 cykli zapisu, co dla systemów bazodanowych jest skandalicznie niską wartością.

    Dopóki nie pojawią się kontrolery które sprzętowo są przygotowane do obsługi ssd nie ma co liczyć że wyprą hdd w serwerach.

    Obecnie znacznie taniej i wydajniej jest klasycznie upychać dyski talerzowe z drogimi kontrolerami niż pchać się w ssd.

    Buda za 9k [ http://www.supermicro.nl/...17/SC417E16-R1400U.cfm ]
    72x Savvio 10K.5 (600GB 10000rpm) kosztujących ledwie 1,5k.
    3x kontroler 24 portowy po 4k.
    Płyta, proc, ram 10-20k
    Razem 149k zł pojemność 39TB i współczynnik awarii bliski 0. Pomimo skrajnie wysokiej ceny, wciąż jest to bardziej opłacalne od ssd.
    1,2TB SSD to 24k. Możemy do jednego sprzętu włożyć ich 7, uzyskując tylko 8,4TB za 198k.
    Można by powiedzieć że wzrost szybkości operacji na sekundę jest proporcjonalny do współczynnika awarii ;-)

    Niezaprzeczalnie SSD to przyszłość, ale tylko w chwili kiedy samsung lub ktoś inny opracuje nowy typ komórek które są tanie w produkcji i nie zużywają się tak szybko.
    Wszelkie Vertexy i inne wynalazki wykorzystują 10-20% obszar zapasowy co dosyć wyraźnie mówi o żywotności.

    Natomiast jak komuś zależy na maksymalnej licznie operacji na sekundę to SSD nie jest lekarstwem.
    [ http://www.supermicro.nl/...00/SR56x0/H8QGi_-F.cfm ]
    32 banki DDR3, które możemy obsadzić byle 4GB kostkami po 80zł co daje nam 128GB za 2400zł z liczbą operacji ograniczoną jedynie mocą procesora, a transfery sięgające 40GB/s.
    A przy użyciu kostek 16GB po 1,2k mamy 512GB w cenie 38k.
    Płyta i procki to 15k, buda 3k.
    Razem 56k, to tyle co dwa SSD 1,2TB. Zakładając że ssd pracuje w raid 1, otrzymujemy tylko połowę pojemności w podobnej cenie z osiągami kilkukrotnie większymi.

    Także wszystko zależy co komu potrzeba i ile ma na to pieniędzy.

    Całe szczęście producenci kontrolerów zdają sobie sprawę z ograniczeń, ale niestety jak żywotność komórek będzie wciąż maleć to nie wróże świetlanej przyszłości w zastosowaniach profesjonalnych.

    Kiedyś flash miał od 100k do 1mln cykli zapisu a i tak trzeba było się pilnować buforując zapisywanie logów lub innych pierdół, bo w krótkim czasie można było popsuć pamięć. Dzisiaj mamy 2000 cykli, w domu się jeszcze sprawdzi ale w bazach danych długo nie pożyje.


  14. @13. (autor: Mariosti | data: 18/09/11 | godz.: 18:59)
    Wow Shneider, widzę że zupełnie nic nie wiesz o ssd.
    Raid niezależnie czy sprzętowy czy softowy wysyła do pamięci masowej jedynie polecenia. Sprzętowy różni się tym że ma do tego dedykowany procesor, pamięć i ewentualnie dodatkowe mechanizmy buforowania, niezależne od centralnego procesora w komputerze.
    TRIM nie jest potrzebny ssd na nowych kontrolerach marvella i na sandforce'ach ponieważ mają sprzętowy garbagecollector którego działanie komendy trim jedynie przyspieszają, ale nie są do tego konieczne.
    Dalej, wear leveling to niskopoziomowa kwestia do której dostęp ma tylko kontroler danego ssd, nie ważne jaki raid sobie postawisz i tak wear leveling działa, bo kontroler raid ma tylko dostęp do logicznego adresowania pamięci ssd, to co z poleceniami na pamięć logiczną zrobi kontroler ssd to już tylko jego kwestia.
    Kolejna rzecz - "2000 cykli zapisu", przeczytałeś nie wiadomo gdzie i nie wiesz nawet co to oznacza - to jest coś jak MTBF - to średni czas do błędu zapisu i gdy wystąpi... albo i wystąpi kilkaset takich na raz (co jest zupełnie nieprawdopodobne) to i tak nie ma żadnego problemu ze spójnością i poprawnością danych w ssd dzięki sprzętowemu ecc. Co więcej, komórka po takim błędnym zapisie dalej nadaje się do używania, bo ona nie ulega zniszczeniu, tylko następuje błąd przy zapisie.

    Owszem, stawianie serwera na MLC jest bez sensu, bo po roku mocnego użytkowania faktycznie komórki pamięci mogłyby się zużyć (te 1000TB zapisów), ale na rynek enterprise mamy przecież ssd na kościach SLC i wtedy jest to inwestycja na lata.

    Teraz kolejna kwestia... ssd 1.2TB za 24k? Jak już do środowiska serwerowego to może jednak Vertex 2 EX 200GB (~9k zł) i io mamy na poziomie 50000, mtbf ~10mln h.

    W przypadku bazy danych nie potrzebujesz 39TB bo mało która baza danych zbliża się do 1tb, wliczając w to molochy zusu, pkt itp. A takie założenie przyjmowałem że liczy się nam współczynnik iops, a nie pojemność, bo to nie ma być serwer ftp.
    Przy 72 hdd 10k rpm co roku będziesz miał popsute średnio 3 sztuki, bądź więcej (tyle zakłada producent przynajmniej seagate, w przypadku ocz'ta jest to mniej niż 1 sztuka na 100 rocznie). Nie muszę chyba przy tym wyjaśniać że te 72 savvio przy teoretycznym perfekcyjnym skalowaniu wyciągną najwyżej 21k io (wiem, przy porządnych kontrolerach raid ich bufory powinny to podbić dość mocno do góry), czyli wciąż 2x mniej od jednego ssd.
    Łącząc 24 takie ssd na jednym kontrolerze w np raid 5 mamy faktycznie jakąś 40x wyższą wydajność niż przy macierzy na hdd kosztującej podobną kwotę, ok 4x mniejsze zużycie energii, a o niezawodności wspominał nie będę, bo macierze na hdd np w raid 5(nikt przy zdrowych zmysłach nie stawia na serwerach raid 0 jak to w wyliczeniach swych sugerowałeś) też są niezawodne w ten sposób że po prostu wymieniamy od czasu do czasu popsute hdd bez utraty danych w macierzy.

    Tak więc... podobna cena - 40x większa wydajność ssd.

    Ram i cpu w serwerze ma wystarczająco wiele do robienia cały czas i robienie z niego ramdisku jest zupełnie nierealne, po to właśnie sprzętowe kontrolery raid mają własne cpu i ram. A nawet gdyby było to możliwe to taki ramdisk mógłby tylko uzupełniać macierz ssd jako bufor.


  15. .:. (autor: Shneider | data: 18/09/11 | godz.: 20:45)
    Mariosti - widzę że nie trafiłem z poziomem.

    2009 rok 10000 cykli zapisu [ http://www.anandtech.com/show/2829/2 ]
    Sam intel podaje żywotność [ http://twojepc.pl/news24734.html ]
    Micron 2007 rok 10000 cykli dla MLC [ http://download.micron.com/...ient_truths_nand.pdf ]
    2010 rok [ http://cache.micron.com/...arNAND_presentation.pdf ]
    drastyczny wzrost konieczności korekcji błędów dla 32nm

    Poświęć chwile, nie znajdziesz żadnej informacji że 22nm NAND mają więcej jak 5k cykli zapisu.
    HDD ma 600k.
    MTBF w przypadku SSD to bzdura, awaryjność SSD jest nieporównywalnie większa od HDD. Znacznie więcej informacji znajdziesz o BSOD na SSD niż na HDD, których to z kolei sprzedaje się znacznie znacznie więcej.

    Podane przykłady macierzy miały jedynie pokazać koszty rozwiązań. Także nie trudź się na szukaniu dziury.
    Napisz mi gdzie pisałem o raid 0? ;-) 72x600GB != 39TB (zgadniesz dlaczego?)

    SSD na SLC to egzotyk, vertex 2 ex 200GB kosztuje 14k, co mówi samo za siebie. W pewnych zastosowaniach warte swej ceny za 10x większą liczbę zapisów, ale wciąż zbyt małą do profesjonalnych zastosowań.

    Jeżeli się oburzyłeś to bardzo mi przykro, ale nie zmieni to sytuacji, że obecne kości flash są ujowe jak nieszczęście.


  16. @15. (autor: Mariosti | data: 18/09/11 | godz.: 21:24)
    Wyobraź sobie że wiem ile to 72*600GB, 42TB czyli 39TB sugeruje tutaj 3x raid 6, ale już 7*1.2TB jakby nie patrzeć = 8.4TB.
    SSD na SLC to nie egzotyk, tylko norma w klasie enterprise, a cena 9tys zł za 200GB Vertexa 2 EX jest przeliczona z dolarów. 14k to byłoby poważne przepłacenie.

    A teraz względem linków które sam podałeś. Załóżmy że mamy 60GB ssd na nowych kościach mlc z wytrzymałością 2000 cykli zapisu po czym "magicznie przestają działać", daje to teoretycznie ile? 120TB zapisów i to bez wzięcia pod uwagę faktu iż komórki mogą padać w ssd i jest to normalne, że komórki po błędnym zapisie mogą dalej działać poprawnie (po ponownym zapisaniu), nie biorąc pod uwagę over provisioningu i sprzętowego ecc. 120TB zapisów to sporo, a jak można było nawet w innym newsie o ssd na nowych heMLC intela w rzeczywistości ten współczynnik przekracza 900TB zapisów i to wszystko na MLC. Nie w przypadku SLC gdzie wytrzymałość jest jakieś 50x wyższa.

    "MTBF w przypadku SSD to bzdura, awaryjność SSD jest nieporównywalnie większa od HDD. Znacznie więcej informacji znajdziesz o BSOD na SSD niż na HDD, których to z kolei sprzedaje się znacznie znacznie więcej."

    Aha, a wiesz czym są spowodowane awarie ssd w 90% przypadków? Wadliwym firmwarem. W sprzęcie dedykowanym do serwerów takie sytuacje zwyczajnie nie mają miejsca.

    Zresztą nie rozumiem w ogóle po co wchodzisz w dyskusję tutaj... ssd są szybsze o rząd wielkości od hdd które są najwolniejszą pamięcią w komputerze, toteż pierwszym ich rynkiem był enterprise, ale bardzo dobrze stało się że technologia ta od 3 lat zaczyna trafiać do zwykłych komputerów bo ma zwyczajnie zbyt wiele zalet i dzięki konkurencji na rynku masowym nastąpił bardzo szybki postęp w wydajności kontrolerów do ssd. Dzięki temu w jednej karcie na PCI-E możesz mieć 3.2TB SSD osiągające 400tys iops, transfery na poziomie 3GB/s, zużycie energii w okolicach 25W i wytrzymałość na dobre 10PB zapisów. Jak bardzo nierealne osiągi musiałoby mieć ssd abyś przejrzał na oczy? Zdajesz sobie sprawę z tego (wracając do poprzedniego przykładu twego) że w tym porównaniu nawet 20 takich macierzy hdd nie poradziłoby sobie z takimi obciążeniami które nie stanowiłyby żadnego problemu dla jednej macierzy z ssd...


  17. Należy uwzględnić.... (autor: PiotrexP | data: 18/09/11 | godz.: 21:48)
    ...także pobór mocy: właściwy oraz związany z chłodzeniem (wtórny). Nie wolno tego pomijać w rozliczeniu. Jest to koszt dokładnie taki sam jak koszt sprzętu z punktu widzenia inwestora.

  18. .:. (autor: Shneider | data: 18/09/11 | godz.: 22:27)
    Mariosti - czy Ty w ogóle zrozumiałeś to co napisałem?

    7x1,2TB (PCI-e) raid software'owy nie wchodzi w grę (można ale mija się to z celem i tracimy na wydajności, tylko sprzętowy) Rozumiesz?

    Idziesz w złą stronę.

    Nie twierdze że ssd to zło wcielone i że powinno się go unikać. Sam proponuje to rozwiązanie na system.

    Pokazałem jedynie że w przypadku profesjonalnych zastosowań daleko im do przejęcia rynku.

    Dzisiejsze dyski pomimo iż maja znacznie dłuższa tradycje i wyższą żywotność potrafią powstać bady, a ich żywotność jest dziesiątki razy większa w porównaniu do SSD.

    Dopóki nie zobaczę na masową skale stosowania SSD w zastosowaniach prof. nie zmienię zdania.

    To o czym piszesz czyli 400tyś iops jest cudowne ale stosowane w wyjątkowych sytuacjach i sporadycznie. Ale również i tam SSD nie jest czymś cudownym co pokazałem.

    SSD wciąż wychodzi z okresu raczkowania. Wear leveling nie jest idealnym narzędziem do nadzoru pracy ponieważ nie liczy ile razy każda komórka została użyta, z tego powodu zaczynają się pojawiać rozwiązania w stylu zapisywanie sumy, korekcje błędów. Ale to tylko ratowanie trupa.
    Dodatkowo wracając to liczby zapisanych danych. Uważasz że 120TB czy nawet 900TB to liczba niemożliwa do osiągnięcia? W zastosowaniach gdzie 400k IOPS jest nam na rękę równie dobrze może przez dyski przewalać się ogromna ilość danych. Dla przykładu OCZ R4 o którym wspomniałeś osiąga transfery rzędu 2,8GB/s więc 900TB zapiszemy w ciągu ledwie 4 dni. I tutaj jest pies pogrzebany. Niby wszystko fajnie a jednak...

    Ale jak już kilkukrotnie zaznaczałem, zależy kto i do czego chce ich używać. SSD jest bardzo szybkie, drogie i awaryjne. Tego nie zaprzeczysz.


  19. @Shneider (autor: Mariosti | data: 18/09/11 | godz.: 23:39)
    Jeszcze raz - nie ważne jaki kontroler raid dasz, nie ma on wpływu na wear leveling, gc i inne wewnętrzne mechanizmy ssd obsługiwane przez jego własny kontroler.

    400tys iops, no tak bardzo wyjątkowe sytuacje, np serwer php albo sql.

    Działanie wear leveling właśnie na tym polega że kontroler zlicza ile raz zapisana była dana komórka pamięci... sprzętowe ecc to po prostu dodatkowy gwarant wielokrotnie obniżający prawdopodobieństwo wystąpienia błędnej operacji.

    W R4 z prostej matematyki wynika że masz ok 10PB dostępnych zapisów w modelu 3.2TB.

    Jeśli coś udowodniłeś to tylko to że poza serwerami plików hdd są skazane na wymarcie bo są zwyczajnie za drogie w takich zastosowaniach w porównaniu do ssd.


  20. Mariosti (autor: Plackator | data: 19/09/11 | godz.: 00:12)
    Zatem co powiesz na komentarz tego usera?

    http://pclab.pl/kom61028.html#c497931


  21. .:. (autor: Shneider | data: 19/09/11 | godz.: 00:18)
    Mariosti - Obecne kontrolery powstały pod dyski talerzowe. W przypadku HDD wiesz gdzie są fizycznie dane.
    SSD w tym przypadku miesza, nie masz zbytnio kontroli gdzie co trafia.
    Wear leveling nie zlicza ile razy była zapisana komórka, tylko cały duży blok, ponieważ fizycznie nie jesteś w stanie zapisać wszystkich cykli bo sam mechanizm by zajmował więcej miejsca niż SSD.
    W rzeczywistości procedura działa ale nie idealnie, stąd ciągłe problemy ludzi z systemowymi SSD.

    Nie bez powodów LSI zapowiedziało stworzenie nowego typu kontrolera właśnie dla flash i pomimo iż od tych deklaracji miną już rok z hakiem to jedynie mogą zaproponować [ http://www.lsi.com/.../Pages/WarpDriveSLP-300.aspx ] 32nm kości SLC z żywotnością 10k, śmiesznie to wygląda nie?

    10PB to 42dni ciągłej pracy na pełnych obrotach, niby dużo ale zakładając, że jeden taki potwór przetworzy 1000x operacji na sekundę niż HDD to te 42dni wydaje się biedną wartością.

    "Jeśli coś udowodniłeś to tylko to że poza serwerami plików hdd są skazane na wymarcie bo są zwyczajnie za drogie w takich zastosowaniach w porównaniu do ssd." To Ty tak twierdzisz.

    No i pamiętaj, że w przyszłości flash będzie w 14nm co jeszcze bardziej zmniejszy żywotność.


  22. @Plackator (autor: Mariosti | data: 19/09/11 | godz.: 00:45)
    Raid 0.

    @Shneider
    Tak się składa że ssd nie jest w stanie nadpisać tylko pojedynczych bajtów, a nadpisuje właśnie bloki pamięci, zależnie od kontrolera bywa to od 0.5MB do nawet 8MB.

    "10PB to 42dni ciągłej pracy na pełnych obrotach, niby dużo ale zakładając, że jeden taki potwór przetworzy 1000x operacji na sekundę niż HDD to te 42dni wydaje się biedną wartością."

    Na żadnym serwerze nic nie pracuje 24/7 na pełnych obrotach. Kwestia jest taka że w godzinach szczytu takie ssd nie będzie miało problemu. W związku z tym nawet jeśli będzie trzeba takie ssd wymienić raz na rok to i tak będzie to bez porównania tańsze rozwiązanie niż macierz hdd zajmująca małą halę...


  23. Bardzo ciekawa dyskusja miedzy dwoma sprzedawcami masowych pamieci (autor: josefek | data: 19/09/11 | godz.: 06:55)
    dodam tylko to, ze technologia hhd, co pewien czas robi olbrzymi skok do przodu i wedlug moejego zdania w dalszym ciagu bedzie to robila, np zastapienie talerzy , cylindrami itd, a technologia SSD ma takie same limity jakie maja microprocessori, pewien prog za wysoki jest aby go przeskoczyc i trzeba go obejsc...

  24. Ciekawa dyskusja ... (autor: Muchomor | data: 19/09/11 | godz.: 11:51)
    ... i nie ulega wątpliwości, że SSD lub ich następcy przejmą w końcu całośc rynku. Także w zastosowaniach pro. Póki co, to jednak nie słyszałem, żeby firmy posiadające wielkie centra serwerowe w ogóle nawet mówiły o przejściu na SSD.
    My mamy jesteśmy średniakiem, ok. 200 serwerów, więc jest to już co planować. Zaczynamy się wirtualizować. Przyszło kilkanaście serwerów CISCO i do tego duże SAN od EMC. Wszystko na SAS. Nikt nawet nie proponował nam SSD, a oferentów było nastu. Ciekawe czemu?
    Nie przeczę, że są pewne specyficzne zastosowania gdzie uzysk z SSD wart będzie nawet regularnego podmieniania padniętych dysków, ale realnie to moment przejęcia przez SSD rynku pro jest jeszcze odległy.
    Tu nie ma o czym dyskutować, tak po prostu jest.


  25. @up (autor: Plackator | data: 19/09/11 | godz.: 14:33)
    A ten moment nastanie, jak skączy się żywot pamięci flash, i zostanie zastąpiona inną technologią :P np: PRAM

  26. @Shneider (autor: zgf1 | data: 19/09/11 | godz.: 22:13)
    Piszesz o ciaglych awariach ssd, ale masz chyba na mysli wylacznie profesjonalne zastosowania generujace wielki ruch prawda?

    Bo chyba nie o userach domowych...


  27. .:. (autor: Shneider | data: 20/09/11 | godz.: 11:06)
    Mariosti - co ma raid do awarii dysku? Lub inaczej, jakie jest prawdopodobieństwo awarii dysku! (nie woluminu) w raid 1 i 0? W obu przypadkach identyczne, więc o czym piszesz?

    "Na żadnym serwerze nic nie pracuje 24/7 na pełnych obrotach." Poważnie? To może mylisz serwery ze stacjami roboczymi.

    I jeszcze jeden fakt o którym zapomniałem. Załóżmy że SSD jest zapełnione w 95%. Działanie na takim urządzeniu jest dalekie od parametrów deklarowanych przez producenta, a wear leveling wiele nie zrobi bo po prostu nie ma gdzie.

    zgf1 - piszę o rynku prof. w którym ssd jeszcze nie zagościło, nie licząc wyjątków. A domach jest nieźle ale wciąż daleko od ideału. Ludzie mają ogromne problemy z nowymi ssd na 22nm kościach, w internecie aż szumi od negatywnych komentarzy.


  28. No ale to glownie chyba za sprawa spartolonego (autor: zgf1 | data: 20/09/11 | godz.: 11:56)
    firmware ssd firmy OCZ, ja tam na szczescie mam starenkiego samsunga, jeszcze na kosciach 50nm wiec pewnie jest zywotniejszy - juz ponad rok zyje i na razie ma sie dobrze ;)

    Ale faktycznie w nowych ssd ta zywotnosc 2000 cykli troche przeraza...


  29. ... (autor: ElFi | data: 20/09/11 | godz.: 12:29)
    Też posiadam starego Samsunga Thin 64GB. Ma ze dwa lata, 6TB zapisu i przytrafił mu się jeden relokowany blok (pozostało jeszcze 1922 bloków). mam też kilka Inteli 40GB pracujących w RAID0 - za kilka dni rozbiorę tą macierz (wymiana na nowsze dyski lub REVO) i zobaczę w jakim są stanie po dwóch latach użytkowania.

    
D O D A J   K O M E N T A R Z
    

Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.