Twoje PC  
Zarejestruj się na Twoje PC
TwojePC.pl | PC | Komputery, nowe technologie, recenzje, testy
M E N U
  0
 » Nowości
0
 » Archiwum
0
 » Recenzje / Testy
0
 » Board
0
 » Rejestracja
0
0
 
Szukaj @ TwojePC
 

w Newsach i na Boardzie
 
TwojePC.pl © 2001 - 2019
Czwartek 18 sierpnia 2011 
    

Intel wyeliminował problem "8MB" w swoich SSD


Autor: Wedelek | źródło: Intel | 12:38
(27)
Od pojawienia się błędu nazwanego "8MB", który częsci użytkowników skutecznie utrudniał używanie dysków SSD Intela z serii 320 upłynęły trzy tygodnie. Dziś producent poinformował, że udało się całkowicie rozwiązać wspomniny problem. Poprawka została zawarta w nowym oprogramowaniu oznaczonym symbolem 4PC10362, które można pobrać TUTAJ w formacie ISO. Niestety osoby, których dyski padły ofiarą wspomnianego błędu nie mogą liczyć na bezpłatne przywrócenie utraconych danych.

Wspomniany błąd "8MB" swoją nazwę zawdzięcza ilości przestrzeni dyskowej, do której kurczyła się ta właściwa wyrażona w kilkudziesięciu Gigabajtach (np. ze 120GB pozostawało dostępnych zaledwie 8MB). Najczęściej problem ten pojawiał się po nagłym zaniku zasilania.

Teraz jednak użytkownicy SSD Intela mogą już spać spokojnie, bez obawy o awarię dysku.

 

    
K O M E N T A R Z E
    

  1. SSD (autor: Conan Barbarian | data: 18/08/11 | godz.: 12:45)
    Bardzo długo zastanawiałem się nad SSD do mojego nowego kompa i postanowiłem, że jednak kilka dysków ST3500413AS (500GB po 139zł) załatwi sprawę taniej i lepiej.

  2. taniej TAK lepiej NIE (autor: Xymeon_x | data: 18/08/11 | godz.: 12:51)
    jeśli chodzi o dysk systemowy to nic nie jest w stanie zagrozić SSD które są rewelacyjne jeśli chodzi o prędkość i nie mają konkurencji a na magazyn standardowe 'talerzowce' i wszystko...

  3. Ad. 1. (autor: P.J._ | data: 18/08/11 | godz.: 13:03)
    Właśnie skoro Conan ma te kilka dysków "zraidowane" w trybie stripping, to odczuwalna szybkość pracy systemu może być podobna do jednego dysku SSD. Ogólnie może napiszesz Conan ile kokretnie dysków masz podpiętych i jakie masz praktyczne prędkości zapisu i odczytu. Bardzo mnie ciekawi taka konfiguracja. Jedyny minus - więcej prądu. Ciekawi mnie też, czy system na w takim rajdzie za każdym rezem "odpala się" prawidłowo, czy - jak to kiedyś widziałem u kolegi, co któryś raz.

  4. @Xymeon_x (autor: VP11 | data: 18/08/11 | godz.: 13:15)
    a co jak dodac 6 dyskow w raid 5 (lub 6). za niecale 900zl moze byc ponad 2TB miejsca z calkiem dobra predkoscia (jak kontroler bedzie dobry)

  5. RAID 5 (autor: Conan Barbarian | data: 18/08/11 | godz.: 13:16)
    Rzecz (w RAID 5) przekłada się wydajnościowo niemal tak: (n-1) x wydajność jednego dysku. Ledwie odpaliłem płytę Asrock P67 PRO3 z Core i5 2500 i nie miałem jeszcze zbytnio czasu na zabawę z moimi 4 dyskami 500GB (do tego 2TB HD204UI i nagrywarka).
    Ktoś zapyta dlaczego 2500 a nie 2500K?
    Oto dlaczego:
    - pełne wsparcie vPro Technology (VT-x, VT-d)
    - limited overclocking +400MHz (śmieszne, ale w przypadku mojej płyty ustawia się zwyczajnie max mnożnik 41 i już, a wszystko powyżej sama zmienia do 41), co daje dla jednego aktywnego rdzenia 4,1GHz
    - odrobinę taniej niż 2500K a 3,7GHz przy czterech obciążonych rdzeniach to i tak kosmos.


  6. @1 taniej? (autor: arra | data: 18/08/11 | godz.: 13:27)
    Chyba nie policzyłeś ile prądu bierze tyle talerzowców
    lepiej?
    kilka HDD wydziela sporo ciepła, a ciepło to zło, bo trzeba więcej wiatraków, więc jest głośniej i znowu więcej prądu potrzeba ;)

    PS. 5xHDD to max 1000 IOPS, do SDD jeszcze daleka droga :)


  7. cd.. (autor: arra | data: 18/08/11 | godz.: 13:30)
    nie mówiąc już o hałasie jakie HDD wydziela.

    PS. Conan, czy 2500K nie ma pełnego wsparcia dla vPro?


  8. @arra (autor: Conan Barbarian | data: 18/08/11 | godz.: 13:33)
    sprawa zasilania - ST3500413AS to naprawdę dysk ledwie ciepławy (35 stopni)
    2500K, 2600K - tylko VT-x: http://ark.intel.com/VTList.aspx


  9. @05 (autor: Conan Barbarian | data: 18/08/11 | godz.: 13:43)
    sprostowanie - przy czterech rdzeniach 3,8GHz

  10. Ugh... (autor: Kenjiro | data: 18/08/11 | godz.: 15:32)
    Raid 5 to żadna wydajność, odczyt jest sensowny tylko w sekwencji, a przy randomie jest średnio taki jak wydajność pojedynczego dysku. Zapis za to jest żenująco niski.
    Co więcej, ja się chętnie dowiem z jakiego kontrolera się korzysta, bo wbudowane robią soft-raid, mocno obciążają procka, mają niezbyt rozbudowany cache prediction - same wady, a dokładając do tego dyski SATA, które same wydajnością nie grzeszą... co my w ogóle porównujemy... ;)


  11. @09 (autor: Plackator | data: 18/08/11 | godz.: 17:00)
    Jakiego kontrolera używasz? bo z intergrowany
    dławi się już przy 2 dyskach i powyżej 2 nie daje żadnego wzrostu wydajności, wręcz przeciwnie, spadek.

    Co do SSD
    Nie kupie tego do niczego innego niż rzeczy wymagających tylko odczytu... jak widzę że pen-drive USB pada po 2 dniach intensywnego użytkowania, to co dopiero będzie jak zacznę intensywnie zapisywać na moim dysku SSD...


  12. @11 pen pada w 2 dni? co Ty mowisz? (autor: zgf1 | data: 18/08/11 | godz.: 17:17)
    A odnosnie SSD nie ma sie co bac, maja mechanizm wearliving, ja ssd uzywam juz od ponad roku, dzialal na nim najpierw WinXP pozniej Win7 i zadnych problemow z zywotnoscia.

    A kopa SSD dal niesamowitego..


  13. @12 (autor: Kenjiro | data: 18/08/11 | godz.: 18:23)
    Zapisz na dysku 100k plików, skasuj co drugi, zrób na nim defragmentację, dograj 50k plików, i tak 100 razy i zobaczysz na co ci wear leveling (nie living) ;). To przykład działania bazy danych, czyli właśnie tego co opłaca się instalować na SSD ze względu na IOPS.
    Wg mnie producenci powinni jawnie podawać jaki jest średni czas życia pojedynczej celi, czyli średnia ilość zapisów, po której cela padnie. To jest znacznie bardziej miarodajne w przypadku SSD, dla których wartości MTBF osiągają kosmiczne wartości, bo są liczone dla wyjątkowo korzystnych założeń algorytmu rozrzucającego dane.


  14. @12 (autor: Plackator | data: 18/08/11 | godz.: 20:05)
    Ciekawe ile SSD z 2000 cyklami da rade 10x/dziennie zapisanie całej jego pojemności, bo właśnie tak to wygląda u mnie, bo ja myśle ze max. pół roku.

    @13
    Podają aktualnie średnia dla jednej komórki to 2000, rok temu było ok. 6000, pare lat temu ok. 10000, z roku na rok wraz z ceną, dużo szybciej spada ilość cykli.

    Poza 'tylko do odczytu", lub windows "tylko do odczytu" do niczego innego się nie nadaje, bo włączenie SWAP na SSD to jest samobójstwo.


  15. hmm no to w razie czego masz gwarancje ;) (autor: zgf1 | data: 18/08/11 | godz.: 20:36)
    dobrze, ze moj ssd jest jeszcze wykonany w 50nm ;)


    Ja mowilem raczej dla domowego uzytkownika, nikt o zdrowych zmyslach w ten sposob ktory piszecie nie bedzie uzywal SSD, do takich zadan to SLC i problem z glowy.


  16. @13 po co defragmentacja na ssd? (autor: zgf1 | data: 18/08/11 | godz.: 21:01)
    123

  17. @Kenjiro (autor: ElFi | data: 18/08/11 | godz.: 21:20)
    Nie wiesz co to jest MTBF to nie gadaj o kosmicznych wartościach. MTBF to prawdopodobieństwo uszkodzenia urządzenia przez rok użytkowania i w przypadku wartości "2mln godzin" oznacza, że statystycznie 0,438% dysków padnie w ciągu roku (czyli co 230 dysk).

    Co do RAID5, ja mam taką macierz z 8 dysków 2TB Seagate. Zawiaduje tym kontroler LSI 9260-8i (procesor LSi 2108 800MHz i 512MB cache). Żenująco niski zapis osiaga 900MB/sec na początku talerzy i nie obciąża przy tym głównego CPU. Za to softraidy 5 (integry) to nieporozumienie.


  18. @15 (autor: Plackator | data: 18/08/11 | godz.: 21:32)
    Nie wiem jak z SSD, ale pen drive jak i karty pamięci nie obejmuje tego gwarancja, tzn zużycia

  19. @17 (autor: Kenjiro | data: 19/08/11 | godz.: 09:37)
    Cóż, co to jest MTBF? Mean Time Between Failure, czyli średni czas awarii, a nie prawd. uszkodzenia przez rok - co za bzdurę wymyśliłeś!
    Co więcej, dla SSD ten parametr jest kompletnie bez znaczenia, bo można dowolnie nim żonglować poprzez zmiany algorytmu rozkładania danych i przyjmowanie wygodnej wersji przez producenta. Jeśli cela ma średni czas życia ok. 2000 zapisów, to jest to żenada i porażka i w tych zastosowaniach, gdzie się naprawdę opłaca stosować SSD, tam one najszybciej padną, bo żaden algorytm nie jest w stanie pomóc na losowe zapisy z dużą częstotliwością (wysokie IOPS) na dużej powierzchni dysku (np. 50% całej pojemności).
    A co do 900MB/s to jak sądzę, jest to sekwencyjny zapis do cache, a nie losowy? Na bardzo dobrej macierzy z dyskami 15k SAS RAID1+0 osiąga się 200MB/s losowego zapisu, a sekwencyjne osiągają kosmiczne wartości i są całkowicie pozbawione sensu w przypadku stosowania dużego cache (4GB na przykład).


  20. @Kenjiro (autor: Dzban | data: 19/08/11 | godz.: 12:16)
    Przeczytaj co dokładnie znaczy MTBF i jak się go wyznacza. I nie pisz głupot na ten temat bo nie masz racji. A to że do rzeczywistej żywotności SSD nie ma w tym parametrze odniesienia to zupełnie inna kwestia.

  21. Kenjiro (autor: GULIwer | data: 19/08/11 | godz.: 13:45)
    defrag na SSD a na co ?? SWAP przy takiej jaką mamy obecnie cene DDR3
    dla korporacji masz dyski na SLC z x10 żywotnością komórki


  22. @20 (autor: Kenjiro | data: 19/08/11 | godz.: 18:59)
    Dzban, napisz jak się wyznacza, bo ja wiem, a napisałem dokładnie co oznacza - średni czas życia do awarii (pomiędzy awariami). Jeśli chcesz mi zarzucać głupotę, określ gdzie ona leży, bo na razie sam z siebie robisz głupca.

  23. @21 (autor: Kenjiro | data: 19/08/11 | godz.: 20:08)
    To był przykład, baza danych robi gorsze rzeczy niż defrag. Ważne, że dysk można zabić w chwilę moment, tym bardziej, że strach kupować, bo producent nie podaje ULTRA WAŻNYCH danych, takich jak średni czas życia pojedynczej celi, czy dokładna wielkość tej celi (z reguły przyjmuje się 512kB, ale to nie musi być prawda w każdym dysku), co ma KRYTYCZNE znaczenie dla każdego zastosowania z ważnymi danymi (ustawienie wielkości klastra partycji czy macierzy, oszacowanie prawd. uszkodzenia względem wydajności, etc).
    W domu z kolei wydajność nie jest taka ważna, tak samo jak bezpieczeństwo danych - dla większości osób - więc można sobie zafundować zabawy z SSD.

    Zabawmy się w matematykę, biorąc cytat z: http://www.computerworld.com/...9&pageNumber=4
    "For one thing, it matters whether the SSD drive uses SLC or MLC memory. SLC generally endures up to 100,000 write cycles or writes per cell, while MLC can endure anywhere from 1,000 to 10,000 writes before it begins to fail, according to Fujitsu's Hagberg. For its part, Western Digital's laptop hard-disk drive boasts up to 600,000 write cycles. "
    Zakładając, iż dokument jest stary i obecne zapisy są lepsze, to dla typowego dysku MLC może to być np. ~20k zapisów celi.
    Obliczając dla dysku 60GB, na którym jest zajęte 20GB i zakładam, iż producent ma w zapasie dodatkowe 20GB ukrytych cel na wear leveling co daje całościowo 60GB = 122880 celi po 512kB - baaardzo korzystne założenie, sam Windows 7 więcej zajmuje ;).
    Założenia: zapis sekw. ~100MB/s (producenci obiecują znacznie więcej), zapis random ~1k celi/s (nie IOPS, bo te są inaczej liczone) i TRIM wolnych cel po każdym przejściu.
    Przy sekwencyjnym zapisie 100MB/s (200 celi/s) jedno przejście wszystkich wolnych celi zajmie 122880/200 = ~600s, czyli dysk zużyje wolne cele po 20k * 10 minut = ~142 dniach.
    Przy zapisie random (bajt tu, bajt tam) jesteśmy w stanie zapisać 1k celi/s, czyli jedno przejście wolnych celi zajmie 122880/1000 = ~122s, a dysk zużyje cele po 122*20k = ~682 h = ~28 dni!
    Powyższe pokazuje jak bzdurnym parametrem dla SSD jest MTBF, który i tak policzyłem dla optymistycznych założeń (dość wysoki czas życia celi, niski zapis cel/s), a który producent wylicza mniej więcej tak:
    ilość cel (122880) * średni czas życia celi (20k) / niski zapis (1 cela/s - clue problemu!) = ~682666 godzin MTBF.

    Niedopowiedzenie producenta czy unikanie trudnego tematu?


  24. @up (autor: Plackator | data: 19/08/11 | godz.: 21:30)
    Wystarczy squid i proxy-cache, i mamy po SSD.

  25. @Kenjiro.... (autor: ElFi | data: 20/08/11 | godz.: 18:16)
    MTBF - żadna moja bzdura, w przypadku dysków jest to prawdopodobieństwo uszkodzenia przez rok użytkowania.
    A co do mojej macierzy sekwencyjny zapis do cache wynosi ponad 2,7GB/sec.


  26. Boże, widzisz i nie grzmisz... (autor: Kenjiro | data: 22/08/11 | godz.: 21:58)
    Tragedia, którego słowa pisanego nie rozumiesz?
    http://pl.wikipedia.org/wiki/MTBF
    Cytat:
    "MTBF (ang. Mean Time Between Failures, fr. Moyenne Temps de Bon Fonctionnement) – średni czas bezawaryjnej pracy, czyli czas przez który może działać urządzenie bez przerwy. Wyrażane jest w tysiącach lub milionach godzin."
    Cytat 2:
    "Parametr MTBF jest często stosowany do określania żywotności twardych dysków.

    Jest to średni czas wyliczany statystycznie dla danej serii dysków. Przy jego pomocy można określić jakie jest prawdopodobieństwo uszkodzenia urządzenia przez rok użytkowania.

    Przykład: MTBF wynosi 200 tysięcy godzin, czyli prawdopodobieństwo uszkodzenia tego dysku w ciągu roku wynosi 4,38%. W ten sposób mamy informację, że na 23 dyski jeden może ulec uszkodzeniu. Wartość ta zmaleje, w przypadku gdy dysk nie jest użytkowany 24 godziny na dobę."

    Jeszcze coś chcesz dodać? Jakąś nowinkę? Nie pogrążaj się.


  27. Masz coś na oczach? (autor: ElFi | data: 23/08/11 | godz.: 11:33)
    Sam napisałeś "Przy jego pomocy można określić jakie jest prawdopodobieństwo uszkodzenia urządzenia przez rok użytkowania".
    Ja napisałem "jest to prawdopodobieństwo uszkodzenia przez rok użytkowania".

    Kto tu się pogrąża i robi z siebie idiotę?


    
D O D A J   K O M E N T A R Z
    

Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.