TwojePC.pl © 2001 - 2024
|
|
Czwartek 9 lutego 2017 |
|
|
|
Nieoficjalne ceny trzech Ryzenów [aktualizacja] Autor: Wedelek | źródło: El Chapuzas | 07:01 |
(33) | Do sieci trafiły prawdopodobne ceny trzech ośmiordzeniowych i szesnastowątkowych Ryzenów. Najdroższy z nich o symbolu R7 1800X ma pracować z zegarem 4GHz i kosztować niespełna 600 dolarów/euro. Jeśli wierzyć plotkom, jest to rywal dla dwukrotnie droższego Core i7-6900K. Drugi na liście jest R7 1700X o częstotliwości pracy 3.8GHz, będący rywalem dla i7 7700K. AMD ma go wycenić na 469,99 dolarów/euro. Listę układów ośmiordzeniowych zamknie wyceniony na 390 dolarów/euro R7 1700. Jego TDP wyniesie ponoć tylko 65W i będzie to rywal dla i7 7700.
Przypominam, że są to nieoficjalne ceny. Premiera wymienionych Ryzenów ma mieć miejsce 28 lutego.
AKTUALIZACJA
Baza danych jednego z dostawców podzespołów: shopblt.com, wzbogaciła się o trzy rekordy sugerujące jeszcze niższe ceny nadchodzących Ryzenów. Widoczne poniżej kwoty nie zawierają podatków – są to ceny netto.
|
| |
|
|
|
|
|
|
|
|
|
K O M E N T A R Z E |
|
|
|
- Czyli u nas w sklepach odpowiednio (autor: Marcel | data: 9/02/17 | godz.: 09:23)
~3k; ~2,5k i ~2k PLN naliczając 20% podatek od nowości. A co do wersji z X i bez - czyżby nie wszystkie były odblokowane do OC jak mówiły plotki?
- Nieoficjalne, możliwe, prawdopodobnie (autor: Sony Vaio Zwracajo | data: 9/02/17 | godz.: 09:26)
W dniu premiery słabo, gorąco, mało wydajnie, nieoplacalnie
- @2 w dniu premiery tak (autor: jaross | data: 9/02/17 | godz.: 10:16)
Ale już na drugi dzień zjedzą intela na śniadanie
Ostatnio wszyscy na portalach podniecają się 2-rdzeniowym pentium 4-wątki, jak widać AMD nie zamierza wypuszcać 2-rdzeniowego crapa
- Procesory mocne tylko przed premierą na papierze (autor: Sony Vaio Zwracajo | data: 9/02/17 | godz.: 12:41)
już obniżają ceny.
- Trzeba poczekać na testy (autor: G3orG3 | data: 9/02/17 | godz.: 12:57)
Wtedy, zobaczymy ci jak. Na tym etapie to tylko "hype"
- @2/4. (autor: Kenjiro | data: 9/02/17 | godz.: 13:08)
Co, gorąco się zrobiło i majtki już mokre, że zaczynasz kwilić? ;>
- Jednego tylko nie rozumiem.... (autor: DrLamok | data: 9/02/17 | godz.: 13:24)
Dlaczego procesor 8(16) od AMD jest rywalem 4(8) od Intela...
No ale poczekamy zobaczymy... Mam nadzieję że im się uda... bo pieniądze czekają na wydanie... 6 lat na tym samym mobo/cpu to już lekko przydługo...
- @7. (autor: Shamoth | data: 9/02/17 | godz.: 14:19)
Faktycznie 1st gen intela już jest mocno wysłużony. Ja na swoim skręconym i5-3570K pewnie jeszcze max 2-3 lata posiedzę nowe generacje nie oferują jakiegoś oszałamiającego skoku poza cenowym ;) No chyba, że AMD zaszaleje i będzie się opłacało wymienić mobo/cpu/ram...
- @Shamoth (autor: Deathraw | data: 9/02/17 | godz.: 15:10)
6 lat to ma 2gen już;).
- Przy obecnych cenach (autor: Karak | data: 9/02/17 | godz.: 15:23)
Nie było sensu wymieniać 3930K, chociaż to też rocznikowo 6 latek. Chodzi sobie spokojnie na 4 Ghz, wymiana na 8 lub 10 rdzeni pociągnęłaby takie koszty, że ... jedynie AMD może nas tutaj uratować:P
- @Karak (autor: Deathraw | data: 9/02/17 | godz.: 16:22)
Obecnie to ani się nie opłaca kupować, ani sprzedawać. Ceny zaporowe, zastój technologiczny i zwalanie wszystkiego na kurs dolara. Niby fajnie, bo procka mam już 2 i pół roku i do moich zastosowań nie ma co go zmieniać, ew na 5775c w jakiejś dalszej przyszłości z drugiej strony handlowo jest tragicznie.
- .... (autor: krzysiozboj | data: 9/02/17 | godz.: 16:54)
Nie bardzo wiem dlaczego marudzicie, od 5-6 lat panuje sytuacja gdzie nie warto wymieniać PC, 5-6 letni radzi sobie całkiem sprawnie. Portfel Was swędzi czy co? Bo chyba i5/i7 2/3 generacji nadal ma wystarczającą moc?
Były czasy, gdy 3-4 letni komp to już prawie zabytek był, nowe były kilkukrotnie szybsze, ja tam wolałbym takich nie dożyć z powrotem.
Za te 5-6 lat jedyną rzeczą którą zmieniłem i uznaję ze warto, do twardy na SSD (no jeszcze system z jedynie słusznego an linux).
- @krzysiozboj (autor: Karak | data: 9/02/17 | godz.: 17:38)
Można na to patrzeć z 2 stron. Dla osoby która ma już całkiem dobrze działający komputer niby fajnie, że inwestycja okazała się wieloletnia (5+ lat), ale ogólnie dla rynku PC taka stagnacja nie prowadzi do niczego dobrego. Wiele oprogramowania jak i gier skorzystałoby na szybszych procesorach.
- Zdjęcia rdzenia Zen (autor: PCCPU | data: 9/02/17 | godz.: 18:00)
https://videocardz.com/...u-core-revealed-at-isscc
- no i wykrakałem.... (autor: Qjanusz | data: 9/02/17 | godz.: 20:45)
to zdecydowanie obniżka cen Ryzena przed premierą, w odpowiedzi na zapowiedzi i7 7740K i i5 7640K
- krzysiozboj (autor: Mario2k | data: 9/02/17 | godz.: 21:55)
Po części masz rację ale są ludzie którzy oczekują jakiegoś postępu , po co nam nowoczesne samochody jak można jeżdzić trabantem.
b.t.w
pewnei nie wiesz co to trabant ;)
- @Mario2k (autor: Qjanusz | data: 9/02/17 | godz.: 22:12)
można nowoczesnym, można i Trabantem :-)
Postęp idzie, ale w dziedzinie obniżania zapotrzebowania na prąd, przy jakimś tam zawsze wzroście wydajności. Po co iść w stronę zwiększania wydajności, skoro nie ma jej gdzie skonsumować?
- @16 (autor: krzysiozboj | data: 9/02/17 | godz.: 22:50)
Widzę, że giercman bez idiotycznych zaczepek żyć nie może. Prawo jazdy mam od prawie 30 lat, na studia zarabiałem jeżdżąc TIRem. Więc i tu giercman niczego mnie nie nauczy, nawet tego jak trabant wygląda :))
Ale masz rację, jest i rynek giercmanów którym rodzice kupują nowe zabawki. I tu nawet nie chodzi o to, że ta zabawka jest do czegoś konieczna, ona ma być najbardziej czadowa w całej klatce schodowej. A jak "postępu" nie ma, to i zabawka nie będzie czadowa.
@17 Sam mam i5 o obniżonym poborze mocy i tą logiką się kieruję od dawna, mocy tyle by nie brakowało, a zużywać jak najmniej energii. Pomijając dzieciarnię (nie tylko rocznikową ale i tą mentalną), która musi mieć coraz większą rozdzielczość w gierkach, to moim zdaniem niewiele % użytkowników potrzebuje więcej niż wspomniane i5/i7.
- @17 (autor: krzysiozboj | data: 9/02/17 | godz.: 22:55)
kiedyś "postęp" w sporej części był wymuszany przez okienka, co 2-3 lata nowy system, a wraz z nim zazwyczaj dwukrotnie większa "zasobożerność". Chyba z 7 się to skończyło, piszę chyba bo sam na linuksie siedzę i w okienkach mogę mieć braki.
- @krzysiozboj (autor: Qjanusz | data: 10/02/17 | godz.: 09:13)
masz rację. Postęp napędzały okienka i wybuchowe wręcz łaknienie przejścia z pixeloxy w gierkach do widoczków rodem z RT.
Od czasów Visty okienka stoją (nie piszę o wspieraniu dedykowanych instrukcji CPU przez Win10), a w kwestii gierek mamy grafikę wręcz fotorealistyczną. Dlatego idziemy w 2K, 4K i za chwilę 8K, które wystarczająco może zostać zaspokojone coraz to mocniejszym GPU z niskim poziomem do sprzętu (DX12 i reszta spuścizny Mantle). Dlatego właśnie postęp w CPU idzie w kierunku eco i ja to rozumiem.
btw... szacun za paranie się takim zajęciem na studiach.
- @Qjanusz (autor: Karak | data: 10/02/17 | godz.: 09:53)
OK Skupmy się przez chwilę na grach:
grafika owszem poszła do przodu - ale co z fizyką? Co z realistycznym AI? Te sprawy nadal w grach kuleją i to głównie wina dość słabych CPU - prawdziwa fizyka i prawdziwe AI pochłaniają ogromne ilości mocy obliczeniowej (i łatwo skalują się na wiele wątków).
- Tak (autor: Shamoth | data: 10/02/17 | godz.: 10:10)
2nd gen datowo też jest leciwe ale np w lapku i7-2630QM nadal daje radę, kwestia wymiany grafiki z GTX 570M na 7970M i wszystko zupełnie inaczej działa. Tak naprawdę to 1st gen było prototypem ze sporym skokiem wydajności a 2nd gen to już w pełni dopracowany produkt. 3rd gen też zauważalny skok ale mniejszy niż między 1 a 2. Kolejne generacje to już niezauważalny promil wzrostu wydajności i raczej czysta fanaberia jeśli ktoś wymienia 3rd gen na 7th gen, z wyjątkiem wymiany 4/4 na 4/8 bo w niektórych zastosowaniach więcej rdzeni czasem się przydaje ale równie dobrze może być to 4/8 z 2nd lub 3rd gen. Z drugiej strony ile by na papierze % wzrostu wydajności cpu nie oferowało to od dekady lub dwóch jest taka %^&*( maniera wśród dev, nie zwalam na programistów bo pewnie cześć z nich starej daty niechętnie wypuszcza syf z pod rąk, żeby wypuszczać jako wersję ostateczną spaghetti code. Prawda jest taka że powoli dobijamy do ściany, 2-3 gen w 7nm i koniec x64, reszta w rękach optymalizacji softu i optymalnego wykorzystana zasobów. Zresztą z czasem pewnie w ogóle odejdziemy od cpu i te będą stanowiły koprocesor na pcb gpu bo system i oprogramowanie będzie w 95% polegał na gpgpu.
- @Karak (autor: Deathraw | data: 10/02/17 | godz.: 10:14)
Zgadzam się w zupełności-AI stoi na poziomie Far Cry 1. Z fizyką jest nieco lepiej, bo jakoś idzie to do przodu, ale jeżeli chodzi o AI to mam wrażenie, że nikt sobie tym głowy nie zaprząta, bo gry są obecnie w dużej mierze na jedno kopyto-łatwe i powtarzalne. Jeżeli chodzi o grafikę to poziom modeli postaci jest już właściwie fotorealistyczny, ale bardzo dużo można zrobić ze światłem, jego odbiciami, załamaniami czy wreszcie stosować różne powierzchnie o różnych właściwościach odbijających czy pochłaniających to światło. Właściwie to nazwałbym to fizyką oświetlenia i chyba tym właśnie jest ray tracing.
- @21. (autor: Shamoth | data: 10/02/17 | godz.: 10:16)
CPU, z wyjątkiem n rdzeniowych powyżej 100c, nie mają szansy przebić współczesnych GPU w liczeniu fizyki czy AI. Fizyka na GPU rozwija się od dawna, devs po prostu rzadko po nią sięgają lub jest realizowana w sposób atrakcyjny dla gracza i nie koniecznie optymalnie co powoduje że w niektórych sytuacjach trzeba drugie GPU do liczenia samej fizyki. Od jakiegoś czasu pojawiają się implementacje sieci neuronowych na GPU i mam wrażenie że już przeskoczyły to co można było osiągnąć na CPU...
- @23. (autor: Shamoth | data: 10/02/17 | godz.: 10:20)
Ja tam cały czas czekam na kolejną rewolucję jaką było wprowadzenie wieki temu T&L. Takim skokiem może być odejście od poligonów i generowanie grafiki na spline'ach. Oczywiście manipulacja oświetleniem/optyką jest bardzo istotna i zastanawia mnie to, że od dekady jak nie dwóch włączenie zaawansowanych cieni nadal potrafi doprowadzać do spadku fps o połowę a efekt wizualny w porównaniu z ustawieniami niższymi jest praktycznie nieporównywalny...
- @Shamoth (autor: Deathraw | data: 10/02/17 | godz.: 13:06)
Myślę, że niestety ta branża jest już na tyle opanowana przez księgowych, że jeśli nie wejdzie jakiś gigant jak np coca-cola ze swoim rewolucyjnym pomysłem na HW z zamiarem zniszczenia kompletnego konkurencj, to nikt się przed szereg nie wychyli. Co do polygonów, to moim zdaniem przy ich obecnej ilości i blendingu wygląda to całkiem nieźle, problemem jest to, że twórcy często idą na łatwiznę i niestety jest kanciasto. Ogólnie przyznam, że nie słyszałem wcześniej o budowaniu modeli na splajnach. Masz jakieś materiały np spline vs polygon?
- #21 (autor: Qjanusz | data: 10/02/17 | godz.: 13:12)
dla fizyki i realistycznego AI murem nie jest wydajność CPU, a czas, jaki developer musi poświęcić za zaimplementowanie. Dzisiaj gra ma być wydana na czas, z wymaganiami akceptowalnymi przez przeciętnego posiadacza konsoli, bo z niego ciągnie się największą gotówkę.
Co do fizyki, to mamy wszystko, łącznie z silnikami fizyki, otwartymi, zamkniętymi, dedykowany hardware wyłącznie do fizyki. Zdecydowanie się posunęła do przodu, ale zawsze może być lepiej. Na lepiej potrzeba jednak czasu, a czas to pieniądz. Nie słaba wydajność sprzętu.
Wg mnie, nie należy oczekiwać tutaj rewolucji. Rewolucję chciał wprowadzić Intel wydając Larabee wyświetlającego grafikę real-time ray tracing. Poszło do piachu, zanim powstało.
- @Qjanusz (autor: Karak | data: 10/02/17 | godz.: 13:35)
Po części prawda, jednak nie jest prawdą, że wydajność CPU nie ma tutaj nic do gadania.
Ostatnio jest moda w grach na budowanie "bazy", powstaje sporo sandboxów: Ark, Conan, Rust.
Wszyscy Ci developerzy korzystają z tego, że zostało to zbudowane w UE4 więc jest gotowiec. Wcześniej praktycznie nie było takich realizacji. Zniszczalne środowiska - też rzadko występowały w grach - z powodu ograniczeń silnika i też prawie nikomu się nie chciało tego zmieniać. Teraz UE4 to umożłiwia i jest to łatwe, nagle prawie każda gra ma tego typu elementy. Jednak aby to było możliwe musiały zostać zaimplementowane odpowiednie algorytmy przeliczające dane nawigacyjne dla AI w czasie rzeczywistym - to akurat mocno obciąża CPU i jest wykonywane na wielu rdzeniach. Wiem, że w tym przypadku nawet 6 rdzeni było wykorzystywanych i dawało sporą przewagę nad 4 rdzeniami (w pewnej niewydanej przedprodukcyjnej wersji gry).
- @Karak (autor: Qjanusz | data: 10/02/17 | godz.: 16:38)
To prawda. Wydajności CPU nie należy marginalizować. Jest ważna. Ale nie aż tak ważna, żeby można się spodziewać tutaj rewolucji.
Dobrze zauważyłeś, że wykorzystywanych jest coraz większa liczba rdzeni. Nawet przez gierki. Zobaczymy jak tutaj poradzi sobie koncepcja AMD. Intel idzie w siłę rdzeni, AMD w ich słabszą ilość. Soft zmienia się zgodnie z koncepcją AMD. Może być ciekawie. Może okazać się że im nowszy soft, tym bardziej będzie sprzyjał prockom AMD. Jak rozwój grafik. Starszy DX11 faworyzował GeForcy nowszy DX12 Radeony.
- oznaczenia podobne jak (autor: leosh | data: 11/02/17 | godz.: 06:52)
w Athlonach XP
- hmmm (autor: Zbyszek.J | data: 11/02/17 | godz.: 14:30)
"AMD asserts that it will be able to compete with Intel's Skylake generation CPU core at a level equal to that of a single-threaded performance and performance-efficient design"
6700K at 4.2GHz (presumably) scores 2447 Mops/sec single thread in Passmark.
This Ryzen sample at 3.4GHz/3.8GHz but no reported turbo scores 2046 Mops/sec.
- z obliczen wynika gdyby ZEN miał 4.2 Ghz (autor: kosa23 | data: 11/02/17 | godz.: 19:32)
(2046 Mops/s * 4.2 Ghz) : 3.4 Ghz = 2527 Mops/s AMD ZEN 4.2 Ghz
oczywiście, to tylko czysta teoria.
Szkoda że nie zrobili testu 6700K na 3.4 ghz z wyłączonym turbo.
- zestawienie singiel threaded (autor: kosa23 | data: 12/02/17 | godz.: 18:27)
https://cdn.videocardz.com/...MD-Ryzen-Chart-6.png
|
|
|
|
|
|
|
|
|
D O D A J K O M E N T A R Z |
|
|
|
Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.
|
|
|
|
|
|
|
|
|
|