Twoje PC  
Zarejestruj się na Twoje PC
TwojePC.pl | PC | Komputery, nowe technologie, recenzje, testy
M E N U
  0
 » Nowości
0
 » Archiwum
0
 » Recenzje / Testy
0
 » Board
0
 » Rejestracja
0
0
 
Szukaj @ TwojePC
 

w Newsach i na Boardzie
 
TwojePC.pl © 2001 - 2023
Poniedziałek 9 listopada 2020 
    

GeForce RTX 3080 Ti pojawi się w styczniu


Autor: Zbyszek | źródło: WccFTech | 23:33
(13)
Niedawna premiera Radeonów RX6000 i ich wysoka wydajność skłoniły Nvidię do zmiany planów. Dotyczą one karty GeForce RTX 3080 Ti, której premiera początkowo nie była planowana. Według najnowszych informacji karta ta jednak trafi na rynek, i pozwoli wzmocnić konkurencję z modelem Radeon RX 6900 XT. GeForce RTX 3080 Ti ma otrzymać chip GA102-250-KD-A1 zawierający 10496 rdzeni CUDA, czyli dokładnie tyle samo ile ma GeForce RTX 3090. Różnicą będzie natomiast pojemność pamięci - zamiast 24GB będzie to 20 GB, przy 320-bitowej magistrali.

Zastosowane kostki GDDR6X o szybkości 19 Gbps pozwolą uzyskć przepustowość na poziomie 720 GB/s. Zasadniczo GeForce RTX 3080 TI zaoferuje więc takie GPU jak ma GeForce RTX 3090, ale przepustowość pamięci będzie identyczna jak w GeForce RTX 3080. Także wymiary GeForce RTX 3080Ti mają być identyczne jak dotychczasowego GeForce RTX 3080 (GeForce RTX 3090 jest znacznie większy i w obudowie zajmuje aż 3 sloty miejsca).

Według informatora Kopite7kimi słynącego z wielu sprawdzających się później informacji, premiera GeForce RTX 3080 Ti nastąpi w styczniu 2021 roku, a prawdopodobna cena tego modelu wyniesie 899 USD, czyli o 100 dolarów mniej aniżeli będzie kosztować Radeon RX 6900XT.

 

    
K O M E N T A R Z E
    

  1. RTX 3080 with limited 10GB VRam (autor: Mario2k | data: 10/11/20 | godz.: 23:47)
    They Got fu**ed by NVidia

  2. niestety RTXy 3000 to totalne rozczarowanie (autor: Shark20 | data: 10/11/20 | godz.: 23:52)
    NVidia zmienia proces litograficzny o całą generację, i uzyskuje +45% do wydajności przy wzroście TDP z 250W do 350W (wydajność na wat prawie identyczna jak w serii RTX 2000).

    AMD w tym samym procesie litograficznym i uzyskuje o 100% wyższą wydajność (przy wzroście TDP z 225W do 300W) i o 50% lepszą wydajność na wat)


  3. Shark20 (autor: pawel1207 | data: 11/11/20 | godz.: 03:57)
    i zalosne wyniki w rt i brak dlssa i tensorow i jak sie na to patrzy to okazuje sie ze ofertaa amd wcale nie jest tak arakcyjna no chyba ze masz koparke ..:D

  4. Ta... (autor: Lucullus | data: 11/11/20 | godz.: 09:57)
    Cena będzie już 999 USD.

  5. jak murzyn na pasach (autor: bajbusek | data: 11/11/20 | godz.: 15:05)
    pojawi się i zniknie :)

    Spoko, zdążę noeodebrać RTX3080 zanim się to pojawi fizycznie


  6. Zbyszek (autor: Baraka | data: 11/11/20 | godz.: 15:26)
    nie napisałeś którego roku...:)

  7. pawel1207 (autor: Mario2k | data: 11/11/20 | godz.: 17:14)
    Coś mnie w kościach łupie że odszczekasz część tego co napisałeś już nie długo a resztę odszczekasz za około 3 miesiące ;)

  8. Mario2k (autor: bajbusek | data: 12/11/20 | godz.: 00:13)
    koniecznie do ortopedy !
    Zobacz oceny flagowej gry pod nowe Radeony - Godfall - tak będą nazywać serię radków 6000 po ich prawdziwej premierze po 18 listopada :D
    Gra na start nie ma RT ... mimo takich buńczucznych zapowiedzi jaki to RT będzie na Radkach w tej grze MEGA i jak to braknie VRAM na RTX 3080 ... w dodatku jest słaba i nudna - porównana do genialnego inaczej przehajpowanego Anthem.

    Marketing robi Wam z mózgu papkę ... poczekajcie na testy po 18tym listopada, z RTX 3080 też były achy i ochy a po pierwszych PRAWDZIWYCH recenzjach wybuchła afera z dławikami czy jak im tam ...


  9. @3. (autor: Mariosti | data: 12/11/20 | godz.: 13:03)
    RT możesz sobie wsadzić gdzieś, podobnie jak tensory.
    Jedyna przydatna z tych technologia przy obecnej mocy obliczeniowej gpu to dlss, a konkurencyjne rozwiązanie AMD przecież robi.

    Także jeśli kogoś chcesz krytykować to nvidię za to że bez sensu miliardy tranzystorów marnują na jakieś duperele dla marketingu zamiast wydajne gpu budować!


  10. Mariosti (autor: pawel1207 | data: 13/11/20 | godz.: 06:19)
    taaa :D znowu bredzisz rt to bedzie podstawa przyszlej grafiki i tyl e jak bys nie zaklinal swojej smutnej zeczywistosci to sa fakty amd w rt wypada slabo porownaniu do 3080 tensory sa swietnie o ilesie wie ja k i do czego mozna ich urzyc :D dlss wlasciwie ziaimplementowany w polaczeniu z rt robi zajebista robote amd cos wspominalo o dynamicznej rozdzielczosci ogolnie jedyne za co mozna krytykowac nv to dostepnosc serii 3x fajnie ze amd przyspieszylo szkoda tylko ze nie w rejonach tych ktore powinno .. ale wszystko wyjdzie w testach :D :D ... zawsze mnie fani czerwonych bawia 0 powtarzam zero faktow i 2 tony fantazji jak by wam amd sprzedalo gowno tez byscie krzyczeli jakie ro zajebiste jest .. a tak anprawde to o kartach amd niewiele wiemy poza tym ze rt to nie bezie ich mocna strona ale do koparki beda w sam raz ..:D


  11. @10. (autor: Mariosti | data: 13/11/20 | godz.: 12:12)
    Zero faktów to Ty przedstawiasz.
    Tensory są fajne ale nie w grach tylko w uczeniu maszynowym - co jest zgodne z moim zdaniem iż marnują tranzystory w gpu dla graczy.

    O rozwiązaniu AMD piszesz jakbyś coś wiedział a przecież nie było prezentacji tego rozwiązania tylko zapowiedź, także przestań bredzić.

    Jeśli miałbyś choć odrobinę pojęcia co to RT i jaka jest w ogóle idea RT względem Rasteryzacji to wiedziałbyś że obecnie są to zmarnowane tranzystory w gpu dla graczy. Jak GPU będą miały 10-20x większą moc obliczeniową i będą w stanie ruszyć coś więcej w prawdziwym RT niż Quake2 i Minecraft to pogadamy. A dopóki jest jak jest to ta technologia to zmarnowane tranzystory i dodatkowo czas developerów gier na wlepianie na siłę efektów korzystających z tego. Mam nadzieję że AMD nie zmarnowało za dużo tranzystorów na ten nvidiowy hype na RT który to tutaj @pawel1207 łyka jak pelikan i jeszcze broni. No i w nawiązaniu do tej kwestii w benchmarkach RT jednak bardzo dobrze wypadają nowe Radeony (na poziomie 70-80% nvidii), szczególnie jeśli nie zmarnowały tak ogromnej powierzchni rdzenia na obsługę DXR jak to zmarnowałą Nvidia.

    Zrozum że bredzisz i się mylisz, gdyby tak nie było to nvidia z nienacka nie szykowałaby 3080Ti bo gdybyś miał chociażby cień racji to nie martwiliby się o konkurencję, a obecny przekaz nvidii jest jasny i klarowny:
    "Nowe radeony są lepsze, ale poczekajcie^tm i wprowadzimy papierowo nowe gpu w stosownej cenie, ale już bez dużego chłodzenia aby nam marża nadmiernie nie spadła.
    No i wiecie, jeśli kupiliście w pełnej cenie 3090 albo 3080 to oczywiście jesteście naszymi najwierniejszymi frajerami, dziękujemy."


  12. Mariosti (autor: pawel1207 | data: 13/11/20 | godz.: 16:57)
    moim zdaniem najwieksi frajerzy to ludzie kupujacy amd do gier :D zostaja z zabytkowa technologia slabym raytracingiem i brakiem dlssa i z nadzeja ze amd po 10 latach uda wlasciwie zoptymalizowac sterowniki :D dziecko rt to ja sie zajmuje od 20 lat :D ti to co nv wprowadzila to jest rewolucja jesli chodzi o oswietlenie w grach z udzialem rt w rt a tensory niestety no beda urzywane chocby przy dllsie zreszta przykad 3080 i jej wydajnosci w rt pokazuje jasno ze bredzisz a wiesz dlaczego a dlateo ze twoje amd takrz pospiesznie wprowadzilo raytracing po pomio poprzednich zapewnien ze jest o 10 lat za wczesnie :D i szczeze gowno mnie obchodzi ile nv zurzywa tranzystow jesli chodzi o preformace per watt wyglada to nadal dobrze bioeac pod uwage nie najlepszy proces samsunga i 2 krotnie wydajniejszy rt :D no i dlss amd zasaplo a wydajnosc w rasteryzacji w najblizszych 2 latach bedzie miala mniejsze znazczenie natomiast bedzie wzrastac zapotrzebowanie w rt :D mozesz ogladac ten swoj swiat przez czerwone okularki i przeklamywac fakty na swoja modle :D ale fakty sa jakie sa karty nv wygladaj na bardziej przyszlosciowe nie odstaja wiele w rastryzacji a w rt bija amd na glowe a tensory i dlss soory dziecko ale czasy gdzie karty graficzne urzywa sie tylko do grania dawno minely a twoje amd w tym przoduje wydajac karty dla kopaczy :D dostepnosc :D :D z czasem beda dostepne dlatego ldzie czekaja na frajerow ktorzy kupia amd :D wtedy nv bedzie latiej dostepna dobry produkt sprzedaje sie na pniu a dziki nv mamy w koncu swietego gralla oswietlenia czyli rt w grach :D.


  13. @12 (autor: Mariosti | data: 14/11/20 | godz.: 03:00)
    Performance per watt to NVIDIA ma właśnie nagle kiepski, i nagle efektywność też ma kiepską bo rzekomo ma 2x więcej SP, a wydajność zaledwie podobną i to są fakty.

    Jakbyś miał jakiekolwiek pojęcie o grafice komputerowej to wiedziałbyś że rewolucyjne to ostatnio jest global illumination i to ono jest de facto odpowiedzialne za większość wysokiej jakości oświetlenia w nowych grach. A w przypadku RT jest właśnie 10 lat za wcześnie bo brakuje dramatycznie mocy obliczeniowej, co wiedziałbyś jakbyś miał jakiekolwiek pojęcie.

    Jeśli pracujesz w branży grafiki to najwyraźniej jesteś upartym partaczem, który zawsze musi coś dopowiedzieć i nigdy nie przyzna się do błędu, a tym bardziej do niewiedzy. Spotykałem już w pracy zawodowej takie osoby i jest to po prostu żałosne.


    
D O D A J   K O M E N T A R Z
    

Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.