Twoje PC  
Zarejestruj się na Twoje PC
TwojePC.pl | PC | Komputery, nowe technologie, recenzje, testy
M E N U
  0
 » Nowości
0
 » Archiwum
0
 » Recenzje / Testy
0
 » Board
0
 » Rejestracja
0
0
 
Szukaj @ TwojePC
 

w Newsach i na Boardzie
 
TwojePC.pl © 2001 - 2024
Środa 28 kwietnia 2010 
    

Wyniki finansowe TSMC za 1 kwartał 2010


Autor: Zbyszek | źródło: TechConnect | 15:01
(19)
Firma TSMC, zajmująca się produkcją układów scalonych na zamówienie, przedstawiła wyniki finansowe odnotowane w 1 kwartale 2010 roku. Przychody korporacji wyniosły 2,93 miliarda dolarów natomiast zysk netto 1,07 miliarda dolarów. Wyniki są nieznacznie lepsze niż we wcześniejszym kwartale, kiedy przychód wyniósł 2,9 miliarda dolarów natomiast zysk netto 1,02 miliarda USD W porównaniu do analogicznego okresu roku poprzedniego przychód wzrósł o 133,4% (z 1,19 miliarda USD w 1 kwartale 2009 roku) natomiast zysk netto o 2059% (z 47 milionów USD). W aktualnie trwającym kwartale TSMC spodziewa się przychodów w wysokości od 3,17 do 3,24 miliarda dolarów.

 
    
K O M E N T A R Z E
    

  1. nie ma się co dziwić (autor: Qjanusz | data: 28/04/10 | godz.: 16:18)
    układy sprzedawane na sprawne sztuki idą jak ciepłe bułeczki, a za średniosprawne wafle płaci i martwi się kto inny.

  2. niezłe, prawie (autor: Wedrowiec | data: 28/04/10 | godz.: 16:26)
    40% zysku od obrotu ;)

  3. ... (autor: bezrobotnydarek | data: 28/04/10 | godz.: 18:33)
    ale musieli wcześniej wiele zainwestować, a teraz nowe grafiki są bardzo drogie więc i zarobek mają :)

  4. @bezrobotnydarek (autor: Qjanusz | data: 28/04/10 | godz.: 18:37)
    cena kart nie ma nic do rzeczy.

    Kaska z Radeonów idzie w łapki AMD
    nVidia ceną z kolei rekompensuje braki w działających GPU. Swoja drogą, ciekawe co oni robią z tymi niedziałającymi...


  5. Jak to co... (autor: Kenjiro | data: 28/04/10 | godz.: 18:55)
    Przecież wiadomo, że będzie wysyp breloczków ;)

  6. Na ati (autor: morgi | data: 28/04/10 | godz.: 19:23)
    utarg lichy niskie ceny, male chipy, duza rotacje i malo wafli, a na Nvidii znacznie lepszy, wiec i pierwsze efekty 40nm chipow i Fermi widac po TSMC, nastepne kwartaly powinny byc lepsze, bo uzysk sie stale poprawia.

  7. re up (autor: krzysiozboj | data: 28/04/10 | godz.: 20:05)
    I znów muszę się z morgim zgodzić, jeśli TSMC każe sobie płacić za "wafel" a tak pewnie jest to robiąc 1000 szt R5xxx pewnie mniej zarobią niż na 10 fermi (mówię oczywiście o sprawnych układach), bo pewnie więcej "wafli" potrzeba by je zrobić :)) TSMC zyski zainkasuje ale czy NVidia to wytrzyma na dłuższą metę? ;)

  8. @morgi (autor: Barbarian | data: 28/04/10 | godz.: 23:23)
    "male chipy" - jasne, czyli jednak ATi potrafi zrobić małe, wydajne i energooszczędne GPU miażdżąc konkurencję.
    Mam jednak wielką nadzieję, że nvidia przetrwa i poprawi architekturę Fermi oraz wykorzysta proces 28nm do osiągnięcia sukcesu.


  9. ... (autor: krzysiozboj | data: 29/04/10 | godz.: 00:10)
    Niestety widzę że nie każdy ma tyle "wiedzy" by zrozumieć że to co dobre przy CPU może być wadą dla GPU. Małe GPU jest złe bo ... jest małe i mało "wafli" się zużywa na ich produkcję, dodatkowo te z serii 5xxx mają podejrzanie wysoką wydajność i na wszelki wypadek lepiej obchodzić je z daleka, aaa mało też watów "zjada", to dla GPU też poważna wada. Fermi tutaj ma same zalety.
    Zupełnie inaczej jest z CPU - tam mały układ o dużej wydajności toż to same zalety.
    Też "ekonomia" jest tutaj bardzo prosta, duży układ i niski uzysk to zapowiedź ekonomicznej prosperity na lata ale to działa tylko przy GPU, przy CPU będzie niestety gwoździem do trumny AMD


  10. TSMC ma powód żeby nie lubić nVIdii (autor: Qjanusz | data: 29/04/10 | godz.: 01:13)
    bo ta ostatnia pokazuje na TSMC jako winnego kiepskiego uzysku Fermi, kiedy TSMC kilka miesięcy wcześniej ogłosiło koniec problemu z 40nm, a uzysk z radków sięgał 80%

  11. co wejdę (autor: pit808 | data: 29/04/10 | godz.: 07:26)
    na forum i temat o CPU lub GPU tam Morgi szaleje.

    Chłopie ty ciągle masz klapki na oczach !
    Dorośnij, wyciśnij pryszcze i zacznij myśleć.
    No i najważniejsze, przestań wypisywać głupoty.


  12. @krzysiozboj (autor: Wujofefer | data: 29/04/10 | godz.: 08:12)
    Jak to jest możliwe, że im większe GPU tym lepiej?!
    To jest nielogiczne. Twój post jest na poziomie 12 latka, który chce bardzo udowodnić jak słaba jest firma AMD/ATI. Gadasz straszne głupoty.
    Tak więc teraz posłuchaj.

    Każda firma produkująca mikroprocesory dąży do tego by zmieścić jak najwięcej tranzystorów na jak najmniejszej powierzchni. Jest to spowodowane wieloma czynnikami.
    1. Przy produkcji małych układów zużywa się znacznie mniej materiałów a jak wiadomo wafle krzemowe są bardzo drogie (gdzieś czytałem, że koszt 300mm wafla wynosi około 5000$ a to bardzo dużo). Tak więc AMD/ATI, Intel, Nvidia i masa innych firm chce zmieścić jak najwięcej układów na jednym waflu by mieć jak największe zyski z nich.
    2. Małe układy zużywają znacznie mniej prądu niż duże ponieważ w takim chipie pracuje mniej tranzystorów (zakładam, że oba produkowane są w tym samym rozmiarze)
    3. Każdy tranzystor ma jakieś straty energetyczne w postaci ciepła, tak więc im więcej tranzystorów tym więcej ciepła. Dlatego właśnie chip FERMI grzeje się do prawie 100 stopni Celsjusza. Dlatego cały czas firmy dążą do zmniejszenia procesu produkcyjnego (80nm->65nm->55nm->40nm->itd.) by zmniejszyć te straty i ochłodzić chip.
    4. Im więcej tranzystorów w układzie, tym większe skomplikowanie jego architektury a to oznacza większe prawdopodobieństwo wystąpienia defektu uniemożliwiającego wykorzystanie go w pełni bądź nawet w ogóle wykorzystanie gdziekolwiek.

    Tak więc nieważne czy to GPU czy CPU, w jakiej architekturze powstaje i gdzie ma być stosowany, zawsze producenci będą starali się zmniejszyć układy i koszty i podnieść rentowność swoich produkcji.

    Co do rozmiarów CPU, tutaj akurat mniejsze rdzenie mają układy AMD, sporo miejsca przeznaczają na pamięć Cache dlatego rdzenie procesora muszą być mniejsze.
    Co do wątpliwej wydajności Radeonów to nie zgodzę się. Bardziej wątpliwa wydajność jest układów FERMI. Wytłumacz mi, jak to jest, że układ który ma o połowę więcej pamięci (1GB vs 1,5GB), o połowę więcej tranzystorów (2,15 mld vs 3.2mld), o połowę szerszą magistralę (256 bitów vs 384 bity) i to wszystko za o połowę wyższą cenę(Radeon5870 kosztuje ok 1300zł a oficjalna cena GTX480 to 1999zł) wydany przez firmę, która miała pół roku czasu na dopracowanie chipu, w ogólnym rozrachunku, jest zaledwie o kilka procent szybszy od konkurencyjnego Radeona 5870?!
    To jest największa wpadka Nvidii od czasów FX5800!
    Jak nie wierzysz to zapraszam na szczegółowy test GeForce'ów na GTX480 i GTX470 na in4.pl.

    http://www.in4.pl/...id=630&rectr_str_numer=21
    Następnym razem zanim napiszesz takie bzdury zastanów się 10 razy i odejdź od komputera. Będzie to z pożytkiem dla wszystkich.


  13. re up (autor: krzysiozboj | data: 29/04/10 | godz.: 08:31)
    Oj następny nie potrafi czytać inaczej niż dosłownie :( Te 12 lat musiałbyś dodać kilka razy, dwa miałem nadzieję że sarkazm na kilometry czuć a jednak widzę że nie :( ja tylko zbieram złote myśli morgiego z kilku wypowiedzi i tylko czasem coś od siebie dodam.
    A jak to jest możliwe że ekonomicznie bardziej opłaca się fermi robić to morgiego pytaj, ja to wyczytałem w jego poście #6, o podejrzanej wydajności radeonów pisał w innym poście :)))

    ps
    a najlepszą kartą i tak jest matrox a kto twierdzi inaczej to pryszczaty, dwunastoletni fanboj gier (ten argument jest tutaj powszechny i nie do obalenia) ;)


  14. @Wujofefer (autor: Barbarian | data: 29/04/10 | godz.: 09:50)
    Miałem takie same osłabienie, ale w sobotę.

  15. ati i male chipy musi tak byc (autor: morgi | data: 29/04/10 | godz.: 11:30)
    bo te chipy nikt nie wezmie za wiecej niz 200-300$ i nikt nie bierze na powaznie tego zlomu, a Nvidia robi CUDA zeby mogli sprzedawac chipy po pare tysiakow i dlatego wiecej krzemu to mus, pytanie czy znajda losia i odpowiednie progsy.

  16. LoL (autor: Wujofefer | data: 29/04/10 | godz.: 11:34)
    "bo te chipy nikt nie wezmie za wiecej niz 200-300$ i nikt nie bierze na powaznie tego zlomu"
    Chwila chwila, a czy to przypadkiem nie ATI chwaliło się niedawno, że mają już ponad 6mln sprzedanych Radeonów 5xxx?
    A ile FERMI sprzedała Nvidia? 50tyś? Może mniej?


  17. re up (autor: krzysiozboj | data: 29/04/10 | godz.: 13:13)
    No i widzisz że duży chip to dobry chip a mały chip to zły chip bo ... mały i nikt go nie kupi :D
    I sprzedawać mało GPU to dobrze bo co to za sztuka zalać szrotem rynek i to do tego gabarytowo małym ale jak już mówimy o CPU to tutaj rynek jest wyrocznią i ilość sprzedawanych Inteli świadczy tylko i wyłącznie o jakości tegoż a wszelkie opowieści o monopolistycznych praktykach można między bajki włożyć :))


  18. @Wujofefer (autor: Barbarian | data: 29/04/10 | godz.: 13:18)
    "A ile FERMI sprzedała Nvidia? 50tyś? Może mniej?" - oni jeszcze tyle w miarę "sprawnych" nie wyprodukowali.
    Morgi - jesteś na 100% inteligentny gość, ale lubisz siać ferment i głosić chwałę Intela oraz czasem nvidii nie przebierając w środkach i kłamstwach (płacą za to?). To jednak zraża ludzi nie tylko do osoby, ale również do produktów Intela. Ludzie nie są aż takimi tłumokami, aby oczywiste kłamstwa łykać bez końca.


  19. @krzysiozboj (autor: rainy | data: 29/04/10 | godz.: 15:10)
    Gdyby AMD/ATI produkowało GPU wielkości Fermiego, to mieliby podobną sprzedaż ale wtedy morgi by pisał, że wielkie, gorące i o beznadziejnej wydajności.

    A tak jak słusznie zauważyłeś, jeżeli sprzedali ponad 6 mln sztuk, to musi być kiepski/tani szrot. :)

    Najwyraźniej w AMD nie wiedzą/zapomnieli, że duży może więcej.


    
D O D A J   K O M E N T A R Z
    

Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.