Twoje PC  
Zarejestruj się na Twoje PC
TwojePC.pl | PC | Komputery, nowe technologie, recenzje, testy
M E N U
  0
 » Nowości
0
 » Archiwum
0
 » Recenzje / Testy
0
 » Board
0
 » Rejestracja
0
0
 
Szukaj @ TwojePC
 

w Newsach i na Boardzie
 
TwojePC.pl © 2001 - 2024
Poniedziałek 29 maja 2023 
    

Wartość giełdowa Nvidia przekroczyła 1 bilion dolarów


Autor: Zbyszek | źródło: The Verge | 23:47
(8)
Nvidia stała sie kolejną firmą na świecie z branży powiązanej z oprogramowaniem i (lub) elektroniką konsumencką oraz serwerową, której wartość giełdowa przekroczyła 1 bilion (1000 miliardów) dolarów. Tym samym producent m.in kart GeForce został piątą z tej branży firmą, której udała się taka sztuka - w przeszłości wyceną giełdową na poziomie 1 bliona dolarów uzyskały tylko: Apple, Microsoft, Amazon i Alphabet Inc. Wartość akcji Nvidia wzrosła trzykrotnie w ciągu ostatnich 8 miesięcy, osiągając 30 maja poziom ponad 410 dolarów za sztukę, a szczytowa wartość wyceny giełdowej Nvidia wynosiła około 1,02 biliona dolarów.

Cena akcji Nvidia tylko w ostatnim tygodni wzrosła o około 30 procent, co jest efektem publikacji dobrych wyników finansowych za 1. kwartał, oraz zapowiedzi rekordowych wyników finansowych w 2. kwartale w związku z bardzo dużymi zamówieniami na układy scalone do obliczeń związanych ze sztuczną inteligencją.

Co ciekawe po szczycie z 30 maja, cena akcji Nvidia nieco spadła i wynosi obecnie około 395 USD, co powoduje, że obecnie wartość giełdowa Nvidia nie przekracza jednego biliona dolarów. Ale można to uznać tylko za chwilową korektę kursu akcji po dużym wzroście wyceny z dni 25-30 maja.

 
    
K O M E N T A R Z E
    

  1. Pompowanie banki (autor: Marek1981 | data: 3/06/23 | godz.: 08:22)
    A potem pierdut i mali stracą

  2. Cena akcji Nvidia (autor: Conan Barbarian | data: 3/06/23 | godz.: 14:21)
    "30 procent, co jest efektem publikacji dobrych wyników finansowych za 1. kwartał ..."
    Ten skok o 30% to był wynik uznania NVidii jako jedynego słusznego dostawcy GPU dla AI, natomiast cała reszta to dodatki do imprezy.


  3. AI? (autor: ekspert_IT | data: 4/06/23 | godz.: 13:53)
    Jak słyszę słowo AI to od razu kojarzy mi się to z niewydajnością. Dlaczego? Odpowiedzi Chatgpt muszą być weryfikowane, i to zdanie po zdaniu. https://www.pcmag.com/...ll-chatgpt-when-its-wrong "ChatGPT is an advanced AI tool that is here to answer your questions. But it's not always right. Depending on the questions you ask, it can often come up with incorrect, inaccurate, or incomplete information."
    AI jako pomoc np w tworzeniu prostych algorytmów tak, ale jestem pewny, że gdybyśmy korzystali z AI w misji na księżyc to byśmy tam nie dolecieli (ale może przy okazji wynalezionoby 1000x wydajniejszy model procesora). AI i ML może dawać nieprzewidywalne rezultaty...


  4. @ 3 (autor: power | data: 4/06/23 | godz.: 14:26)
    O jakiej niewydajnosci mowisz?
    Przy obecnych algorytmach AI odpowiedzi dostajesz w ulamku sekundy lub najwyzej po kilku sekundach.
    Nawet na tak wczesnym etapie AI ma imponujace mozliwosci i przewyzsza w wiedzy ogolnej i specjalistycznej wiekszosc ludzi, a to jest dopiero poczatek.



  5. Są strony www pełne informacji o projektach ai i ml,które nie wyszły (autor: ekspert_IT | data: 5/06/23 | godz.: 07:24)
    https://analyticsindiamag.com/...earning-projects/
    Danie modelowi AI wolnej ręki w rozwoju to proszenie się o kłopoty. Najgorszy możliwy scenariusz to złudne, bezgraniczne zaufanie: "nie wiemy jak to funkcjonuje, ale działa". Powierzyłbyś swoje zdrowie i bezpieczeństwo takiemu modelowi?
    Już teraz mówi się o zbyt dużej automatyzacji samolotów, co prowadzi do serii wypadków spowodowanych przez algorytmy. https://www.theverge.com/...h-autopilot-automation


  6. @4. (autor: Mariosti | data: 5/06/23 | godz.: 11:36)
    "Nawet na tak wczesnym etapie AI"
    No tutaj się nie zgodzę, AI jest w informatyce rozwijane jest w zasadzie już od około 1940 roku od kiedy to znaczna część podwalin teoretycznych była stworzona "na sucho" (czyli jeszcze bez dostępu do komputerów).
    Z kolei zupełnie współczesne AI samouczące mają już ponad 40 lat.

    Te algorytmy są dramatycznie niewydajne, dlatego minęło tak dużo czasu zanim dostępny stał się tak wydajny sprzęt komputerowy aby to zaczęło mieć jakiś sens. Główny przełom z ChatGPT to brute force - czyli zwiększenie na pałę liczby parametrów we/wy i neuronów w sieci neuronowej algorytmu odpowiadającego za to całe AI - jeszcze 10 lat temu niemożliwe było zbliżenie się do takich wartości jak stosowane w ChatGPT 3 chociażby (a 4 to znowu wzrost o rząd wielkości).

    Oczywiście samo odpytywane wyuczonego modelu już nie wymaga strasznych mocy obliczeniowych, ale to właśnie przygotowywanie modelu do konkretnego zastosowania wymaga dramatycznie dużo czasu i zasobów obliczeniowych w SSN.


  7. @6. (autor: pandy | data: 5/06/23 | godz.: 18:59)
    W latach 80 Intel wypuścił procesor neuronowy Intel 80170NX Electrically Trainable Neural Network (ETANN) i bardzo szybko zaczęto go stosować w pewnych dość niszowych aplikacjach - miał swoje wady (8 bitów rozdzielczość i 6 bitowa precyzja) ale działał - był to układ analogowy a nie cyfrowy - ze względu na to co opisałeś powoli zaczyna się mówić o powrocie do analogowy sieci neuronowych właśnie ze względu na potężne moce obliczeniowe potrzebne do implementacji modeli cyfrowych.
    W czasach 80170NX nie bardzo Intel miał pomysł jak wykorzystać technologię i sam produkt więc w naturalny sposób umarł on po ok 20 latach ale teraz myślę że będzie renesans analogowych matryc neuronowych.


  8. @06 (autor: lcf | data: 6/06/23 | godz.: 13:51)
    "Te algorytmy są dramatycznie niewydajne, dlatego minęło tak dużo czasu zanim dostępny stał się tak wydajny sprzęt komputerowy aby to zaczęło mieć jakiś sens".

    Nie tylko to, na poziomie designu software'u też mieliśmy duży skok - opracowanie w 2017 architektury transformerów (https://arxiv.org/abs/1706.03762) umożliwiło większe zrównoleglanie i spore przyspieszenie procesu nauki sieci neuronowych.


    Odnośnie "jeszcze 10 lat temu niemożliwe było zbliżenie się do takich wartości jak stosowane w ChatGPT 3 chociażby (a 4 to znowu wzrost o rząd wielkości)", to GPT-4 choć lepiej działający niż GPT-4, to parametrów z tego co kojarzę niekoniecznie ma więcej - wspominał o tym Altman w wywiadzie z Fridmanem, mówiąc że w inny sposób starali się poprawiać jakość modelu w GPT-4, niż pompując parametry.

    https://youtu.be/L_Guz73e6fw?t=2624


    
D O D A J   K O M E N T A R Z
    

Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.