Twoje PC  
Zarejestruj się na Twoje PC
TwojePC.pl | PC | Komputery, nowe technologie, recenzje, testy
M E N U
  0
 » Nowości
0
 » Archiwum
0
 » Recenzje / Testy
0
 » Board
0
 » Rejestracja
0
0
 
Szukaj @ TwojePC
 

w Newsach i na Boardzie
 
TwojePC.pl © 2001 - 2024
Piątek 16 grudnia 2016 
    

Microsoft prezentuje kolejnego, inteligentnego chatbota


Autor: Wedelek | 06:57
(7)
Po spektakularnej porażce udostępnionego użytkownikom Twittera bota Tay, Microsoft postanowił spróbować jeszcze raz. Ponownie w ręce użytkowników trafił chatbot korzystający z technik maszynowego uczenia, który ma nie tylko dyskutować z żywymi ludźmi, ale i uczyć się od nich. Nowa SI nazywa się Zo i dla bezpieczeństwa mogą z niej korzystać tylko posiadacze aplikacji Kik. Ponieważ liczba zarejestrowanych użytkowników tego programu jest relatywnie mała, więc Microsoft może lepiej kontrolować proces uczenia.

Fakt ten, w połączeniu z pewnymi usprawnieniami poczynionymi przez programistów ma przygotować Zo na debiut w znacznie bardziej popularnych usługach jak Skype, czy Messenger. Tym razem Microsoft jest zdeterminowany by uodpornić swoją SI na szybką radykalizację poglądów.


 
    
K O M E N T A R Z E
    

  1. Nowe Zło na choryzoncie (autor: Qjanusz | data: 16/12/16 | godz.: 09:01)
    ale patrząc na poczynania poprzednika, na Skynet się nie zapowiada :-)

  2. Nie wiem (autor: ligand17 | data: 16/12/16 | godz.: 09:48)
    dlaczego wszyscy uważają Tay za porażkę. Moim zdaniem to był bardzo udany eksperyment - pokazał, że maszyna jest w stanie się uczyć na podstawie podawanych danych. A że dane wejściowe były takie, jakie były (pełno trolli internetowych), to efekt nie powinien dziwić.

  3. @2. (autor: Shamoth | data: 16/12/16 | godz.: 11:54)
    Dokładnie, a nawet szerzej należy na to spojrzeć. Tay była dzieckiem, które kształtowane było przez otoczenie, także należy się zastanowić co media, rówieśnicy i społeczeństwo robi aktualnie z dziećmi...

  4. Megahal byl najlepszy:D (autor: MacLeod | data: 16/12/16 | godz.: 15:30)
    I irc.. :)

  5. No właśnie... (autor: Duke Nukem PL | data: 17/12/16 | godz.: 21:00)
    "... eksperyment - pokazał, że maszyna jest w stanie się uczyć na podstawie podawanych danych." - Dokładnie ligand17. I to jest klucz do procesu "nauki". A dokładniej to jest przykład procesu prania mózgu czyli przyjmowania cudzych poglądów bez używania własnego mózgu. Pozostaje kwestia "podawanych danych". Przecież można je przed podaniem poddać procesowi filtrowania. Zawartość filtra mogą stanowić "treści niepożądane" dla "naszej opcji politycznej".
    Tym sposobem zewnętrznie prezentowana "sztuczna inteligencja" nie będzie niczym innym jak zestawem poglądów pożądanych i poprawnych politycznie - oczywiście dla rządzącej, samowybieralnej elity.


  6. @1 - Qjanusz (autor: Remek | data: 18/12/16 | godz.: 00:33)
    Januszu ortografii... zacznij się uczyć.

  7. @Remek - piękny babol... aż w oczy kłuje (autor: Qjanusz | data: 18/12/16 | godz.: 21:41)
    Co do Tay, to pierwszy etap eksperymentu był udany. Chłonął i oddawał to, czego się nauczył. Natomiast to co działo się podczas próby jego wyłączenia i litry postów na tweecie... tu upatruję główną przyczynę porażki.

    
D O D A J   K O M E N T A R Z
    

Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.