Tytuł jest żartobliwy ale sam temat nie, 6 dni temu Intel ogłosił światu premierę pierwszego swojego procesora sieci neuronowych - NERVANA, chipy z serii Nervana mają do 2020 roku przyśpieszyć pracę algorytmów AI ponad 100-krotnie w stosunku do jednostek CPU i GPU używanych obecnie.
dostawy chipsetu do producentów zostały zapowiedziane na koniec 2017
Nervana Neural Network Processor
w świecie PC czy desktop PC czy laptop PC, to coś zupełnie nowego. Chipset raczej będzie sprzedawany na kartach do PCI-E, ciekawe czy potem trafi na wyposażenie płyt głównych.
Forum > Hardware > Giganty idą w neurologię .... ;p
Wysłane 2017-10-23 10:11 , Edytowane 2017-10-23 10:13
Wysłane 2017-10-23 21:15 , Edytowane 2017-10-23 21:16
Jeśli w ten sposób uda się wyjaśnić pochodzenie i co ważniejsze uleczyć choć część chorób to ja jak najbardziej jestem za...pytanie czy nie będzie się to nagle wiązało ze zbyt dużymi pieniędzmi i czy koncerny farmaceutyczne się nie postawią...
@Gakudini
A to byłoby genialne! Taka nutka nostalgii w obecnym świecie. Szkoda że tak nie zrobią...
Wysłane 2017-10-23 22:08 , Edytowane 2017-10-23 22:31
Panowie, nie wrzucajmy wszystkiego do jednego worka. Nie od razu Rzym zbudowano.
Z artykułów wynika, że Intel przejął firmę która opracowała wyspecjalizowany procesor do przetwarzania algorytmów neuronowych.
Czyli po prostu algorytmy neuronowe wykorzystywane w uczeniu maszynowym, które można zaimplementować na różnych architekturach (x86,ARM,GPU), tutaj z racji specjalizacji układu będą działały szybciej i wydajniej.
Takie procesory od lat planują/projektują/budują giganci rynku. Rożnica jest taka, że aktualnie widać jakieś szersze tym zainteresowanie. Może właściwe miejsce i czas?
Z tego punktu do miejsca w którym komputer zrobi coś za nas co autentycznie wymaga, wiedzy, doświadczenia i inteligencji to według mnie lata świetlne.
Oczywiście taki model wydajniej przewidzi pogodę, zahamuje nam auto czy wykona kontrolę jakości wyrobu na podstawie zdjęcia nie będzie jednak panaceum na wszystko.
Dzisiaj jesteśmy na etapie kulejącego rozpoznawania mowy (mnie google rozpoznaje jak się bardzo postaram) i początków rozpoznawania obrazów.
Stwierdzenie "przyśpieszyć pracę algorytmów AI ponad 100-krotnie" wydaje się niedomówieniem, bo GPU są znacznie wydajniejsze od CPU w tych zadaniach. Nawet niech to faktycznie będzie porównanie do GPU, to wcale nie jestem pewien, co przyśpieszenie 100, 1000 czy nawet 10^6 krotne pozwoli osiągnąć.
Zresztą, mieliśmy i mamy wykorzystanie superkomputerów w dziedzinie medycyny. Jakiś czas temu miałem nawet 3 komputery zarejestrowane na platformie United Devices. No i wielomilionowe zwielokrotnienie mocy obliczeniowej pojedynczego komputera doprowadziło do ... niczego (może kiedyś).
Definicja AI jest szeroka. Mieszczą się w niej wszelkie techniki umożliwiające komputerom naśladowanie zachowań ludzkich. Dla przykładu nazywamy "inteligentnymi" domy które potrafią zarządzać roletami, oświetleniem czy ogrzewaniem, co de facto realizują za pomocą zwykłych algorytmów programowych. Do inteligencji w stylu skynetu im daleko.
Implementacja takiego procesora w desktopie, wydaje mi się mało potrzebna w dającej się przewidzieć przyszłości. Pewnie jakaś jego wersja znajdzie się w centrach danych, samochodach itp.
Dołożenie czegokolwiek na płytę kosztuję. Dokładniejsze rozpoznawanie mowy, czy twarzy można przeprowadzić w chmurze.
Sam Intel jest mega korporacją, działa na możliwie największej ilości frontów: Core, Phi, Nervana, Myriad, ARM, GPU czy nawet podobnie świeży nabytek Qutech i ich procesory kwantowe Link
Wysłane 2017-10-23 22:39
@slawko no to żeś pan dowalił i to niemile Znaczy się, że nasze kompy nadal będą tak
głupie mądre jak dotychczas? To użytkownik ciągle musi myśleć?! Nie pasuje mi to nic a nic do wizji pokoleń jakie nas zastąpią.
Kto jest online: 0 użytkowników, 147 gości