Casa Endavant pensant Les unitats de processament de tensors de Google canvien les regles per a l'aprenentatge de màquines

Les unitats de processament de tensors de Google canvien les regles per a l'aprenentatge de màquines

Vídeo: Sessió 3 - Unitats de mesura (Setembre 2024)

Vídeo: Sessió 3 - Unitats de mesura (Setembre 2024)
Anonim

Un dels anuncis més interessants (i inesperats) que Google va fer a la conferència de desenvolupadors d'E / S de la setmana passada va ser que ha dissenyat i implementat els seus propis xips per a l'aprenentatge de màquines. Durant la seva ponència, el conseller delegat de Google, Sundar Pichai, va introduir el que ell va anomenar Tensor Processing Units (TPUs), dient que la companyia va utilitzar-los en les seves màquines AlphaGo, que van derrotar el campió de Go Lee Sedol.

"Les TPU són un ordre de magnitud amb un rendiment superior per watt que els FPGA comercials i GPUs", va dir Pichai. Tot i que no va donar gaires detalls, l’enginyer de maquinari de Google, Norm Jouppi, va explicar en una publicació de bloc que un TPU és un ASIC personalitzat (circuit integrat específic d’aplicacions). És a dir, és un xip dissenyat específicament per a l'aprenentatge de màquines, especialment dissenyat per a TensorFlow, el marc d'aprenentatge automàtic de Google.

Imatge

Al càrrec, Jouppi va dir que és "més tolerant" amb una precisió computacional reduïda, cosa que significa que requereix menys transistors per operació. Això permet a Google obtenir més operacions per segon, permetent als usuaris obtenir resultats més ràpidament. Va dir que una placa amb un TPU s’incorpora a una ranura d’un disc dur als seus bastidors del centre de dades, i va mostrar una imatge dels racks de servidors plens de TPU, que va dir que s’utilitzaven a les màquines AlphaGo de l’empresa.

A més, Jouppi va dir que les TPU ja treballen en diverses aplicacions a Google, inclosa RankBrain, utilitzada per millorar la rellevància dels resultats de la cerca i Street View, per millorar la precisió i la qualitat dels mapes i la navegació.

En una conferència de premsa, el vicepresident de Google per a infraestructures tècniques, Urs Hölzle, va confirmar que la TPU funciona amb matemàtiques integres de 8 bits, en lloc de les matemàtiques de major valor de precisió per a les quals es dissenyen la majoria de CPU i GPU modernes. La majoria dels algorismes d'aprenentatge automàtic es poden obtenir amb dades de resolució inferior, cosa que significa que el xip pot gestionar més operacions en una àrea determinada i abordar models més complexos de manera eficient. Aquesta no és una nova idea; el mòdul Nvidia Drive PX 2, anunciat a principis d’any a CES, és capaç de tenir 8 teraflops amb precisió en punta flotant de 32 bits, però arriba a 24 "teraops" d'aprenentatge profund (el termini de la companyia per a 8 -bit de matemàtiques integres).

Tot i que Hölzle va negar-se a especificar-se en detalls, els informes asseguren que va confirmar que Google utilitza actualment tant TPU com GPU. Va dir que això continuarà durant algun temps, però va suggerir que Google consideri les GPU massa generals, preferint un xip més optimitzat per a l'aprenentatge de màquines. Va dir que la companyia publicaria un article on es descriuen els avantatges del xip, però va deixar clar que aquests només estan dissenyats per a ús intern, no per a la venda a altres empreses. Una altra aplicació que va descriure era utilitzar els xips per gestionar part de la informàtica que hi ha darrere del motor de reconeixement de veu usat al telèfon Android.

L’opció d’utilitzar un ASIC és una aposta interessant per part de Google. Els majors avenços en l'aprenentatge de màquines dels darrers anys -la tecnologia que ha estat impulsada per les xarxes neuronals profundes- ha estat l'adopció de GPUs, en particular la línia Nvidia Tesla, per formar aquests models. Més recentment, Intel va comprar Altera, un fabricant líder de FPGA (matrius de porta programables de camp), que es troben en algun lloc del centre; no són tan propòsits generals com les GPU ni estan dissenyats específicament per a TensorFlow com el xip de Google, però es poden programar per fer diverses tasques. Microsoft ha estat experimentant amb Altera FPGA per a l'aprenentatge profund. IBM està desenvolupant el seu xip Neurosinàptic TrueNorth dissenyat específicament per a xarxes neuronals, que recentment ha començat a utilitzar-se en diverses aplicacions. Cadència (Tensilica), Freescale i Synopsys estan pressionant els seus DSP (processadors de senyal digital) per executar aquests models; Mobileye i NXP han anunciat recentment xips dissenyats específicament per a ADAS i cotxes de conducció pròpia; i diverses empreses més petites, com Movidius i Nervana, han anunciat plans per a xips dissenyats específicament per a AI.

És massa aviat per saber quin plantejament serà millor a llarg termini, però tenir algunes opcions molt diferents significa que probablement veurem alguna competició interessant en els propers anys.

Les unitats de processament de tensors de Google canvien les regles per a l'aprenentatge de màquines