Las unidades de procesamiento de tensor centradas en la inteligencia artificial de Google ya están disponibles en versión Beta

Característica de Cloud-TPU

Google ha estado trabajando en sus Unidades de procesamiento de tensor, o TPU, durante varios años, y ha publicado varios artículos sobre el rendimiento de su arquitectura personalizada en la inferencia de cargas de trabajo en comparación con los modelos más tradicionales construidos alrededor de CPU o GPU. Ahora, la compañía está abriendo estas partes para pruebas beta públicas, para ayudar a los investigadores que desean entrenar cargas de trabajo de aprendizaje automático y ejecutarlas más rápidamente.

Google ha hablado de hacer pública esta capacidad desde que demostró sus TPU de primera generación en 2016. Sin embargo, esos chips solo eran buenos para cargas de trabajo de inferencia. La forma sencilla de comprender la diferencia entre entrenar un sistema de aprendizaje automático y una carga de trabajo de inferencia es que la primera es cuando crea su modelo y lo entrena en las tareas que desea que realice, mientras que el segundo es el proceso real de aplicar lo que la máquina ha 'aprendido'. Google nunca puso su TPU de primera generación a disposición de las corporaciones para cargas de trabajo generales, pero estos nuevos chips son capaces de abordar el entrenamiento de ambos modelos y cargas de trabajo de inferencia y además ofrecen un mayor nivel de rendimiento.

No sabemos cómo funcionan estas nuevas Cloud TPU, pero a continuación se muestra una presentación de diapositivas que compara las cargas de trabajo de inferencia de TPU anteriores de Google con partes equivalentes de Intel y Nvidia:



Haswell-TPU K80-TPU TPU-TPU Resultados combinados-TPU

Cada Cloud TPU consta de cuatro ASIC separados, con un total de 180 TFLOP de rendimiento por placa. Google incluso tiene planes de ampliar aún más estas ofertas, con una red dedicada y sistemas de ampliación a los que llama 'Pods de TPU'. (Por favor, no coma estos tampoco. -Ed) Google afirma que incluso en esta etapa inicial, un investigador que siga uno de sus tutoriales podría entrenar una red de aprendizaje automático en la red pública de TPU para 'entrenar a ResNet-50 con la precisión esperada en el desafío de referencia de ImageNet en menos de un día, todo por mucho menos de $ 200 '.

Espere ver una gran cantidad de lodo colgando de la pared durante los próximos años, ya que literalmente todo el mundo se acumula en este mercado. AMD tiene Radeon Instinct e Intel todavía tiene sus propios aceleradores Xeon Phi (incluso si canceló su próximo Knights Hill), Knights Mill, lanzado en diciembre, con recursos de ejecución adicionales y una mejor utilización de AVX-512. Aún está por verse si esto cerrará la brecha con la familia de productos Tesla de Nvidia, pero Google no es la única empresa que implementa silicio personalizado para abordar este espacio. Fujitsu tiene su propia línea de aceleradores en proceso, y Amazon y Microsoft ya han implementado FPGA en sus propios centros de datos y nubes.

Las nuevas ofertas en la nube de Google se facturan por segundos, con un costo promedio de $ 6.50 por Cloud TPU por hora. Si tiene curiosidad por registrarse en el programa, puede hacerlo aquí. La computación en la nube puede haber comenzado como poco más que un esfuerzo de cambio de marca para capturar productos previamente disponibles bajo un nuevo término pegadizo, pero toda la industria de semiconductores ahora está galopando hacia estos nuevos paradigmas de computación tan rápido como puede. Desde automóviles autónomos hasta asistentes digitales, la 'computación en la nube' se está reinventando como algo más importante que 'todo lo que hago normalmente, pero con una latencia adicional'. Dentro de diez años, puede resultar difícil recordar por qué las empresas dependían de otra cosa.

Copyright © Todos Los Derechos Reservados | 2007es.com