lunes, 12 de febrero de 2018

Cores TPU para machine learning disponibles en beta.


En google cloud español nos anucián desde google cloud  John Barrus, Product Manager para Cloud TPU, Google Cloud y Zak Stone, Product Manager para TensorFlow y Cloud TPU, Google Brain Team.

A partir de hoy, las  "TPU Cloud" están disponibles en versión beta en Google Cloud Platform (GCP) para ayudar a los expertos en aprendizaje automático (ML) a entrenar y ejecutar sus modelos ML más rápidamente.


Las TPU son una familia de aceleradores de hardware diseñados por Google que están optimizados para acelerar y escalar cargas de trabajo ML específicas programadas con TensorFlow. Construido con cuatro ASIC personalizados, cada nube de TPU empaqueta hasta 180 teraflops de rendimiento de punto flotante y 64 GB de memoria de gran ancho de banda en una sola placa. Estas plataformas se pueden usar solos o conectados entre sí a través de una red ultrarápida y dedicada para formar supercomputadores ML multi-petaflop que llamamos "pods TPU". Google va a ofrecer estos supercomputadores más grandes en BPC a finales de este año.

Se diseñaron las Cloud TPU para ofrecer un rendimiento superior y asemas aportar un importante ahorro para cargas de trabajo de TensorFlow específicas y para permitir a los ingenieros e investigadores de ML iterar más rápidamente. Por ejemplo:


  • En lugar de esperar que un trabajo se programe en un clúster de cómputo compartido, puede tener acceso interactivo exclusivo a un Cloud TPU conectado a la red a través de una máquina virtual de Google Compute Engine que usted controla y puede personalizar.
  • En lugar de esperar días o semanas para entrenar un modelo de ML crítico para la empresa, puede entrenar varias variantes del mismo modelo de la noche a la mañana en una flota de TPU en la nube y desplegar el modelo capacitado más preciso en producción al día siguiente.
  • Con un solo Cloud TPU y siguiendo este tutorial, puede entrenar a ResNet-50 con la precisión esperada en el ejemplo de ImageNet en menos de un día, ¡todo por menos de $ 200!


Entrenamiento modelo ML, hecho fácil

Tradicionalmente, los programas de escritura para ASIC y superordenadores personalizados han requerido una experiencia profundamente especializada. Por el contrario, puede programar TPU en la nube con API TensorFlow de alto nivel, y desde Google se ha abierto un conjunto de implementaciones de modelo Cloud TPU de alto rendimiento de referencia para ayudarlo a comenzar de inmediato:



Para ahorrarle tiempo y esfuerzo, continuamente probamos estas implementaciones de modelo tanto para el rendimiento como para la convergencia a la precisión esperada en conjuntos de datos estándar.

Con el tiempo, abriremos implementaciones de modelos adicionales. Los expertos en MLs aventureros pueden optimizar otros modelos de TensorFlow para Cloud TPU por sí solos, utilizando la documentación y las herramientas que ofrecemos.

Al comenzar ahora con los TPU en la nube, podrás beneficiarte de mejoras espectaculares de tiempo hasta la precisión cuando presentemos los pods de TPU a finales de este año. 

Como se anuncio  en NIPS 2017, los tiempos de entrenamiento de ResNet-50 se reducen de la mayor parte del día a menos de 30 minutos en un pod completo de TPU, no se requieren cambios de código.

Primeros pasos con Cloud TPU

Los TPU en la nube están disponibles en cantidades limitadas en la actualidad y el segundo se factura a una tarifa de $ 6.50 USD / Nube TPU / hora.

Si estas interesado en usar por los Cloud TPU. Puedes apuntartey regístrese aquí para solicitar la cuota Cloud TPU y describir sus necesidades de ML. No comentan desde Google que "Haran su mejor esfuerzo para darle acceso a Cloud TPU tan pronto como puedan".
Para obtener más información sobre Cloud TPU, únete a nosotros para un seminario web de Cloud TPU el 27 de febrero de 2018.