martes, 28 de agosto de 2018

GPU Tesla V100 ahora están disponibles en Google Cloud


Hoy nos han anunciado que ya esta disponible en Google Cloud las (GPU) NVIDIA V100 con NVLink a disposición. Estas GPU ofrecen una potencia importante para cargas de trabajo computacionales complejas.

Aparte de las nuevas V100, junto con estas ya se tenian disponibles GPU K80, P100 y P4, son excelentes para acelerar muchas cargas de cómputo y HPC alimentadas por CUDA. La GPU V100 destaca especialmente por las cargas de trabajo de AI.

Cada GPU V100 tiene 640 núcleos de tensor y ofrece hasta 125 TFLOPS de rendimiento mixto ML de precisión. Esto significa que puede obtener hasta un rendimiento de petaFLOP de ML en una sola máquina virtual (VM), lo que lo convierte en una herramienta de procesamiento muy potente para el entrenamiento ML y las cargas de trabajo de inferencia. Además, para las cargas de trabajo más exigentes, se dispone de la  red NVLink de alta velocidad entre GPU de hasta 300 GB / sy SSD local opcional para E / S de disco rápido.


Un cliente de V100 que utiliza Compute y Kubernetes Engine que trabaja en el desarrollo y la promoción de inteligencia artificial artificial segura. Usan las GPU V100 y P100, junto con las máquinas virtuales (VM) exclusivas para CPU, para ejecutar grandes trabajos de aprendizaje de refuerzo para entrenar a AI para jugar de forma cooperativa en juegos multijugador y prepararse para la competencia The International Dota 2.


En primer lugar, aumentamos la flexibilidad agregando soporte para conectar dos o cuatro V100 a una VM, lo que significa que ahora hay soporte para conectar uno, dos, cuatro u ocho V100 por VM. Esto es importante ya que le permite hacer coincidir su carga de trabajo con la cantidad óptima de potencia de la GPU. Esto más la característica personalizada de VM le permite crear una forma de máquina virtual con la CPU, la memoria, el almacenamiento y el rendimiento de la GPU V100 que satisfaga sus necesidades.


En segundo lugar, facilitamos el inicio de las GPU en Compute Engine para ML y otras cargas de trabajo informáticas al ofrecer nuevas imágenes del sistema operativo preconfiguradas y optimizadas para la carga de trabajo y el rendimiento. Simplemente cree una máquina virtual con una GPU, elija una de ellas con bibliotecas preinstaladas y comience. Estas imágenes funcionan para todas las plataformas GPU-K80, P100, P4 y V100- y vienen en tres Configuraciónes: TensorFlow, PyTorch y Base.

Los tres incluyen las últimas versiones de las herramientas de NVIDIA de las que dependen: CUDA 9.2, CuDNN 7.2 y NCCL 2.2, y son una buena opción para las cargas de trabajo de ML. La imagen base también se puede usar para otras cargas de trabajo de cómputo, como HPC, que vienen con controladores GPU preconfigurados. El uso de estas imágenes le brinda las optimizaciones de rendimiento para el uso de GPU en GCP, y en particular ayuda realmente al usar múltiples GPU V100 con NVLink para cargas de trabajo de aprendizaje profundo. Para obtener más información y para comenzar, consulte nuestra documentación de imágenes.

En tercer lugar, se ha bajado los  precios de GPU prioritarios para todas las plataformas de GPU, incluidos los V100, hasta un 70% de descuento en los precios según demanda. Esto proporciona a cualquier organización una oferta informática de muy bajo costo y elimina tener que lidiar con los precios fluctuantes de un sistema de subastas. Esto es crítico si usted está haciendo ML o HPC trabajan con un presupuesto limitado, pero son lo suficientemente flexibles como para manejar las limitaciones que vienen con máquinas virtuales "preemtibles", como una vida útil máxima de 24 horas.

¿Querer aprender más? Visite la página de productos GPU para obtener información general y precios. O formese con la documentación de GPU para conocer la disponibilidad de ubicación y cómo comenzar.

No hay comentarios:

Publicar un comentario

Nota: solo los miembros de este blog pueden publicar comentarios.