South Europe, Spain
listas@juanquijano.es

Más madera! Nuevas series de máquinas virtuales.

Una de mis fuentes de información para escribir en este blog y marcar lo siguiente que debo estudiar, ya sea para impartirlo o simplemente aprenderlo, son las RSS de Microsoft Azure Roadmap.

Y, muchas veces es tan ilusionante como desesperante por el volumen y complejidad creciente de los servicios que están por llegar, o  recién llegados en Azure.

Hoy quiero compartir la llegada de nuevas series de tier para las máquinas virtuales.

El retorno de los Mamut

La serie M ha sido pues en producción pública hace un par de días, en dos regiones específicas (por ahora): East US 2 y West US 2.

Estas son realmente grandes:

  • Entre 64 y 128 vCpu
  • Entre 137 y 522 Gigabytes de Ram
  • Entre 268 y 537 Gigabytes de Disco Duro

Según Microsoft, estas son las máquinas más potentes que ofrece en la actualidad Azure. Pensadas para bestias devoradoras de recursos a nivel industrial como puede ser SAP HANA.

Además puede utilizar la versión más potente de la red interna de Azure, con la que se puede obtener rendimientos de 30Gbps.

Más información:  Anuncio de las series M, Servicios por regiones, Precio de máquinas virtuales

Reventando datos con las nueva series ND y NCv2

Lo de ofrecer máquinas virtuales basadas en GPU’s Nvidia ha resultado un gran éxito para procesamiento en paralelo de cálculos, además de la faceta del renderizado en tiempo real de imágenes sintéticas.

Podría intentar explicar algo más sobre estas destripa cálculos, pero no creo que pueda superar la propia descripción de Azure:

Las máquinas virtuales de la serie ND son una nueva adición a la familia de GPU diseñada específicamente para las necesidades de las cargas de trabajo de AI y Deep Learning que ofrecen un excelente rendimiento para el entrenamiento y la inferencia.

Está alimentado por las GPU NVIDIA Tesla P40 basadas en la nueva arquitectura Pascal. Estas instancias proporcionan un rendimiento excelente para FP32 (operaciones de coma flotante de precisión simple), para cargas de trabajo AI que utilizan CNTK, TensorFlow, Caffe y otros marcos.

La serie ND también ofrece un tamaño de memoria de GPU mucho más grande (24 GB), lo que permite adaptarse a modelos de redes neuronales mucho más grandes.

Al igual que nuestra serie NC, la serie ND ofrece una configuración con una red secundaria de baja latencia y alto rendimiento mediante RDMA y conectividad InfiniBand para que pueda ejecutar trabajos de capacitación a gran escala que abarcan muchas GPU.

Además, la serie N ofrece una configuración ND24r que proporciona una interfaz de red de baja latencia y alto rendimiento optimizada para cargas de trabajo de cómputo paralelas estrechamente acopladas.

Según la propia Nvidia, estas P40 están orientadas y diseñadas para ofrecer la máxima velocidad de transmisión y de respuesta que requieren las cargas de trabajo de inferencia para deep learning. Es decir, están pensadas para soportar el tipo de carga que la IA requiere.

Más información: Anuncio de las VM,  Power new levels of user engagementTesla P40 y Tesla P4, las nuevas y potentes GPUs de Nvidia para inteligencia artificial

Tags:

Deja un comentario

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

A %d blogueros les gusta esto: