Microsoft

NVIDIA amplía su colaboración con Microsoft para ayudar a los desarrolladores a crear apps IA «con mayor rapidez»

Compartir este contenido

NVIDIA anunció el pasado 21 de mayo de 2024 que ha ampliado su colaboración con Microsoft para ayudar a los desarroladores a crear apps IA «con mayor rapidez». Esto es posible porque los últimos modelos de IA desarrollados por Microsoft, incluida la familia Phi-3 de pequeños modelos de lenguaje, se están optimizando para ejecutarse en las GPU NVIDIA y están disponibles como microservicios de inferencia NIM de NVIDIA.

Además de que otros microservicios desarrollados por NVIDIA, como la IA de optimización de rutas cuOpt, se añaden regularmente a Microsoft Azure Marketplace como parte de la plataforma de software NVIDIA AI Enterprise, como indica NVIDIA en una noticia publicada en blog oficial, de la que nos hacemos eco en Marketing Insider Review.

Además de estas tecnologías de IA, NVIDIA y Microsoft «están proporcionando un conjunto cada vez mayor de optimizaciones e integraciones para los desarrolladores parar crear apps de IA de alto rendimiento para PC equipados con GPU NVIDIA GeForce RTX y NVIDIA RTX».

En concreto, la noticia explica que sobre la base de los avances compartidos en la GTC de NVIDIA, las dos compañías están impulsando esta colaboración en Microsoft Build, un evento anual para desarrolladores que este año se ha celebrado en Seattle (Estados Unidos) hasta el 23 de mayo.

Aceleración de los modelos Phi-3 de Microsoft

Esta noticia oiginal también señala que Microsoft está ampliando su familia de pequeños modelos abiertos de lenguaje Phi-3, añadiendo modelos pequeños (7.000 millones de parámetros) y medianos (14.000 millones de parámetros) similares a su Phi-3-mini, que tiene 3.800 millones de parámetros. También presenta un nuevo modelo multimodal de 4.200 millones de parámetros, Phi-3-vision, que admite imágenes y texto.

De esta manera, NVIDIA informa de que «todos estos modelos están optimizados para la GPU con NVIDIA TensorRT-LLM y están disponibles como NIM de NVIDIA, que son microservicios de inferencia acelerada con una interfaz de programación de aplicaciones (API) estándar que pueden implantarse en cualquier lugar».

Las API de los modelos Phi-3 basados en NIM están disponibles en ai.nvidia.com y a través de NVIDIA AI Enterprise en Azure Marketplace.

NVIDIA cuOpt ya está disponible en Azure Marketplace

Del mismo modo, la información de la que informamos en este artículo remarca que NVIDIA cuOpt, un microservicio de IA acelerado en la GPU para la optimización de rutas, ya está disponible en Azure Marketplace a través de NVIDIA AI Enterprise. Así, cuOpt incorpora algoritmos de cálculo paralelo masivo «que permiten gestionar la logística en tiempo real para servicios de transporte, sistemas ferroviarios, almacenes y fábricas».

NVIDIA señala que el modelo ha establecido dos docenas de récords mundiales en las principales pruebas de referencia de enrutamiento, «demostrando la mejor precisión y los tiempos más rápidos. Podría ahorrar miles de millones de dólares a los sectores de la logística y la cadena de suministro al optimizar las rutas de los vehículos, ahorrar tiempo de viaje y minimizar los periodos de inactividad».

A través de Azure Marketplace, los desarrolladores «pueden integrar fácilmente el microservicio cuOpt con Azure Maps para apoyar la gestión logística en tiempo real y otros flujos de trabajo basados en la nube, respaldados por herramientas de gestión y seguridad de nivel empresarial».

Optimización del rendimiento de la IA en los PC con NVIDIA RTX

Por otro lado, la noticia también informa de que la plataforma de cálculo acelerado de NVIDIA «es la columna vertebral de la IA moderna, ya que ayuda a los desarrolladores a crear soluciones para más de 100 millones de PC con Windows GeForce RTX y estaciones de trabajo con NVIDIA RTX en todo el mundo».

«NVIDIA y Microsoft están ofreciendo nuevas optimizaciones e integraciones a los desarrolladores de Windows para acelerar la IA en aplicaciones de PC y estaciones de trabajo de última generación», describe la compañía. Entre ellas se incluyen:

  • Mayor rendimiento de inferencia para modelos de lenguaje de gran tamaño a través del controlador DirectX de NVIDIA, la extensión Generative AI ONNX Runtime y DirectML. Estas optimizaciones, ya disponibles en los controladores GeForce Game Ready, NVIDIA Studio y NVIDIA RTX Enterprise, proporcionan hasta 3 veces más rendimiento en las GPU NVIDIA y GeForce RTX.
  • Rendimiento optimizado en las GPU RTX para modelos de IA como Stable Diffusion y Whisper a través de WebNN, una API que permite a los desarrolladores acelerar modelos de IA en aplicaciones web utilizando hardware integrado en el dispositivo.
  • Con Windows preparado para soportar PyTorch a través de DirectML, miles de modelos de Hugging Face funcionarán en Windows de forma nativa. NVIDIA y Microsoft están colaborando para aumentar el rendimiento en más de 100 millones de GPU RTX.
Etiquetas: Sin etiquetas

Añadir un comentario

Tu correo electrónico no será publicado. Los campos requeridos están marcados

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.