NVIDIA anuncia soluciones de computación de alto rendimiento en el borde

NVIDIA anunció varias asociaciones y productos de cómputo de borde el 11 de noviembre antes de la Conferencia Internacional de Cómputo de Alto Rendimiento, Redes, Almacenamiento y Análisis (también conocida como SC22) del 13 al 18 de noviembre.

NVIDIA anuncia soluciones de computación de alto rendimiento en el borde - Nube | Imagen 1 Newsmatic

Índice de Contenido
  1. La Solución de Cómputo de Alto Rendimiento en el Borde de NVIDIA
  2. Anuncios de productos de NVIDIA
  3. Más cómputo de alto rendimiento en el borde
  4. Efficiencia energética en el cómputo de alto rendimiento

La Solución de Cómputo de Alto Rendimiento en el Borde de NVIDIA

El stack de soluciones de cómputo de alto rendimiento en el borde incluye el extensor Infiniband MetroX-3, transmisión de datos de alto rendimiento escalable y la unidad de procesamiento de datos BlueField-3 para aceleración y transferencia de datos. Además, el SDK Holoscan ha sido optimizado para instrumentos científicos de borde con acceso para desarrolladores a través de APIs estándar en C++ y Python, incluyendo datos que no son de imágenes.

Todos estos están diseñados para cubrir las necesidades de cómputo de alto rendimiento en el borde de investigación y aplicación de alta fidelidad. El cómputo de alto rendimiento en el borde aborda dos desafíos principales, según Dion Harris, gerente de productos de cómputo acelerado de NVIDIA, en una sesión informativa virtual previa al evento.

En primer lugar, los instrumentos científicos de alta fidelidad procesan una gran cantidad de datos en el borde, los cuales deben utilizarse de manera más eficiente tanto en el borde como en el centro de datos. En segundo lugar, surgen desafíos para la transferencia de datos cuando se producen, analizan y procesan cantidades masivas de datos de alta fidelidad. Los investigadores necesitan poder automatizar la transferencia de datos y tomar decisiones sobre cuántos datos mover al centro y cuántos analizar en el borde, todo en tiempo real. Aquí es donde la inteligencia artificial resulta útil.

"Los instrumentos de recolección de datos en el borde se están convirtiendo en aceleradores de investigación interactivos en tiempo real", dijo Harris.

Cómo funciona el protocolo FTP y cómo resolver problemas relacionados con él

"El transporte de datos casi en tiempo real está volviéndose deseable", dijo Chin Fang, CEO de Zettar, en un comunicado de prensa. "Un DPU con capacidades de movimiento de datos incorporadas aporta mucha simplicidad y eficiencia al flujo de trabajo".

Anuncios de productos de NVIDIA

Cada uno de los nuevos productos anunciados aborda esto desde una dirección diferente. El MetroX-3 Long Haul extiende la plataforma de conectividad Infiniband de NVIDIA a 25 millas o 40 kilómetros, permitiendo que campus separados y centros de datos funcionen como una sola unidad. Es aplicable a una variedad de casos de uso de migración de datos y aprovecha las capacidades de acceso directo a memoria remota nativas de NVIDIA, así como otras capacidades de cómputo en red de Infiniband.

El acelerador BlueField-3 está diseñado para mejorar la eficiencia y la seguridad en las corrientes de migración de datos. Zettar demostró el uso de la DPU BlueField de NVIDIA para la migración de datos en la conferencia, mostrando una reducción en el espacio total de la empresa de 13U a 4U. Específicamente, el proyecto de Zettar utiliza un servidor Dell PowerEdge R720 con la DPU BlueField-2, además de un servidor Colfax CX2265i.

Zettar señala dos tendencias en la tecnología de la información hoy en día que hacen útil la migración de datos acelerada: los paradigmas de borde a núcleo/nube y una infraestructura componible y desagregada. Una migración de datos más eficiente entre infraestructuras físicamente distintas también puede ser un paso hacia una reducción general de energía y espacio, y reduce la necesidad de actualizaciones completas en los centros de datos.

"Casi todas las verticales se enfrentan a un tsunami de datos en estos días", dijo Fang. "... Ahora es aún más urgente mover datos desde el borde, donde se encuentran los instrumentos, hasta el núcleo y/o la nube para ser analizados en el pipeline, a menudo impulsado por IA".

Más cómputo de alto rendimiento en el borde

Entre otras asociaciones de NVIDIA en el borde anunciadas en SC22 se encuentra la versión refrigerada por inmersión líquida del supercomputador de borde OSS Rigel Edge dentro del EdgeBox 4.5 de TMGcore de One Stop Systems y TMGcore.

Microsoft lanza servicio gratuito de almacenamiento en la nube para usuarios de Windows

"Rigel, junto con la solución NVIDIA HGX A100 4GPU, representa un avance en el avance del diseño, la potencia y la refrigeración de supercomputadoras para entornos de borde resistentes", dijo Paresh Kharya, director senior de gestión de productos para cómputo acelerado en NVIDIA.

Los casos de uso para supercomputadoras refrigeradas por líquido y resistentes en entornos de borde incluyen vehículos autónomos, helicópteros, centros de comando móviles y compartimentos de equipos de aviones o drones, dijo One Stop Systems. El líquido dentro de esta configuración en particular es una mezcla no corrosiva "similar al agua" que elimina el calor de los dispositivos electrónicos en función de sus propiedades de punto de ebullición, eliminando la necesidad de disipadores de calor grandes. Si bien esto reduce el tamaño, el consumo de energía y el ruido de la caja, el líquido también sirve para amortiguar los golpes y las vibraciones. El objetivo general es llevar los niveles de cómputo de un centro de datos transportable a la borde.

Efficiencia energética en el cómputo de alto rendimiento

NVIDIA también anunció planes para mejorar la eficiencia energética, con su GPU H100 con casi el doble de eficiencia energética en comparación con la A100. El GPU Tensor Core H100 basado en la arquitectura NVIDIA Hopper es el sucesor del A100. La tecnología de GPU multi-instancia de segunda generación significa que aumenta drásticamente el número de clientes de GPU disponibles para los usuarios del centro de datos.

Además, la compañía señaló que sus tecnologías alimentan 23 de los 30 mejores sistemas en la lista Green500 de supercomputadoras más eficientes. El número uno en la lista, el supercomputador del Instituto Flatiron en Nueva Jersey, es construido por Lenovo. Incluye el servidor ThinkSystem SR670 V2 de Lenovo y los GPU Tensor Core H100 de NVIDIA conectados a la red InfiniBand Quantum de NVIDIA de 200 Gb/s. Transistores diminutos, de solo 5 nanómetros de ancho, ayudan a reducir el tamaño y el consumo de energía.

"Esta computadora nos permitirá hacer más ciencia con tecnología más inteligente que consume menos electricidad y contribuye a un futuro más sostenible", dijo Ian Fisk, codirector del Núcleo de Computación Científica del Instituto Flatiron.

NVIDIA también destacó sus CPU Grace y los Superchips Grace Hopper, que miran hacia un futuro en el que el cómputo acelerado impulse más investigaciones como las realizadas en el Instituto Flatiron. Los centros de datos con CPU y chips Grace y Grace Hopper pueden hacer un 1.8 veces más trabajo con el mismo presupuesto de energía, según NVIDIA. Esto se compara con un centro de datos HPC x86 de 1 megavatio con una partición similar, donde el 20% de la energía se asigna a la CPU y el 80% a la parte acelerada con la nueva CPU y chips.

Cómo evitar que el archivo de registro de transacciones en SQL Server crezca demasiado grande

Para más información, consulte los anuncios de IA recientes de NVIDIA, las ofertas de Omniverse Cloud para el metaverso y su controvertido controlador de kernel de código abierto.

En Newsmatic nos especializamos en tecnología de vanguardia, contamos con los artículos mas novedosos sobre Nube, allí encontraras muchos artículos similares a NVIDIA anuncia soluciones de computación de alto rendimiento en el borde , tenemos lo ultimo en tecnología 2023.

Artículos Relacionados

Subir

Utilizamos cookies para mejorar su experiencia de navegación, mostrarle anuncios o contenidos personalizados y analizar nuestro tráfico. Al hacer clic en “Aceptar todo” usted da su consentimiento a nuestro uso de las cookies.