Dell y NVIDIA se unen para ofrecer inteligencia artificial generativa personalizada

La inteligencia artificial generativa se encuentra en un momento crucial. Los chatbots de IA generativa, como el Copilot de Microsoft, son cada vez más fáciles de implementar, pero algunos pueden devolver "alucinaciones" falsas o exponer datos privados. La mejor solución podría venir de una IA conversacional más especializada, entrenada de manera segura en los datos de una organización. Para gestionar todos esos datos, Dell se ha asociado con NVIDIA. Los GPU H100 Tensor Core y la tecnología de red de NVIDIA son los pilares del nuevo proyecto de Dell, llamado Helix, un servicio integral que ayudará a las organizaciones a ejecutar la IA generativa.

Dell y NVIDIA se unen para ofrecer inteligencia artificial generativa personalizada - Inteligencia artificial | Imagen 1 Newsmatic

El Dell Technologies World 2023 llevó este tema a Las Vegas esta semana. Durante el primer día de la conferencia, el CEO Michael Dell y otros ejecutivos profundizaron en lo que la IA puede hacer por las empresas más allá del ChatGPT.

"Las empresas podrán entrenar modelos de IA mucho más simples en datos específicos y confidenciales, de manera más económica y segura, lo que impulsará avances en productividad y eficiencia", dijo Michael Dell.

El proyecto Helix estará disponible como un producto público a partir de junio de 2023.

Índice de Contenido
  1. El Helix de Dell ofrece vocabulario personalizado para casos de uso específicos
  2. Desafíos para crear modelos de IA específicos de una empresa
  3. Cambiando DevOps, un bot a la vez
  4. Detrás de escena con el hardware de NVIDIA
  5. ¿Debería tu negocio utilizar IA generativa personalizada?

El Helix de Dell ofrece vocabulario personalizado para casos de uso específicos

Las empresas están compitiendo por implementar IA generativa para casos de uso específicos de dominio, según Varun Chhabra, vicepresidente senior de marketing de productos de Dell Technologies. La solución de Dell, el proyecto Helix, es una oferta integral in situ en la que las empresas entrenan y guían su propia IA propietaria.

¡Rompe la barrera del idioma con los auriculares traductores inalámbricos Peiko Generation 2!

Por ejemplo, una empresa podría implementar un modelo de lenguaje grande para leer todos los artículos de conocimiento en su sitio web y responder las preguntas de un usuario en base a un resumen de esos artículos, según el analista de Forrester Rowan Curran. No se basaría en toda la internet. En cambio, la IA recopilaría datos del contenido propietario de los artículos de conocimiento. Esto le permitiría abordar más directamente las necesidades de una empresa específica y sus clientes.

"La estrategia de Dell aquí es realmente una estrategia de hardware, software y servicios que permite a las empresas construir modelos de manera más efectiva", dijo Brent Ellis, analista senior de Forrester. "Proporcionar una plataforma optimizada y validada para la creación y el entrenamiento de modelos será un mercado en crecimiento en el futuro, ya que las empresas buscan crear modelos de IA que se centren en los problemas específicos que necesitan resolver".

Desafíos para crear modelos de IA específicos de una empresa

Sin embargo, hay obstáculos con los que las empresas se encuentran al intentar adaptar la IA a las necesidades específicas de su organización.

"No sorprendentemente, están surgiendo muchas necesidades específicas", dijo Chhabra en la conferencia de Dell. "Cosas como que los resultados deben ser confiables. Es muy diferente a un modelo de propósito general al que cualquiera puede acceder. Puede haber todo tipo de respuestas que deben ser controladas o preguntas que deben tenerse en cuenta".

Las alucinaciones y las afirmaciones incorrectas pueden ser comunes. Para casos de uso que involucran información propietaria o comportamiento de clientes anonimizados, la privacidad y la seguridad son fundamentales.

Los clientes empresariales también pueden elegir la IA personalizada in situ debido a preocupaciones de privacidad y seguridad, dijo Kari Ann Briski, vicepresidenta de gestión de productos de software de IA en NVIDIA.

Resoume: La herramienta de inteligencia artificial para crear el currículum perfecto

Además, los ciclos de computación y los costos de inferencia suelen ser más altos en la nube.

"Una vez que tienes ese modelo de entrenamiento y lo has personalizado y adaptado a la voz de tu marca y tus datos, ejecutar una inferencia no optimizada para ahorrar ciclos de computación es otra área que preocupa a muchos clientes", dijo Briski.

Diferentes empresas tienen diferentes necesidades de IA generativa, desde aquellas que utilizan modelos de código abierto hasta aquellas que pueden construir modelos desde cero o desean saber cómo ejecutar un modelo en producción. La gente se pregunta: "¿Cuál es la combinación adecuada de infraestructura para entrenamiento versus infraestructura para inferencia, y cómo se optimiza eso? ¿Cómo se ejecuta para producción?" Briski preguntó.

Dell caracteriza el proyecto Helix como una forma de permitir una IA generativa personalizada, segura y protegida sin importar cómo responda un cliente potencial a esas preguntas.

"A medida que avanzamos en esta tecnología, estamos viendo cada vez más esfuerzos para hacer que los modelos sean lo más pequeños y eficientes posible, sin dejar de alcanzar niveles similares de rendimiento que los modelos más grandes, y esto se logra mediante el ajuste fino y la destilación hacia tareas específicas", dijo Curran.

Cambiando DevOps, un bot a la vez

¿Dónde encaja la IA in situ en las operaciones? En cualquier lugar, desde la generación de código hasta las pruebas unitarias, dijo Ellis. Los modelos de IA especializados son particularmente buenos en esto. Algunos desarrolladores pueden utilizar la IA, como TuringBots, para hacer todo, desde la planificación hasta la implementación del código.

Domina Google Bard (2023): La guía completa para triunfar

En NVIDIA, los equipos de desarrollo han adoptado un término llamado LLMOps en lugar de operaciones de aprendizaje automático, según Briski.

"No estás programando para ello; estás haciendo preguntas humanas", dijo ella.

A su vez, el aprendizaje por refuerzo a través de la retroalimentación humana de los expertos en la materia ayuda a la IA a comprender si está respondiendo correctamente a las indicaciones. Esto es parte de cómo NVIDIA utiliza su marco de trabajo NeMo, una herramienta para construir e implementar IA generativa.

"La forma en que los desarrolladores se están relacionando con este modelo es completamente diferente en términos de cómo lo mantienes y actualizas", dijo Briski.

Detrás de escena con el hardware de NVIDIA

El hardware detrás del proyecto Helix incluye los GPU H100 Tensor y la tecnología de red de NVIDIA, además de los servidores de Dell. Briski señaló que la forma sigue a la función.

"Para cada generación de nuestra nueva arquitectura de hardware, nuestro software debe estar listo desde el primer día", dijo ella. "También pensamos en las cargas de trabajo más importantes antes incluso de diseñar el chip.

ChatGPT vs. Google Bard: Cuál es la mejor opción para tu negocio

"... Por ejemplo, para H100, es el motor Transformer. Los Transformadores de NVIDIA son una carga de trabajo realmente importante para nosotros y para el mundo, por lo que incorporamos el motor Transformer en el H100".

Dell y NVIDIA desarrollaron juntos el PowerEdgeXE9680 y el resto de la familia de servidores PowerEdge específicamente para cargas de trabajo complejas y emergentes de IA y computación de alto rendimiento, y tuvieron que asegurarse de que pudiera funcionar a gran escala, así como manejar el procesamiento de alta capacidad, según Varun.

NVIDIA ha recorrido un largo camino desde que la compañía entrenó una IA basada en la visión en la GPU Volta en 2017, señaló Briski. Ahora, NVIDIA utiliza cientos de nodos y miles de GPUs para ejecutar sus sistemas de infraestructura de centro de datos.

NVIDIA también está utilizando IA de modelos de lenguaje grandes en su diseño de hardware.

"Una de las cosas que (el CEO de NVIDIA) Jensen (Huang) le desafió a NVIDIA hace seis o siete años cuando surgió el aprendizaje profundo, fue que todos los equipos deben adoptar el aprendizaje profundo", dijo Briski. "Está haciendo exactamente lo mismo con los modelos grandes de lenguaje. El equipo de semiconductores está utilizando modelos grandes de lenguaje; nuestro equipo de marketing está utilizando modelos grandes de lenguaje; tenemos la API creada para acceder internamente".

Esto se relaciona con el concepto de restricciones de seguridad y privacidad. Un empleado de NVIDIA puede preguntarle a la IA de recursos humanos si puede obtener beneficios de recursos humanos para apoyar la adopción de un niño, por ejemplo, pero no si otros empleados han adoptado un niño.

8 consejos para mejorar tus búsquedas en Bing AI y obtener resultados precisos y útiles8 consejos para mejorar tus búsquedas en Bing AI y obtener resultados precisos y útiles

¿Debería tu negocio utilizar IA generativa personalizada?

Si tu empresa está considerando utilizar IA generativa, debes pensar si tiene la necesidad y la capacidad para cambiar u optimizar esa IA a gran escala. Además, debes considerar tus necesidades de seguridad. Briski advierte sobre el uso de modelos de LLM públicos que son cajas negras cuando se trata de descubrir de dónde obtienen sus datos.

En particular, es importante poder demostrar si el conjunto de datos que se utilizó en ese modelo fundamental se puede utilizar comercialmente.

Junto con el proyecto Helix de Dell, los proyectos Copilot de Microsoft y las herramientas watsonx de IBM muestran la amplitud de las opciones disponibles cuando se trata de modelos de IA específicos de una empresa, dijo Ellis. HuggingFace, Google, Meta AI y Databricks ofrecen LLM de código abierto, mientras que Amazon, Anthropic, Cohere y OpenAI ofrecen servicios de IA. Facebook y OpenAI probablemente también ofrecerán sus propias opciones in situ en el futuro. Muchos otros proveedores están ansiosos por unirse a este campo tan emocionante.

"Los modelos generales tienen acceso a conjuntos de datos más grandes y tienen la capacidad de hacer conexiones a las que los modelos de propósito específico con conjuntos de datos más limitados no pueden acceder", dijo Ellis. "Sin embargo, como estamos viendo en el mercado, los modelos generales pueden hacer predicciones erróneas y tener 'alucinaciones'.

"Los modelos de propósito específico ayudan a limitar esas alucinaciones, pero lo que es aún más importante es el ajuste que se realiza después de crear un modelo".

En general, depende del propósito de una organización el uso de un modelo de IA de propósito general o entrenar el suyo propio.

Los productos con funcionalidad de inteligencia artificial son los más rápidos en crecimiento

En Newsmatic nos especializamos en tecnología de vanguardia, contamos con los artículos mas novedosos sobre Inteligencia artificial, allí encontraras muchos artículos similares a Dell y NVIDIA se unen para ofrecer inteligencia artificial generativa personalizada , tenemos lo ultimo en tecnología 2023.

Artículos Relacionados

Subir

Utilizamos cookies para mejorar su experiencia de navegación, mostrarle anuncios o contenidos personalizados y analizar nuestro tráfico. Al hacer clic en “Aceptar todo” usted da su consentimiento a nuestro uso de las cookies.