Microsoft presenta nuevos plugins para sus aplicaciones Copilot

La conferencia de desarrolladores de Microsoft, Build, ha mostrado cómo quiere que los desarrolladores agreguen contenido personalizado e integración de aplicaciones a sus aplicaciones Copilot. Es un enfoque que debería hacer que estas aplicaciones sean más relevantes y menos propensas a desviarse, centrándose en tareas específicas.

Microsoft presenta nuevos plugins para sus aplicaciones Copilot - Inteligencia artificial | Imagen 1 Newsmatic

Es importante entender que, una vez entrenado, un gran modelo de lenguaje como GPT-4 necesita datos adicionales para mantenerse enfocado. Por eso, los diversos Copilotes de Microsoft se basan en sus propias fuentes de datos: GitHub, Power Platform, Microsoft Graph y, obviamente, Bing. Es un enfoque en su mayoría exitoso que reduce el riesgo de alucinaciones y desbordamiento de indicaciones, pero aún impone límites definidos por Microsoft en su plataforma de IA.

Por el momento, el Copilot de Bing solo puede responder preguntas sobre la base de datos de búsqueda de Bing. Y aunque esta base de datos es enorme, no puede responder preguntas sobre datos dentro del firewall del usuario o de aplicaciones que desean utilizar. El servicio no puede tomar esas respuestas y alimentarlas en otras aplicaciones para usar resultados adicionales, formatear su salida o realizar una interacción en nombre del usuario. Los usuarios pueden preguntar a Bing Chat, por ejemplo, cuáles son los mejores restaurantes en Nueva Orleans o solicitar un itinerario para un viaje de tres días, pero Bing no puede hacer una reserva en un restaurante.

Microsoft presenta nuevos plugins para sus aplicaciones Copilot - Inteligencia artificial | Imagen 2 Newsmatic

Índice de Contenido
  1. Agregar plugins para asistencia de IA
  2. Crear plugins rápidamente
  3. Mejorar los plugins
  4. Convertir las aplicaciones existentes de Microsoft Teams en plugins

Agregar plugins para asistencia de IA

Aquí es donde entran en juego los plugins, que brindan fuentes de datos adicionales y nuevas interacciones. Los usuarios ya pueden utilizar plugins que se han creado para ChatGPT, y Microsoft está utilizando la misma arquitectura de plugins para sus nuevos plugins de Bing. Inicialmente, ofrece soporte para OpenTable y Wolfram Alpha, y se agregarán plugins de servicios como Expedia, Instacart, Zillow, TripAdvisor y más. Por ejemplo, si alguien utiliza el plugin de Instacart, puede convertir rápidamente un menú de Bing en una lista de compras y luego en un pedido de entrega para los ingredientes que no tiene en su despensa. Cabe mencionar que entre los plugins también se incluirá uno para ChatGPT en sí mismo.

¡Domina ChatGPT al máximo para triunfar en la comunicación!

Microsoft va más allá: ese modelo de plugin común también se está utilizando para Copilot de Microsoft 365 y las herramientas de IA en el navegador Edge de Microsoft. Tener un modelo común para los plugins de los modelos de lenguaje masivo (LLM, por sus siglas en inglés) tiene mucho sentido. Permite escribir código una vez y reutilizarlo en todas las aplicaciones diferentes del usuario.

Trabajar con una arquitectura de plugin estándar le permite a un usuario ofrecer su código a otros usuarios y organizaciones. Entonces, si han creado una herramienta que puede integrar una aplicación Salesforce con Bing Chat, pueden venderla como un producto o hacerla de código abierto y compartirla.

Crear plugins rápidamente

¿Cómo pueden los usuarios construir un plugin de ChatGPT? Los plugins son interfaces entre las API de las aplicaciones existentes y ChatGPT, con un manifiesto y especificaciones OpenAPI para las API que están utilizando. El servicio de chat de Bing actúa como una herramienta de orquestación, llamando a las API según sea necesario y formateando las respuestas utilizando sus herramientas de lenguaje natural.

Con estas herramientas, los usuarios pueden hacer preguntas como "¿Puedes decirme todas las transacciones que se cerraron en el primer trimestre?" y hacer que Bing Chat se conecte a su sistema de gestión de relaciones con los clientes y extraiga la información requerida de los datos de ventas, mostrándola como una respuesta en el chat. Luego, pueden seguir preguntando si necesitan pedir más materias primas, utilizando otro plugin que se vincule a una plataforma de planificación de recursos empresariales para verificar los niveles de inventario y preguntar si aprueban ordenar los materiales y componentes necesarios.

El resultado es que los usuarios pueden trabajar con las aplicaciones que normalmente usan, orquestando interacciones y convirtiendo tareas complejas en micromisiones, lo que les permite dedicarse a otras tareas en profundidad.

Crear extensiones sobre definiciones de API existentes y un formato de definición estándar debería simplificar el desarrollo. Si un usuario no ha creado una definición OpenAPI para una API REST, puede usar herramientas como Postman para generarla automáticamente. Los campos de descripción de la definición OpenAPI pueden ayudar a Bing o ChatGPT a generar texto alrededor de las consultas y ayudarlos a elegir qué API usar. La definición de plugin resultante se agrega en la indicación del LLM (oculta en la interfaz de chat) pero aún se contabiliza en su contexto y se utilizan los tokens. Es importante recordar que los plugins deben ser llamados directamente por los usuarios y no están disponibles para todas las consultas.

Dell y NVIDIA se unen para ofrecer inteligencia artificial generativa personalizada

Lo primero que se debe hacer es construir un manifiesto para el plugin en YAML o JSON. El usuario lo hospedará en una carpeta específica en la cima de su dominio con un nombre predefinido, para que sea fácil de encontrar por el host de GPT. Útilmente, la especificación del plugin de OpenAI incluye formas de manejar la autenticación para garantizar que solo los usuarios autenticados tengan acceso a las API internas. Al usar descripciones de OpenAPI, los usuarios pueden restringir el acceso de GPT a aspectos específicos de sus API, ya que pueden editar la definición de la API para ocultar llamadas que no desean que se realicen. Por ejemplo, alguien podría permitir solo lecturas en una API que tiene funcionalidades de actualización y eliminación.

Mejorar los plugins

Los plugins no agregan datos a Bing o ChatGPT, agregan dirección y enfoque a su salida y solo se ejecutan cuando un usuario lo solicita, devolviendo únicamente los datos que forman parte de la respuesta a la consulta original. Los usuarios deben evitar devolver respuestas en lenguaje natural, ya que el modelo GPT generará sus propias respuestas basadas en los datos de la API.

Una característica útil del manifiesto del plugin es el atributo "descripción para el modelo", que permite a los usuarios refinar la indicación que se genera a partir de la descripción de la API, brindando un lugar para agregar más instrucciones. A medida que los usuarios prueban su plugin, así es como pueden tener un control adicional sobre cómo se utiliza. ChatGPT proporciona una forma de depurar los plugins al mostrar las solicitudes y respuestas, generalmente en formato JSON. Esto les ayuda a entender qué datos de sus aplicaciones utiliza la IA, aunque no exactamente cómo se utilizan o cómo se generó la solicitud original.

Los plugins más complejos pueden trabajar con bases de datos vectoriales para extraer y utilizar documentos. Este enfoque es mejor utilizado para aplicaciones que necesitan trabajar con los almacenamientos de documentos de los usuarios, que pueden ser preprocesados con embeddings e indexados con una búsqueda vectorial para acelerar el acceso a información empresarial compleja, que puede generar documentos basados en respuestas de otras aplicaciones, utilizando el contenido más relevante para estructurar cualquier texto generado.

Convertir las aplicaciones existentes de Microsoft Teams en plugins

Otra opción interesante es utilizar las extensiones de mensajes existentes de Teams con el Copilot de Microsoft 365. Este enfoque puede simplificar la adición rápida de IA a los bots existentes de Teams, vinculando los servicios web del usuario al Copilot a través del marco de bot de Microsoft. Lo más importante aquí es asegurarse de que se utilicen la descripción de la aplicación y los parámetros de habilidad para construir la indicación del Copilot LLM junto con cualquier solicitud de contenido en la extensión. Las salidas se entregan como tarjetas adaptativas incrustadas en las sesiones de chat. Incluso se tiene la opción de modificar una extensión para convertirla en un sistema completamente conversacional, trabajando a través del modelo GPT-4 que subyace en la mayoría de los Copilotes de Microsoft.

El enfoque de Microsoft para ampliar Bing y sus otros Copilotes es bueno por ahora. Aún estamos en los primeros días de la IA generativa, por lo que tener un formato de plugins estándar tiene mucho sentido, permitiendo que las API admitan más de una plataforma de IA y reduciendo la necesidad de construir el mismo plugin muchas veces. El código que funciona con ChatGPT funcionará en Bing Chat, Microsoft 365 y en cualquier otro lugar donde Microsoft agregue funcionalidad de Copilot en el futuro.

¡Rompe la barrera del idioma con los auriculares traductores inalámbricos Peiko Generation 2!

En Newsmatic nos especializamos en tecnología de vanguardia, contamos con los artículos mas novedosos sobre Inteligencia artificial, allí encontraras muchos artículos similares a Microsoft presenta nuevos plugins para sus aplicaciones Copilot , tenemos lo ultimo en tecnología 2023.

Artículos Relacionados

Subir

Utilizamos cookies para mejorar su experiencia de navegación, mostrarle anuncios o contenidos personalizados y analizar nuestro tráfico. Al hacer clic en “Aceptar todo” usted da su consentimiento a nuestro uso de las cookies.