Seguridad infalible: Cómo Google protege sus datos empresariales con chatbots IA generativos

Google ha advertido a sus empleados que no alimenten al chatbot AI generativo conocido como Bard con información confidencial, según documentos internos filtrados a Reuters en junio de 2023. La compañía ha instruido a los ingenieros para que no utilicen el código generado por el chatbot.

Empresas como Samsung y Amazon también han prohibido el uso de chatbots AI generativos públicos debido a preocupaciones similares sobre la filtración de información confidencial.

Índice de Contenido
  1. Cómo aborda Google Cloud el uso de datos personales en productos de IA
  2. Consideraciones para las empresas que utilizan chatbots AI públicos
  3. Eliminación de información sensible en aplicaciones de IA: el desafío del "desaprendizaje"

Cómo aborda Google Cloud el uso de datos personales en productos de IA

Seguridad infalible: Cómo Google protege sus datos empresariales con chatbots IA generativos - Inteligencia artificial | Imagen 1 Newsmatic

Google Cloud aborda el uso de datos personales en productos de IA al incluir estos datos bajo los términos del Acuerdo de la Plataforma de Google Cloud existente (tanto Bard como Cloud AI están cubiertos por este acuerdo). Google es transparente en cuanto a que los datos introducidos en Bard serán recopilados y utilizados para "proporcionar, mejorar y desarrollar productos y servicios de Google y tecnologías de aprendizaje automático", incluyendo tanto la interfaz de chat pública de Bard como los productos empresariales de Google Cloud.

"Abordamos la IA de manera audaz y responsable, reconociendo que todos los clientes tienen derecho a tener un control completo sobre cómo se utilizan sus datos", afirmó Behshad Behzadi, Vicepresidente de Ingeniería de Google Cloud, en un correo electrónico enviado a Newsmatic.

Google Cloud ofrece tres productos de IA generativa: CCAI Platform, una herramienta de centro de contacto, Generative AI App Builder y Vertex AI, un conjunto de herramientas para implementar y construir modelos de aprendizaje automático.

Behzadi destacó que Google Cloud trabaja para asegurarse de que las respuestas de sus productos de IA estén basadas en hechos y sean coherentes con la marca de la empresa, y que la IA generativa esté integrada de manera estrecha en la lógica empresarial existente, la gestión de datos y los sistemas de acceso y autorización.

Cómo utilizar la inteligencia artificial en los negocios: guía completa y consejos prácticos

Vertex AI de Google Cloud permite a las empresas ajustar los modelos base con sus propios datos. "Cuando una empresa ajusta un modelo base en Vertex AI, los datos privados se mantienen privados y nunca se utilizan en el corpus de entrenamiento del modelo base", explicó Behzadi.

Consideraciones para las empresas que utilizan chatbots AI públicos

Las empresas que utilizan chatbots AI públicos deben tener en cuenta que deben poner a los clientes como prioridad y asegurarse de que su estrategia de IA, incluyendo los chatbots, se base en una estrategia bien definida de gobierno de datos, según Behzadi.

Los líderes empresariales deben "integrar los chatbots AI públicos con un conjunto de lógica empresarial y reglas que garanticen respuestas apropiadas para la marca", dijo. Estas reglas pueden incluir la verificación y aprobación por parte de la empresa de la fuente de los datos citados por el chatbot. Behzadi también afirmó que la búsqueda pública en Internet sólo debería ser un "último recurso".

Naturalmente, las empresas también deben utilizar modelos de IA que hayan sido ajustados para reducir las posibles equivocaciones o información falsa, recomendó Behzadi.

Por ejemplo, OpenAI está investigando formas de mejorar la confiabilidad de ChatGPT a través de un proceso conocido como supervisión del proceso. Este proceso consiste en recompensar al modelo de IA por seguir una línea de razonamiento deseada, en lugar de simplemente proporcionar la respuesta final correcta. Sin embargo, este proceso aún está en desarrollo y no se ha incorporado actualmente en ChatGPT.

Behzadi también señaló que los empleados que utilizan IA generativa o chatbots para su trabajo deben verificar las respuestas por sí mismos. "Es importante que las empresas aborden la parte humana, asegurándose de que existan pautas y procesos adecuados para educar a los empleados sobre las mejores prácticas para el uso de chatbots AI públicos", dijo.

Puedo usar inteligencia artificial generativa para solicitar un trabajo

Eliminación de información sensible en aplicaciones de IA: el desafío del "desaprendizaje"

Otra forma de proteger datos sensibles que podrían ser introducidos en aplicaciones de inteligencia artificial sería eliminar completamente esos datos una vez finalizada la conversación. Sin embargo, esto es algo complicado.

A finales de junio de 2023, Google anunció un concurso para abordar este desafío: el desaprendizaje, es decir, asegurarse de que los datos sensibles puedan eliminarse de los conjuntos de entrenamiento de IA para cumplir con los estándares globales de regulación de datos, como el GDPR. Esto puede resultar complicado ya que implica rastrear si los datos de una determinada persona se utilizaron para entrenar un modelo de aprendizaje automático.

"Además de simplemente eliminar los datos de las bases de datos en las que se almacenan, también es necesario eliminar la influencia de esos datos en otros artefactos, como los modelos de IA entrenados", escribió Google en una publicación de blog.

El concurso se lleva a cabo desde el 28 de junio hasta mediados de septiembre de 2023.

Impacto y Visiones: Lo más destacado y las últimas noticias de Microsoft Inspire 2023

En Newsmatic nos especializamos en tecnología de vanguardia, contamos con los artículos mas novedosos sobre Inteligencia artificial, allí encontraras muchos artículos similares a Seguridad infalible: Cómo Google protege sus datos empresariales con chatbots IA generativos , tenemos lo ultimo en tecnología 2023.

Artículos Relacionados

Subir

Utilizamos cookies para mejorar su experiencia de navegación, mostrarle anuncios o contenidos personalizados y analizar nuestro tráfico. Al hacer clic en “Aceptar todo” usted da su consentimiento a nuestro uso de las cookies.