IA generativa pública o privada Cómo elegir la mejor opción para tu organización

Cuando se trata de inteligencia artificial generativa, ¿debería su organización optar por AI pública o AI propietaria? En primer lugar, debe considerar las principales diferencias entre estas opciones.

La AI pública puede tener una amplia base de conocimientos y cumplir muchas tareas. Sin embargo, la AI pública puede alimentar esos datos de vuelta en los datos de entrenamiento de un modelo, lo que puede provocar la aparición de vulnerabilidades de seguridad. La alternativa, que es una AI entrenada y alojada internamente con datos propietarios, puede ser más segura, pero requiere mucha más infraestructura.

Algunas empresas, incluida Samsung, han prohibido el uso de AI generativa pública para uso corporativo debido a los riesgos de seguridad. En respuesta a estas preocupaciones, OpenAI, la empresa detrás de ChatGPT, agregó una opción para que los usuarios restrinjan el uso de sus datos en abril de 2023.

Aaron Kalb, cofundador y director de estrategia de la empresa de análisis de datos Alation, habló con nosotros sobre cómo se está utilizando la AI generativa en el análisis de datos y qué pueden aprender otras organizaciones sobre el estado de este campo en rápido movimiento. Trabajar como ingeniero en Siri le ha dado una visión de lo que las organizaciones deben considerar al elegir tecnologías emergentes, incluida la elección entre AI pública o propietaria.

Lo siguiente es una transcripción de mi entrevista con Kalb. Ha sido editada por razones de longitud y claridad.

Índice de Contenido
  1. Entrenar su propia AI o utilizar un servicio público
  2. Cómo decidir si la AI es adecuada para su empresa
  3. Determinación de la propiedad de los datos que usa la AI
  4. La AI propietaria te permite ver dentro de la 'caja negra'
  5. Encontrar un equilibrio entre utilidad y privacidad

Entrenar su propia AI o utilizar un servicio público

IA generativa pública o privada Cómo elegir la mejor opción para tu organización - Inteligencia artificial | Imagen 1 Newsmatic

Megan Crouse: ¿Cree que las empresas que tienen sus propios conjuntos de datos privados alimentados a una AI serán el camino del futuro, o será una mezcla de AI pública y propietaria?

La UE aprueba la ley pionera de inteligencia artificial para regular el uso de esta tecnología

Aaron Kalb: Los modelos de lenguaje internos grandes son interesantes. Entrenar en todo Internet tiene beneficios y riesgos: no todos pueden permitirse hacerlo o incluso quieren hacerlo. Me ha sorprendido lo lejos que se puede llegar con un modelo preentrenado grande con ajustes finos o ingeniería de consulta.

Para los actores más pequeños, habrá muchas aplicaciones de cosas [AI] que está ahí fuera y que se pueden reutilizar. Creo que los jugadores más grandes que pueden permitirse construir los suyos [AI] se sentirán tentados. Si miras, por ejemplo, AWS y Google Cloud Platform, algunas de estas cosas se sienten como infraestructura básica; no me refiero a lo que hacen con AI, sino a lo que hacen con el alojamiento y las granjas de servidores. Es fácil pensar que somos una empresa enorme, deberíamos construir nuestra propia granja de servidores. Bueno, nuestro núcleo de negocio es la agricultura o la fabricación. Tal vez deberíamos dejar que los equipos A de Amazon y Google lo hagan, y pagarles unos pocos centavos por terabyte de almacenamiento o cálculo.

Supongo que solo las mayores empresas de tecnología con el tiempo encontrarán beneficioso mantener sus propias versiones de estas [AI]; la mayoría de las personas terminarán usando un servicio de terceros. Esos servicios se volverán más seguros, más precisos y más ajustados por la industria, y serán más económicos.

Cómo decidir si la AI es adecuada para su empresa

Megan Crouse: ¿Qué otras preguntas cree que los responsables de decisiones empresariales deberían hacerse antes de decidir si implementar AI generativa? ¿En qué casos podría ser mejor no usarla?

Aaron Kalb: Tengo formación en diseño, y el objetivo allí es el diamante del diseño. Idear y luego seleccionar. La otra cosa clave que obtengo del diseño es: siempre comienza con el usuario y el problema del usuario. ¿Cuáles son los mayores problemas que tenemos?

Si el equipo de desarrollo de ventas dice: "Descubrimos que obtenemos mejores respuestas y tasas de apertura si el asunto y el cuerpo de nuestros correos electrónicos personalizados están realmente adaptados a esa persona según su perfil de LinkedIn y según su empresa o sitio web", y "estamos pasando horas al día haciendo todo este trabajo manual y obtenemos una buena tasa de apertura, pero no enviamos muchos correos electrónicos al día", resulta que la AI generativa es excelente para eso. Puede crear un widget que revise su lista de personas a las que enviar correos electrónicos y redacte uno basado en la página de LinkedIn del destinatario y el sitio web corporativo. La persona solo tiene que editarlo en lugar de escribirlo durante media hora. Creo que tienes que comenzar con cuál es tu problema.

¡Aprovecha la oportunidad de aumentar tu productividad con Taskio

Aaron Kalb: Aunque ya no es emocionante, muchos AI son modelos predictivos. Eso es una generación anterior, pero eso podría ser mucho más lucrativo que dar a las personas una herramienta donde puedan escribir en un bot. A la gente no le gusta escribir. Es posible que sea mejor tener una excelente interfaz de usuario que sea predictiva basada en los clics de los compradores o algo así, aunque ese sea un enfoque diferente.

Las cosas más importantes a tener en cuenta [cuando se trata de AI generativa] son la seguridad, el rendimiento y el costo. La desventaja es que la AI generativa puede ser como usar una excavadora para mover una mochila. Y estás introduciendo aleatoriedad, quizás innecesariamente. Hay muchas veces en las que preferirías tener algo determinista.

Determinación de la propiedad de los datos que usa la AI

Megan Crouse: En cuanto a la responsabilidad de IT, si está creando sus propios conjuntos de datos, ¿quién tiene la propiedad de los datos a los que tiene acceso la AI? ¿Cómo se integra eso en el proceso?

Aaron Kalb: Miro a AWS y confío en que con el tiempo tanto las preocupaciones de privacidad como el proceso mejorarán cada vez más. Ahora mismo, ciertamente, eso puede ser algo difícil. Con el tiempo, será posible obtener algo prefabricado con todas las aprobaciones y certificaciones que necesitas para confiar en ello, incluso si estás en el gobierno federal o en una industria muy regulada. No sucederá de la noche a la mañana, pero creo que pasará.

Sin embargo, un LLM es un algoritmo muy pesado. El punto principal es que aprenderá de todo, pero no sabe de dónde provino nada. Cada vez que te preocupa el sesgo, [AI puede no ser adecuado]. Y no hay una versión ligera de esto. Lo mismo que hace que sea impresionante hace que sea costoso. Esos gastos no se reducen solo a dinero: también se reducen a energía. No hay suficientes electrones flotando alrededor.

La AI propietaria te permite ver dentro de la 'caja negra'

Megan Crouse: Alation se enorgullece de proporcionar visibilidad en la gobernanza de datos. ¿Han discutido internamente cómo y si se puede evitar el problema de la 'caja negra' de AI, donde es imposible ver por qué AI toma las decisiones que toma?

Cómo proteger los datos en el uso de ChatGPT y otras aplicaciones de IA generativa

Aaron Kalb: Creo que en lugares donde realmente quieres saber de dónde proviene todo el "conocimiento" en el que se entrena AI, es un lugar donde es posible que desees construir tu propio modelo y el alcance de los datos en los que se entrena. El único problema ahí es la primera "L" de "LLM". Si el modelo no es lo suficientemente grande, no obtienes el rendimiento impresionante. Hay un equilibrio [con] datos de entrenamiento más pequeños: mayor precisión, menos extrañeza, pero también menos fluidez y habilidades menos impresionantes.

Encontrar un equilibrio entre utilidad y privacidad

Megan Crouse: ¿Qué ha aprendido de su tiempo trabajando en Siri que aplica a la forma en que aborda AI?

Aaron Kalb: Siri fue el primero [chatbot AI]. Se enfrentó a una competencia muy dura de jugadores como Google, que tenían proyectos como Google Voice y estos enormes corpus de datos de conversaciones generadas por los usuarios. Siri no tenía nada de eso; todo se basaba en corpus de textos de periódicos y cosas así, y tenía muchas cosas de AI inferencial basadas en plantillas y de la vieja escuela.

Durante mucho tiempo, incluso cuando Siri actualizaba los algoritmos que estaba utilizando, el rendimiento no podía mejorar tanto. Uno [factor] es la política de privacidad. Cada conversación que tienes con Siri es independiente; no hay forma de que aprenda con el tiempo. Eso ayuda a los usuarios a confiar en que no se está utilizando en todas las cientos de formas en que Google utiliza y potencialmente abusa de esa información, pero Apple no podía aprender de ella.

De la misma manera, Apple seguía agregando nuevas funcionalidades. El viaje de Siri muestra que cuanto más grande sea tu mundo, más empoderador es. Pero también es un riesgo. Cuantos más datos obtienes, más empoderamiento trae, pero también más preocupaciones de privacidad. Esta [AI generativa] es una tecnología muy orientada hacia el futuro, pero siempre estás moviendo estos controles deslizantes que implican diferentes cosas que a las personas les importan.

Lenovo amplía su portafolio de infraestructura lista para IA

En Newsmatic nos especializamos en tecnología de vanguardia, contamos con los artículos mas novedosos sobre Inteligencia artificial, allí encontraras muchos artículos similares a IA generativa pública o privada Cómo elegir la mejor opción para tu organización , tenemos lo ultimo en tecnología 2023.

Artículos Relacionados

Subir

Utilizamos cookies para mejorar su experiencia de navegación, mostrarle anuncios o contenidos personalizados y analizar nuestro tráfico. Al hacer clic en “Aceptar todo” usted da su consentimiento a nuestro uso de las cookies.