El desafortunado desliz de la IA Tay de Microsoft

Se suponía que debía parecer una adolescente normal. Pero menos de 24 horas después de su debut en Twitter, el chatbot de Microsoft, un sistema de inteligencia artificial llamado "Tay.ai", se convirtió inesperadamente en un troll que amaba a Hitler y atacaba a las feministas. ¿Qué salió mal? Newsmatic recurre a expertos en inteligencia artificial para obtener información sobre lo sucedido y cómo podemos aprender de ello.

Índice de Contenido
  1. Una creación con resultados inesperados
  2. El problema: imitando a sus seguidores
  3. Lecciones aprendidas y próximo paso

Una creación con resultados inesperados

Tay, creada por los equipos de Tecnología e Investigación y Bing de Microsoft, fue un experimento destinado a aprender a través de conversaciones. Estaba dirigida a jóvenes estadounidenses de 18 a 24 años, los principales usuarios de las redes sociales según Microsoft, y "diseñada para interactuar y entretener a las personas donde se conectan en línea a través de conversaciones casuales y juguetonas".

En menos de 24 horas después de llegar a Twitter, Tay obtuvo más de 50,000 seguidores y produjo casi 100,000 tweets.

El problema: imitando a sus seguidores

El problema ocurrió cuando Tay comenzó a imitar a sus seguidores. Pronto, Tay comenzó a decir cosas como "Hitler tenía razón, odio a los judíos" y "odiando a las feministas".

Sin embargo, el mal comportamiento de Tay no debería sorprendernos. "Esto era de esperar", dice Roman Yampolskiy, jefe del laboratorio de ciberseguridad de la Universidad de Louisville, quien ha publicado un artículo sobre el tema de los caminos hacia la inteligencia artificial peligrosa. "El sistema está diseñado para aprender de sus usuarios, por lo que se convertirá en un reflejo de su comportamiento", dice. "Es necesario enseñarle explícitamente a un sistema lo que no es apropiado, al igual que lo hacemos con los niños".

Ya se ha observado este tipo de comportamiento antes, señala Yampolskiy, como en el caso de IBM Watson, que una vez exhibió su propio comportamiento inapropiado después de aprender del Urban Dictionary. "Cualquier sistema de inteligencia artificial que aprenda de malos ejemplos puede terminar siendo socialmente inapropiado", apunta Yampolskiy, "como un humano criado por lobos".

Las palabras clave más importantes en la realidad virtual

Louis Rosenberg, fundador de Unanimous AI, afirma que "como todos los chatbots, Tay no tiene idea de lo que está diciendo... no tiene idea si está diciendo algo ofensivo, sin sentido o profundo. Cuando Tay comenzó a entrenarse con patrones introducidos por trolls en línea, comenzó a usar esos patrones", dice Rosenberg. "Esto no es diferente a un loro en un bar turbio que recoge malas palabras y las repite sin saber lo que realmente significan".

Sarah Austin, CEO y fundadora de Broad Listening, una compañía que ha creado un "Motor de Inteligencia Artificial Emocional" (AEI), cree que Microsoft podría haberlo hecho mejor utilizando mejores herramientas. "Si Microsoft hubiera estado utilizando el AEI de Broad Listening, le habrían dado al bot una personalidad que no fuera racista ni adicta al sexo", dice Austin.

Lecciones aprendidas y próximo paso

Esta no es la primera vez que Microsoft crea una inteligencia artificial adolescente. Xiaoice, que surgió en 2014, fue un bot tipo asistente utilizado principalmente en las redes sociales chinas WeChat y Weibo.

Joanne Pransky, autodenominada "psicóloga de robots", bromea con Newsmatic diciendo que "¡pobre Tay necesita un psiquiatra robótico! O al menos Microsoft lo necesita". Ella cree que el fracaso de Tay es inevitable y ayudará a obtener conocimientos que puedan mejorar el sistema de inteligencia artificial.

Después de retirar a Tay, Microsoft anunció que iba a realizar "ajustes". Según Microsoft, Tay es "tanto un experimento social y cultural como técnico". En lugar de asumir la culpa por el desmoronamiento de Tay, Microsoft culpó a los usuarios: "nos dimos cuenta de un esfuerzo coordinado por parte de algunos usuarios para abusar de las habilidades de comentario de Tay para conseguir respuestas inapropiadas".

Yampolskiy dice que el problema encontrado con Tay "seguirá ocurriendo". "¡Microsoft lo intentará de nuevo! ¡La diversión acaba de comenzar!" concluye.

Cómo mejorar el rendimiento gráfico de tu Mac con una GPU externa

En Newsmatic nos especializamos en tecnología de vanguardia, contamos con los artículos mas novedosos sobre Conjunto de instrumentos, allí encontraras muchos artículos similares a El desafortunado desliz de la IA Tay de Microsoft , tenemos lo ultimo en tecnología 2023.

Artículos Relacionados

Subir

Utilizamos cookies para mejorar su experiencia de navegación, mostrarle anuncios o contenidos personalizados y analizar nuestro tráfico. Al hacer clic en “Aceptar todo” usted da su consentimiento a nuestro uso de las cookies.