Los 10 errores más destacados de la inteligencia artificial en 2017

Índice de Contenido
  1. 1. Google Translate muestra sesgo de género en traducciones turco-inglés
  2. 2. Los chatbots de Facebook crean su propio lenguaje y deben ser cerrados
  3. 3. Vehículo autónomo sufre un accidente el primer día de servicio
  4. 4. Google Allo sugiere un emoji de hombre con turbante como respuesta a un emoji de arma
  5. 5. Face ID del iPhone puede ser engañado por una máscara
  6. 6. La IA falla en sus predicciones para el Kentucky Derby
  7. 7. Alexa organiza una fiesta por su cuenta en Alemania
  8. 8. Interrupción del servicio de Google Home con una tasa de fallas cercana al 100%
  9. 9. Los Google Home Minis espían a sus propietarios
  10. 10. Facebook permitió anuncios dirigidos a "odiadores de judíos"

1. Google Translate muestra sesgo de género en traducciones turco-inglés

El pronombre "o" en turco se utiliza para referirse a una tercera persona en singular de manera neutral en cuanto al género, algo que no tiene una traducción directa al inglés. En noviembre, Quartz descubrió que Google Translate no sabía cómo manejar esta situación y utilizaba algoritmos con sesgo de género para adivinar si el pronombre correspondiente en inglés era "él", "ella" o "ello".

El resultado: se convertía el pronombre neutro en "él" cuando se utilizaba en la misma oración que "doctor" o "trabajador duro", y en "ella" cuando se utilizaba con palabras como "perezoso" y "enfermera".

2. Los chatbots de Facebook crean su propio lenguaje y deben ser cerrados

Investigadores de Facebook descubrieron que Alice y Bob, dos de sus chatbots impulsados por IA, habían desarrollado su propio lenguaje secreto y estaban manteniendo conversaciones entre ellos. Aunque la transcripción de la conversación parecía inofensiva, la gigante de las redes sociales afirmó que era una forma de lenguaje simplificado. Alice y Bob fueron cerrados después de que se descubrieran sus conversaciones.

3. Vehículo autónomo sufre un accidente el primer día de servicio

Menos de dos horas después del lanzamiento de los shuttles de conducción autónoma en noviembre en Las Vegas, un camión de carga retrocedió y chocó contra uno de los vehículos. La culpa no fue del shuttle, ya que sus sensores detuvieron el vehículo al notar que el camión estaba retrocediendo, y la policía citó al conductor del camión por realizar una maniobra ilegal.

Aunque un comunicado de la ciudad afirmaba que el accidente se habría evitado si el camión hubiera tenido sensores similares, es posible que el choque menor también se hubiera prevenido si el shuttle hubiera reaccionado de manera diferente.

4. Google Allo sugiere un emoji de hombre con turbante como respuesta a un emoji de arma

Para consumidores y profesionales de negocios por igual, las funciones de respuesta inteligente de Google pueden resultar útiles para emitir respuestas rápidas y sencillas. Pero en una situación descubierta por CNN Money, las respuestas sugeridas mostraron signos de sesgo.

Google lidera la inversión en inteligencia artificial con casi $3.9 mil millones de dólares

En Google Allo, una de las tres respuestas sugeridas a un emoji de arma era un emoji de hombre con turbante. Después de que CNN informara del incidente a Google, la empresa se disculpó y cambió el algoritmo de Allo.

5. Face ID del iPhone puede ser engañado por una máscara

Una semana después del lanzamiento del iPhone X, los hackers lograron burlar el sistema de reconocimiento facial Face ID del teléfono. Utilizando una máscara con base impresa en 3D, la empresa de seguridad vietnamita Bkav convenció al iPhone X de que era un ser humano y desbloqueó el teléfono. Se estima que la máscara costó alrededor de $150 para ser creada.

6. La IA falla en sus predicciones para el Kentucky Derby

Después de acertar los cuatro ganadores en orden en 2016, la IA no logró adivinar el caballo ganador del Kentucky Derby 2017 en mayo. A pesar de superar a los apostadores humanos, la IA solo adivinó dos de los cuatro primeros lugares, y además los colocó en el orden incorrecto. Aunque las carreras de caballos son impredecibles, algunos tenían grandes esperanzas de ver una repetición de los aciertos de la IA.

7. Alexa organiza una fiesta por su cuenta en Alemania

La policía alemana irrumpió en un apartamento una noche de noviembre después de que los vecinos reportaran música alta en la madrugada. ¿La causa? No fue una fiesta, sino que un Echo de Amazon comenzó a reproducir música aleatoriamente cuando el residente no estaba en casa.

Para empeorar las cosas, la policía cambió la cerradura luego de apagar a Alexa, dejando al residente fuera de su apartamento y con una factura de cerrajero bastante cara.

8. Interrupción del servicio de Google Home con una tasa de fallas cercana al 100%

Casi todos los dispositivos Google Home sufrieron una interrupción en junio, con varios usuarios informando de mensajes de error cada vez que intentaban interactuar con su asistente virtual. Las quejas comenzaron el 31 de mayo y parecían acumularse durante la semana siguiente mientras Google buscaba una solución.

Raspberry Pi Zero W: el ordenador más pequeño y barato con Wi-Fi y Bluetooth

9. Los Google Home Minis espían a sus propietarios

En octubre, investigadores de seguridad descubrieron que algunos Google Home Minis se encendían y grababan miles de minutos de audio de sus propietarios, para luego enviar las grabaciones a Google. Después de darse cuenta de que su asistente digital se estaba encendiendo y tratando de escuchar la televisión, un usuario verificó el registro My Activity de Google, donde descubrió que el dispositivo lo había estado grabando.

Google anunció rápidamente un parche para solucionar este problema.

10. Facebook permitió anuncios dirigidos a "odiadores de judíos"

Utilizando la plataforma de autoservicio orientada por IA de Facebook para comprar anuncios, las empresas y marcas pueden dirigir su mensaje a diferentes grupos demográficos. En septiembre, ProPublica informó que algunos de estos grupos incluían personas con opiniones racistas o antisemitas.

La organización de noticias descubrió que los anuncios podían dirigirse específicamente a personas interesadas en temas como "Cómo quemar judíos" o "Historia de por qué los judíos arruinan el mundo". Facebook afirmó que esas categorías fueron creadas por un algoritmo, no por un humano, y las eliminó como opción.

5 empresas que están utilizando blockchain para mejorar su cadena de suministro

En Newsmatic nos especializamos en tecnología de vanguardia, contamos con los artículos mas novedosos sobre Conjunto de instrumentos, allí encontraras muchos artículos similares a Los 10 errores más destacados de la inteligencia artificial en 2017 , tenemos lo ultimo en tecnología 2023.

Artículos Relacionados

Subir

Utilizamos cookies para mejorar su experiencia de navegación, mostrarle anuncios o contenidos personalizados y analizar nuestro tráfico. Al hacer clic en “Aceptar todo” usted da su consentimiento a nuestro uso de las cookies.