La brecha de poder y daño de la IA

El nuevo Informe de Salud de Internet 2022 de Mozilla revela que el desafío principal para la salud de Internet es la disparidad de poder entre quienes se benefician de la IA y quienes son perjudicados por ella.

Una vez más, este nuevo informe pone bajo el foco de atención a la IA y cómo las empresas y los gobiernos utilizan esta tecnología. El informe de Mozilla examinó la naturaleza del mundo impulsado por la IA, citando ejemplos reales de diferentes países.

Newsmatic habló con Solana Larsen, editora del informe de Salud de Internet de Mozilla, para arrojar luz sobre el concepto de "IA Responsable desde el principio", la IA de "caja negra", el futuro de las regulaciones y cómo algunos proyectos de IA lideran con el ejemplo.

VER: Política de Ética de Inteligencia Artificial (Newsmatic Premium)

Larsen explica que los sistemas de IA deben ser construidos considerando desde el principio la ética y la responsabilidad, no añadiendo estos aspectos después, una vez que comienzan a aparecer los daños.

"Por lógico que parezca, esto no ocurre lo suficiente", dijo Larsen.

Razones para implementar IA en el borde: protección de datos

Según las conclusiones de Mozilla, la centralización de la influencia y el control sobre la IA no beneficia a la mayoría de las personas. Dado el alcance que está tomando la tecnología de IA y su adopción en todo el mundo, este problema se ha convertido en una preocupación prioritaria.

El informe de Market Watch sobre la interrupción de la IA revela la magnitud de la IA. El año 2022 comenzó con más de $50 mil millones en nuevas oportunidades para las empresas de IA, y se espera que el sector llegue a los $300 mil millones para 2025.

La adopción de la IA en todos los niveles es ahora inevitable. Treinta y dos países ya han adoptado estrategias de IA, se han anunciado más de 200 proyectos con más de $70 mil millones en financiamiento público en Europa, Asia y Australia, y las startups están recaudando miles de millones en miles de acuerdos en todo el mundo.

Es más importante aún destacar que las aplicaciones de IA han pasado de ser basadas en reglas a estar basadas en datos, y los datos que utilizan estos modelos son datos personales. Mozilla reconoce el potencial de la IA, pero advierte que ya está causando daño a diario en todo el mundo.

"Necesitamos constructores de IA que provengan de diferentes ámbitos y que comprendan la compleja interacción entre los datos, la IA y cómo puede afectar a diferentes comunidades", dijo Larsen a Newsmatic. También llamó a la regulación para garantizar que los sistemas de IA se construyan para ayudar en lugar de hacer daño.

Índice de Contenido
  1. IA de caja negra: desmitificando la inteligencia artificial
  2. Regular la IA: De las palabras a la acción
  3. IA que lidera con el ejemplo

IA de caja negra: desmitificando la inteligencia artificial

La IA parece estar pasando desapercibida por mucho del daño que causa gracias a su reputación de ser demasiado técnica y avanzada para que las personas la entiendan. En la industria de la IA, cuando una IA utiliza un modelo de aprendizaje automático que los humanos no pueden comprender, se conoce como una IA de caja negra y se critica por su falta de transparencia.

Aruba revoluciona con nuevas capacidades de AIOps

Larsen sostiene que para desmitificar la IA, los usuarios deben tener acceso a la transparencia sobre lo que hace el código, qué datos recopila, qué decisiones toma y quién se beneficia de ello.

"Realmente debemos rechazar la idea de que la IA es demasiado avanzada para que las personas tengan una opinión sobre ella a menos que sean científicos de datos", dijo Larsen. "Si estás sufriendo daños debido a un sistema, sabes algo al respecto que tal vez incluso su propio diseñador no sabe".

Empresas como Amazon, Apple, Google, Microsoft, Meta y Alibaba encabezan las listas de aquellos que obtienen más beneficios gracias a productos, servicios y soluciones impulsados por la IA. Pero otros sectores y aplicaciones, como el militar, la vigilancia, la propaganda computacional (utilizada en 81 países en 2020) y la desinformación, así como el sesgo y la discriminación en sectores como la salud, las finanzas y el derecho, también están generando preocupación debido al daño que causan.

Regular la IA: De las palabras a la acción

Se sabe que las grandes empresas de tecnología a menudo se resisten a las regulaciones. La IA impulsada por el ejército y el gobierno también opera en un entorno no regulado, muchas veces en conflicto con los derechos humanos y los activistas de la privacidad.

Mozilla cree que las regulaciones pueden ser barandas de protección para la innovación y ayudar a facilitar la confianza y nivelar el campo de juego.

"Es bueno para los negocios y para los consumidores", dice Larsen.

Qué es la Ley de Responsabilidad Algorítmica

Mozilla apoya regulaciones como la DSA (Ley de Servicios Digitales) en Europa y sigue muy de cerca el AI Act de la Unión Europea. La compañía también apoya proyectos de ley en Estados Unidos que harían que los sistemas de IA sean más transparentes.

La privacidad de los datos y los derechos del consumidor también forman parte del panorama legal que podría allanar el camino hacia una IA más responsable. Pero las regulaciones son solo una parte de la ecuación. Sin hacer cumplir las regulaciones, estas no son más que palabras en el papel.

"Necesitamos una masa crítica de personas que exijan cambios y responsabilidad, y necesitamos constructores de IA que antepongan a las personas antes que a las ganancias", dijo Larsen. "En este momento, gran parte de la investigación y el desarrollo de IA está financiado por las grandes empresas de tecnología, y también necesitamos alternativas aquí".

VER: Hoja de trucos del metaverso: todo lo que necesitas saber (PDF gratuito) (Newsmatic)

El informe de Mozilla relaciona proyectos de IA que causan daño con varias empresas, países y comunidades. La organización cita proyectos de IA que afectan a los trabajadores del sector gig y sus condiciones laborales. Esto incluye al ejército invisible de trabajadores mal remunerados que entrenan tecnología de IA en sitios como Amazon Mechanical Turk, con un salario promedio tan bajo como $2.83 por hora.

"En la vida real, una y otra vez, los daños de la IA afectan de manera desproporcionada a personas que no se benefician de los sistemas globales de poder", dijo Larsen.

El valor de la inteligencia artificial estrechamente enfocada en aplicaciones específicas

La organización también está tomando medidas activas.

Un ejemplo de sus acciones es la extensión del navegador RegretsReporter de Mozilla. Convierte a los usuarios habituales de YouTube en vigilantes de YouTube, en una forma colectiva de comprender cómo funciona la IA de recomendación de la plataforma.

Trabajando con decenas de miles de usuarios, la investigación de Mozilla reveló que el algoritmo de YouTube recomienda videos que violan las políticas de la propia plataforma. La investigación tuvo buenos resultados. YouTube ahora es más transparente sobre cómo funciona su IA de recomendación. Pero Mozilla no tiene planeado detenerse allí. Hoy en día, continúan investigando en diferentes países.

Larsen explica que Mozilla cree que es de vital importancia arrojar luz y documentar la IA cuando opera en condiciones turbias. Además, la organización busca el diálogo entre las empresas tecnológicas con el objetivo de comprender los problemas y encontrar soluciones. También se acercan a los reguladores para discutir las normas que se deben aplicar.

IA que lidera con el ejemplo

Aunque el Informe de Salud de Internet 2022 de Mozilla pinta una imagen bastante sombría de la IA, magnificando los problemas que el mundo siempre ha tenido, la compañía también destaca proyectos de IA construidos y diseñados para causar un impacto positivo.

Por ejemplo, el trabajo de la Cooperativa de Conductores en la Ciudad de Nueva York, una aplicación utilizada (y propiedad) por más de 5,000 conductores de servicios de transporte, ayuda a los trabajadores del sector gig a obtener un verdadero control en la industria de los servicios de transporte.

El mercado de software de automatización robótica de procesos (RPA) crecerá un 19

Otro ejemplo es el de una empresa de propiedad de personas negras en Maryland llamada Melalogic, que está recopilando en masa imágenes de piel oscura para una mejor detección del cáncer y otros problemas de la piel, en respuesta a un sesgo racial grave en el aprendizaje automático para la dermatología.

"Hay muchos ejemplos en todo el mundo de sistemas de IA que se construyen y utilizan de manera confiable y transparente", dijo Larsen.

En Newsmatic nos especializamos en tecnología de vanguardia, contamos con los artículos mas novedosos sobre Inteligencia artificial, allí encontraras muchos artículos similares a La brecha de poder y daño de la IA , tenemos lo ultimo en tecnología 2023.

Artículos Relacionados

Subir

Utilizamos cookies para mejorar su experiencia de navegación, mostrarle anuncios o contenidos personalizados y analizar nuestro tráfico. Al hacer clic en “Aceptar todo” usted da su consentimiento a nuestro uso de las cookies.