Cómo mejorar la transparencia y rendición de cuentas en las redes sociales

No hay una solución única para hacer que todos los algoritmos de redes sociales sean más fáciles de analizar y entender, pero desmontar las cajas negras que rodean este software es un buen punto de partida. Hacer algunos agujeros en esos contenedores y compartir el contenido con analistas independientes podría mejorar la rendición de cuentas también. Investigadores, expertos tecnológicos y especialistas legales discutieron cómo iniciar este proceso durante la Cumbre de las Redes Sociales en el MIT el jueves.

La Iniciativa sobre la Economía Digital del MIT fue el anfitrión de conversaciones que abarcaron desde la guerra en Ucrania y la desinformación, hasta la transparencia en los algoritmos y la IA responsable.

La denunciante de Facebook, Frances Haugen, abrió el evento en línea gratuito con una discusión junto a Sinan Aral, director del MIT IDE, sobre la rendición de cuentas y la transparencia en las redes sociales durante la primera sesión. Haugen es ingeniera eléctrica y de computadoras y ex gerente de producto de Facebook. Compartió investigaciones internas de Facebook con la prensa, el Congreso y los reguladores a mediados de 2021. Haugen describe su ocupación actual como "integridad cívica" en LinkedIn y detalló varios cambios que los reguladores y líderes de la industria deben hacer en relación con la influencia de los algoritmos.

Índice de Contenido
  1. Deber de cuidado: expectativa de seguridad en las redes sociales
  2. Ampliar el acceso a los datos de las plataformas de redes sociales
  3. Seguimiento de contenido eliminado
  4. Formación en ciencias sociales para ingenieros
  5. Elige tu propio algoritmo

Deber de cuidado: expectativa de seguridad en las redes sociales

Haugen dejó Meta hace casi un año y ahora está desarrollando la idea del "deber de cuidado". Esto significa definir la idea de una expectativa razonable de seguridad en las plataformas de redes sociales. Esto incluye responder a la pregunta: ¿cómo se mantiene a las personas menores de 13 años fuera de estos sistemas?

"Porque nadie puede ver detrás del telón, no saben qué preguntas hacer", dijo Haugen. "Entonces, ¿cuál es un nivel aceptable y razonable de rigor para mantener a los niños fuera de estas plataformas y qué datos necesitaríamos que publiquen para entender si están cumpliendo con el deber de cuidado?"

Utilizó la actualización de contenido ampliamente visto de Facebook como ejemplo de una presentación engañosa de datos. El informe incluye contenido solo de Estados Unidos. Según Haugen, Meta ha invertido la mayor parte de su presupuesto de seguridad y moderación de contenido en este mercado. Ella sostiene que una lista de los 20 principales que refleje contenido de países donde el riesgo de genocidio es alto sería un reflejo más preciso del contenido popular en Facebook.

"Si viéramos esa lista de contenido, diríamos que esto es insoportable", dijo.

También enfatizó que Facebook es la única conexión a Internet para muchas personas en el mundo y no hay una alternativa al sitio de redes sociales que se ha relacionado con el genocidio. Una forma de reducir el impacto de la desinformación y el discurso de odio en Facebook es cambiar cómo se fijan los precios de los anuncios. Haugen dijo que los anuncios se fijan precios en función de la calidad, con la premisa de que los "anuncios de alta calidad" son más baratos que los de baja calidad.

"Facebook define la calidad como la capacidad de obtener una reacción, un me gusta, un comentario o un compartir", dijo. "Facebook sabe que el camino más corto hacia un clic es la ira, por lo que los anuncios enojados terminan siendo de cinco a diez veces más baratos que otros anuncios".

Haugen dijo que un compromiso justo sería tener tarifas de anuncios planas y "eliminar el subsidio para el extremismo del sistema".

Ampliar el acceso a los datos de las plataformas de redes sociales

Una de las recomendaciones de Haugen es establecer la obligación de publicar datos auditables sobre los algoritmos. Esto daría a los investigadores independientes la capacidad de analizar estos datos y comprender las redes de información, entre otras cosas.

Compartir estos datos también aumentaría la transparencia, que es clave para mejorar la rendición de cuentas de las plataformas de redes sociales, dijo Haugen.

En la sesión "Transparencia algorítmica", los investigadores explicaron la importancia de un acceso más amplio a estos datos. Dean Eckles, profesor en la Escuela de Administración Sloan del MIT y líder de investigación en IDE, moderó la conversación con Daphne Keller, directora de regulación de plataformas en la Universidad de Stanford, y Kartik Hosanagar, director de IA para negocios en Wharton.

Hosanagar analizó investigaciones de Twitter y Meta sobre la influencia de los algoritmos, pero también señaló las limitaciones de esos estudios.

"Todos estos estudios en las plataformas pasan por aprobaciones internas, por lo que no conocemos los que no son aprobados internamente para su publicación", dijo. "Hacer que los datos sean accesibles es importante".

La transparencia también es importante, pero el término debe entenderse en el contexto de un público específico, como desarrolladores de software, investigadores o usuarios finales. Hosanagar dijo que la transparencia algorítmica podría significar desde revelar el código fuente, compartir datos hasta explicar el resultado.

Los legisladores a menudo piensan en términos de una mayor transparencia para los usuarios finales, pero Hosanagar dijo que eso no parece aumentar la confianza entre esos usuarios.

Hosanagar dijo que las plataformas de redes sociales tienen demasiado control sobre la comprensión de estos algoritmos y que exponer esa información a investigadores externos es fundamental.

"En este momento, la transparencia es principalmente para los científicos de datos dentro de la organización para comprender mejor lo que están haciendo sus sistemas", dijo.

Seguimiento de contenido eliminado

Una forma de comprender qué contenido se promueve y se modera es analizar las solicitudes de eliminación de información de las diversas plataformas. Keller dijo que el mejor recurso para esto es el Proyecto Lumen de Harvard, una colección de solicitudes de eliminación de contenido en línea basadas en la Ley de Derechos de Autor del Milenio Digital de Estados Unidos, así como reclamos de eliminación de contenido regulado localmente y reclamos de eliminación de información privada y marcas comerciales o patentes. Daphne dijo que se ha realizado una gran cantidad de investigaciones a partir de estos datos que provienen de empresas como Google, Twitter, Wikipedia, WordPress y Reddit.

"Puedes ver quién solicitó y por qué, y también el contenido que se eliminó, así como detectar errores o patrones de sesgo", dijo.

Sin embargo, no existe una única fuente de datos para solicitudes de eliminación de YouTube o Facebook, lo que dificulta que los investigadores vean qué contenido se eliminó de esas plataformas.

"Las personas fuera de las plataformas pueden hacer cosas buenas si tienen este acceso, pero tenemos que sortear estas barreras significativas y estos valores en competencia", dijo.

Keller dijo que el Acta de Servicios Digitales aprobada por la Unión Europea en enero de 2021 mejorará la información pública sobre algoritmos y el acceso de los investigadores a los datos.

"Vamos a obtener una transparencia considerablemente mayor en Europa y eso afectará el acceso a la información en todo el mundo", dijo.

En una publicación sobre el acta, la Electronic Frontier Foundation dijo que los legisladores de la UE acertaron en varios elementos del acta, incluido el fortalecimiento del derecho de los usuarios al anonimato en línea y la comunicación privada, y el establecimiento de que los usuarios deberían tener derecho a usar y pagar por servicios de forma anónima siempre que sea razonable. Sin embargo, la EFF está preocupada de que los poderes de ejecución del acta sean demasiado amplios.

Keller cree que sería mejor que los reguladores establecieran reglas de transparencia.

"Los reguladores son lentos, pero los legisladores son aún más lentos", dijo. "Van a establecer modelos de transparencia que piden lo incorrecto".

Hosanagar dijo que los reguladores siempre estarán muy por detrás de la industria tecnológica porque las plataformas de redes sociales cambian tan rápidamente.

"Las regulaciones por sí solas no van a resolver esto; es posible que necesitemos una mayor participación por parte de las empresas, no solo con apego a la letra de la ley", dijo. "Esto va a ser difícil en los próximos años y décadas".

Además, las regulaciones que funcionan para Facebook e Instagram no abordarían las preocupaciones con TikTok y ShareChat, una popular aplicación de redes sociales en India, como señaló Eckles. Los sistemas construidos sobre una arquitectura descentralizada también representarían un desafío.

"¿Qué sucede si el próximo canal de redes sociales está en blockchain?", dijo Hosanagar. "Eso cambia toda la discusión y la lleva a otra dimensión que hace que toda la conversación actual sea irrelevante".

Formación en ciencias sociales para ingenieros

El panel también debatió sobre la formación de usuarios tanto para consumidores como para ingenieros como una forma de mejorar la transparencia. Una manera de hacer que más personas se pregunten "¿deberíamos construirlo?" es agregar uno o dos cursos de ciencias sociales a los títulos de ingeniería. Esto podría ayudar a los arquitectos de algoritmos a pensar en los sistemas tecnológicos de manera diferente y comprender los impactos sociales.

"Los ingenieros piensan en términos de la precisión de los algoritmos de recomendación de noticias o en qué proporción de las 10 historias recomendadas son relevantes", dijo Hosanagar. "Ninguno de estos aspectos tiene en cuenta preguntas como si esto fragmenta la sociedad o cómo afecta a la privacidad personal".

Keller señaló que muchos ingenieros describen su trabajo de manera públicamente disponible, pero los científicos sociales y los abogados no siempre utilizan esas fuentes de información.

Hosanagar sugirió que las empresas tecnológicas adopten un enfoque de código abierto para la transparencia algorítmica, de la misma manera que las organizaciones comparten consejos sobre cómo administrar un centro de datos o una implementación en la nube.

"Empresas como Facebook y Twitter han estado lidiando con estos problemas durante un tiempo y han logrado mucho progreso del que las personas pueden aprender", dijo.

Keller utilizó el ejemplo de las directrices de evaluación de calidad de búsqueda de Google como una discusión "de ingeniero a ingeniero" que otros profesionales podrían encontrar educativa.

"Yo vivo en el mundo de los científicos sociales y los abogados y no siempre leen ese tipo de cosas", dijo. "Hay un nivel de transparencia existente que no se está aprovechando".

Elige tu propio algoritmo

La idea de Keller para mejorar la transparencia es permitir a los usuarios seleccionar su propio moderador de contenido a través de una plataforma intermedia o "APIs mágicas". Los editores, proveedores de contenido o grupos de defensa podrían crear un filtro o algoritmo que los usuarios finales podrían elegir para gestionar el contenido.

"Si queremos que haya menos control sobre el discurso por parte de las plataformas gigantes de hoy, una respuesta es introducir competencia en la capa de moderación de contenido y algoritmos de clasificación", dijo.

Los usuarios podrían seleccionar las reglas de moderación de un determinado grupo y luego ajustar la configuración según sus propias preferencias.

"De esta manera, no habría un solo algoritmo tan importante", dijo.

En este escenario, las plataformas de redes sociales seguirían albergando el contenido y gestionando la infracción de derechos de autor y las solicitudes de eliminación de contenido.

Este enfoque podría solucionar algunos problemas legales y fomentar la autonomía del usuario, según Keller, pero también plantea un nuevo conjunto de problemas de privacidad.

"También existe la seria pregunta de cómo fluye el ingreso hacia estos proveedores", dijo. "Debemos abordar los aspectos logísticos, pero son logísticos y no un problema fundamental de la Primera Enmienda al que nos enfrentamos con muchas otras propuestas".

Keller sugirió que los usuarios desean que los guardianes del contenido mantengan alejados a los abusadores y racistas y reduzcan los niveles de spam.

"Una vez que tienes una entidad centralizada encargada del control para satisfacer las demandas de los usuarios, esa entidad puede regularse para satisfacer las demandas del gobierno", dijo.

En Newsmatic nos especializamos en tecnología de vanguardia, contamos con los artículos mas novedosos sobre Conjunto de instrumentos, allí encontraras muchos artículos similares a Cómo mejorar la transparencia y rendición de cuentas en las redes sociales , tenemos lo ultimo en tecnología 2023.

Artículos Relacionados

Subir

Utilizamos cookies para mejorar su experiencia de navegación, mostrarle anuncios o contenidos personalizados y analizar nuestro tráfico. Al hacer clic en “Aceptar todo” usted da su consentimiento a nuestro uso de las cookies.