C2PA: La certificación de contenido de IA generativa para combatir la desinformación

Con la proliferación de la IA generativa en el espacio del software empresarial, aún se están creando estándares tanto a nivel gubernamental como organizacional para su uso. Uno de estos estándares es una certificación de contenido generativo IA conocida como C2PA.

Índice de Contenido
  1. ¿Qué es C2PA?
  2. ¿Cómo se puede marcar el contenido generado por IA?
  3. La importancia del marcado de agua para prevenir usos maliciosos de la IA
    1. La atribución de contenido también ayuda a los artistas a mantener la propiedad de su trabajo

¿Qué es C2PA?

C2PA: La certificación de contenido de IA generativa para combatir la desinformación - Inteligencia artificial | Imagen 1 Newsmatic

La especificación de C2PA es un protocolo de Internet de código abierto que describe cómo agregar declaraciones de proveniencia, también conocidas como afirmaciones, a un contenido. Estas afirmaciones de proveniencia pueden aparecer como botones en los que los espectadores pueden hacer clic para ver si la pieza de contenido fue creada parcial o totalmente con IA.

En pocas palabras, los datos de proveniencia están criptográficamente ligados a la pieza de contenido, lo que significa que cualquier alteración en uno de ellos alertaría a un algoritmo de que el contenido ya no se puede autenticar. Puede obtener más información sobre cómo funciona esta criptografía leyendo las especificaciones técnicas de C2PA.

Este protocolo fue creado por la Coalición de Proveniencia y Autenticidad del Contenido, también conocida como C2PA. Adobe, Arm, Intel, Microsoft y Truepic son algunas de las empresas que respaldan C2PA, que es un proyecto conjunto que reúne a la Iniciativa de Autenticidad del Contenido y el Proyecto Origin.

La Iniciativa de Autenticidad del Contenido es una organización fundada por Adobe para fomentar la provisión de información de proveniencia y contexto para los medios digitales. Por otro lado, el Proyecto Origin, creado por Microsoft y la BBC, es un enfoque estandarizado para la tecnología de proveniencia digital con el fin de garantizar que la información, especialmente los medios de noticias, tenga una fuente comprobable y no haya sido manipulada.

Juntos, los grupos que conforman C2PA tienen como objetivo detener la desinformación, específicamente el contenido generado por IA que podría confundirse con fotografías y videos auténticos.

La revolución de la nube y la IA periférica en la ciencia de datos actual

¿Cómo se puede marcar el contenido generado por IA?

En julio de 2023, el gobierno de Estados Unidos y las principales empresas de IA lanzaron un acuerdo voluntario para divulgar cuando el contenido es creado por IA generativa. El estándar C2PA es una de las posibles formas de cumplir con este requisito. El marcado de agua y la detección de IA son otros dos métodos distintivos que pueden señalar imágenes generadas por computadora. En enero de 2023, OpenAI presentó su propio clasificador de IA con este propósito, pero luego lo cerró en julio "... debido a su baja tasa de precisión".

Mientras tanto, Google está intentando proporcionar servicios de marcado de agua junto con su propia IA. Según el gigante tecnológico en mayo de 2023, el PaLM 2 LLM alojado en Google Cloud podrá etiquetar imágenes generadas por máquinas.

Actualmente hay varios productos de detección de IA generativa en el mercado. Muchos de ellos, como el GPT Detector de Writefull, son creados por organizaciones que también ofrecen herramientas de escritura generativa por IA. Estos productos funcionan de manera similar a las IA mismas. GPTZero, que se promociona como un detector de contenido de IA para la educación, se describe como un "clasificador" que utiliza el mismo reconocimiento de patrones que los modelos de transformadores previamente entrenados por IA.

La importancia del marcado de agua para prevenir usos maliciosos de la IA

Los líderes empresariales deben alentar a sus empleados a estar atentos al contenido generado por IA, que puede o no estar etiquetado como tal, para fomentar la atribución adecuada y la obtención de información confiable. También es importante que el contenido generado por IA creado dentro de la organización sea etiquetado como tal.

La Dra. Alessandra Sala, directora senior de inteligencia artificial y ciencia de datos en Shutterstock, afirmó en un comunicado de prensa: "Unirse a la CAI y adoptar el estándar subyacente de C2PA es un paso natural en nuestro esfuerzo continuo por proteger a nuestra comunidad de artistas y usuarios, apoyando el desarrollo de sistemas e infraestructura que creen una mayor transparencia y ayuden a nuestros usuarios a identificar más fácilmente lo que es una creación de un artista versus arte generado o modificado por IA".

Y todo se reduce a asegurarse de que las personas no utilicen esta tecnología para difundir información errónea.

Quieres entender el Machine Learning ¡Aquí tienes una forma amigable para principiantes de empezar!

"A medida que esta tecnología se implementa ampliamente, las personas esperarán que la información de las Credenciales de Contenido se adjunte a la mayoría de los contenidos que ven en línea", dijo Andy Parsons, director senior de la Iniciativa de Autenticidad del Contenido en Adobe. "De esa manera, si una imagen no tiene información de Credenciales de Contenido adjunta, es posible que se le apliquen escrutinios adicionales para decidir si se puede confiar en ella y compartirla".

La atribución de contenido también ayuda a los artistas a mantener la propiedad de su trabajo

Para las empresas, detectar el contenido generado por IA y marcar su propio contenido cuando corresponda puede aumentar la confianza y evitar la atribución incorrecta. Después de todo, el plagio funciona en ambas direcciones. Es necesario detectar a los artistas y escritores que utilizan la IA generativa para plagiar. Al mismo tiempo, los artistas y escritores que producen obras originales deben asegurarse de que su trabajo no aparezca en proyectos generados por IA de otra persona.

Para los equipos de diseño gráfico y los artistas independientes, Adobe está trabajando en una etiqueta "No Entrenar" en sus paneles de proveniencia de contenido en Photoshop y Adobe Firefly para garantizar que el arte original no se use para entrenar IA.

En Newsmatic nos especializamos en tecnología de vanguardia, contamos con los artículos mas novedosos sobre Inteligencia artificial, allí encontraras muchos artículos similares a C2PA: La certificación de contenido de IA generativa para combatir la desinformación , tenemos lo ultimo en tecnología 2023.

Artículos Relacionados

Subir

Utilizamos cookies para mejorar su experiencia de navegación, mostrarle anuncios o contenidos personalizados y analizar nuestro tráfico. Al hacer clic en “Aceptar todo” usted da su consentimiento a nuestro uso de las cookies.