Meta pide un esfuerzo de la industria para etiquetar el contenido generado por IA

El mes pasado, en el Foro Económico Mundial en Davos, Suiza, Nick Clegg, presidente de asuntos globales de Meta, calificó el incipiente esfuerzo para detectar contenido generado artificialmente como «la tarea más urgente» que enfrenta la industria tecnológica en la actualidad.

Clegg propuso una solución el martes. Meta dijo que promovería estándares tecnológicos que las empresas de toda la industria podrían utilizar para reconocer marcadores en material fotográfico, de vídeo y de audio que indicarían que el contenido se generó mediante inteligencia artificial.

Los estándares podrían permitir a las empresas de redes sociales identificar rápidamente el contenido generado por IA que se ha publicado en sus plataformas y permitirles agregar una etiqueta a ese material. Si se adoptan ampliamente, los estándares podrían ayudar a identificar contenido generado por IA de empresas como Google, OpenAI y Microsoft, Adobe, Midjourney y otras que ofrecen herramientas que permiten a las personas crear publicaciones artificiales de forma rápida y sencilla.

“Si bien esta no es una respuesta perfecta, no queríamos que la perfección fuera enemiga de lo bueno”, dijo Clegg en una entrevista.

Añadió que espera que este esfuerzo pueda ser un grito de guerra para que las empresas de toda la industria adopten estándares para detectar e informar que el contenido es artificial para que sea más fácil para todos reconocerlo.

A medida que Estados Unidos entra en un año de elecciones presidenciales, los observadores de la industria creen que las herramientas de inteligencia artificial se utilizarán ampliamente para publicar contenido falso con el fin de desinformar a los votantes. Durante el año pasado, la gente utilizó inteligencia artificial para crear y difundir videos falsos del presidente Biden haciendo declaraciones falsas o incendiarias. La oficina del fiscal general de New Hampshire también está investigando una serie de llamadas automáticas que parecían utilizar la voz generada por IA de Biden instando a la gente a no votar en una primaria reciente.

Los senadores Brian Schatz, demócrata de Hawái, y John Kennedy, republicano de Luisiana, propusieron una legislación en octubre pasado que requeriría que las empresas revelen y etiqueten contenido generado artificialmente y trabajen juntas para crear o utilizar estándares similares a los propugnados por Half.

Meta, propietaria de Facebook, Instagram, WhatsApp y Messenger, se encuentra en una posición única porque está desarrollando tecnología para estimular la adopción generalizada de herramientas de inteligencia artificial por parte de los consumidores, a pesar de ser la red social más grande del mundo capaz de distribuir contenido generado por inteligencia artificial. Clegg dijo que la posición de Meta le dio una visión particular de los aspectos generativos y distributivos del problema.

Meta se centra en un conjunto de especificaciones tecnológicas llamadas estándares IPTC y C2PA. Esta es información que especifica si un medio digital es auténtico en los metadatos del contenido. Los metadatos son la información subyacente incorporada en el contenido digital que proporciona una descripción técnica de ese contenido. Ambos estándares ya son ampliamente utilizados por organizaciones de noticias y fotógrafos para describir fotografías o vídeos.

Adobe, que fabrica el software de edición Photoshop, y varias otras empresas de tecnología y medios pasaron años presionando a sus pares para que adoptaran el estándar C2PA y formaron la Iniciativa de Autenticidad de Contenido. La iniciativa es una asociación entre decenas de empresas, incluido The New York Times, para combatir la desinformación y “añadir una capa de procedencia a prueba de manipulaciones a todo tipo de contenido digital, desde fotografías, vídeos y documentos”, según la organización.

Las empresas que ofrecen herramientas de generación de IA podrían agregar los estándares a los metadatos de videos, fotos o archivos de audio que ayudaron a crear. Esto indicaría a redes sociales como Facebook, X (anteriormente Twitter) y YouTube que dicho contenido era artificial cuando se subía a sus plataformas. Estas empresas, a su vez, podrían agregar etiquetas señalando que estas publicaciones fueron generadas por inteligencia artificial para informar a los usuarios que las vieron en las redes sociales.

Meta y otros también exigen que los usuarios que publican contenido de IA indiquen si lo han hecho al subirlo a las aplicaciones de las empresas. De no hacerlo se incurrirá en multas, aunque las empresas no han detallado cuáles podrían ser esas multas.

Clegg también dijo que si la compañía determina que una publicación creada o alterada digitalmente «crea un riesgo particularmente alto de engañar materialmente al público en un asunto importante», Meta podría agregar una etiqueta más destacada a la publicación para brindarle al público más información. . información y contexto sobre su procedencia.

La tecnología de inteligencia artificial avanza rápidamente, lo que ha empujado a los investigadores a tratar de mantenerse al día con el desarrollo de herramientas sobre cómo detectar contenido falso en línea. Si bien empresas como Meta, TikTok y OpenAI han desarrollado formas de detectar dicho contenido, los expertos en tecnología han encontrado rápidamente formas de eludir dichas herramientas. El vídeo y el audio generados artificialmente resultaron incluso más difíciles de detectar que las fotografías con IA.

(The New York Times Company está demandando a OpenAI y Microsoft por infracción de derechos de autor por el uso de artículos del Times para entrenar sistemas de inteligencia artificial).

«Los malos actores siempre intentarán eludir los estándares que creamos», dijo Clegg. Describió la tecnología como una “espada y un escudo” para la industria.

Parte de esta dificultad surge de la naturaleza fragmentada de cómo las empresas de tecnología abordan este problema. El otoño pasado, TikTok anunció una nueva política que requeriría que sus usuarios agregaran etiquetas a los videos o fotos subidos y creados con inteligencia artificial. YouTube anunció una iniciativa similar en noviembre.

La nueva propuesta de Meta intentaría unir algunos de estos esfuerzos. Otros esfuerzos de la industria, como la Asociación sobre IA, han reunido a docenas de empresas para discutir soluciones similares.

Clegg dijo que espera que más empresas acepten adherirse al estándar, especialmente antes de las elecciones presidenciales.

«Creemos especialmente que durante este año electoral, no estaría justificado esperar a que todas las piezas del rompecabezas encajen antes de tomar medidas», dijo.