Inteligencia artificial: ¿heroína o villana en la lucha contra la desinformación?

Hacia fine del año pasado, mientras el mundo no tenía noción ni siquiera que vería a Lionel Messi utilizando un bisht y levantando el trofeo del Mundial de Fútbol, ​​​​​​la compañía norteamericana OpenAi lanzó ChatGPT, un avanzado modelo de inteligencia artificial que tiene entre sus funciones la generación de mensajes de texto y la solución de problemas complejos con un lenguaje natural.

Su lanzamiento produjo mucha fascinación y suscriptores a lo largo y ancho del mundo pero también surgieron muchas alertas, tanto en el mundo de la comunicación como en el plano educativo. Incluso, muchos consideran esta herramienta un canal virtuoso para la desinformación.

Luego de su irrupción, el mundo de la inteligencia artificial comenzó a tener mayor interés, incluso entre los expertos en comunicación digital. Durante los últimos dos meses se han escrito varios ensayos y artículos al respecto que plantan más dudas que certezas respecto de esta nueva tecnología y su impacto en el mundo occidental.

Desde quienes la defienden como la última frontera contra la desinformación a quienes la describen como una poderosa aliada para acrecentarla, los analistas no lograrán dilucidar si la inteligencia artificial será heroína o villana. Sin dudas, no pasará desapercibido.

Inteligencia artificial: la villana

Existen nuevos formatos y plataformas en inteligencia artificial que nos permiten crear avatares de personas reales diciendo cosas que nosotros queremos.

Incluso más, ya hay aplicaciones que nos habilitan para ubicar a una persona o nosotros mismos en grandes hechos de la historia, como un Lionel Messi levantando la Copa del Mundo en México 86, siguiendo con la alusión mundialista. Por suerte, no necesitamos de la tecnología para ver al mejor futbolista de todos los tiempos alzar el preciado trofeo.

Estas herramientas nos permiten generar una mentira y hacer que una imagen falsa se difunda como verídica con una verosimilitud y calidad visual que difícilmente pueda ser distinguida. En este aspecto, cada vez resultará más complejo distinguir la verdad de la ficción.

En el conflicto entre Rusia y Ucrania también hemos visto el uso de la inteligencia artificial creando rostros «humanos» de personas que n’existen para darle mayor credibilidad a usuarios falsos con el fin de fundir un discurso anti Ucrania. Estos son tan solo algunos ejemplos recientes del uso de la IA en sintonía con los intereses de la desinformación.

Inteligencia artificial: la heroína

No obstante, también existe todo un horizonte donde las mismas herramientas que son utilizadas para la difusión de mentiras e incluso para alterar contiendas electorales (a tomar nota Argentina), tienen una utilización positiva en contra de la información errónea.
Sus diversos ejemplos de herramientas como el proyecto de verificación asistida por inteligencia artificial de la Unión Europea, vera.ai, que es la continuación de proyectos anteriores como el proyecto de videoverificación, InVID o la plataforma de verificación colaborativa, WeVerify.

Esta moderna iniciativa es un proyecto de investigación y esclarecimiento que se centra en el análisis de la desinformación y las herramientas y servicios de verificación compatibles con la IA.

En la misma línea, también se sabe que existe una plataforma creada por investigadores brasileños que combaten la desinformación gracias a una combinación de algoritmos que tienen una efectividad del 96% en la identificación de informes falsos, mediando una combinación de modelos estadísticos e inteligencia artificial, creada por investigadores de el Centro de Matemáticas Aplicadas a la Industria de la Universidad de Sao Paulo.

Otro ejemplo concreto y muy interesante es Hybrids, un proyecto llevado a cabo por la Universidad de Santiago de Compostela que ha planteado una metodología única que utiliza la cooperación de la tecnología y el conocimiento humano, a través del proceso del lenguaje natural generando nuevos sistemas de interpretación neurosimbólica.

Inteligencia Artificial no tan inteligente

La crisis que se originó a partir de la pandemia del coronavirus ha acelerado la necesidad de repensar mecanismos para evitar la desinformación, desentrañando instrumentos que permitan verificar hechos y cotejar datos sin actuar contra la libertad de expresión.

De todas maneras, que la inteligencia artificial pueda poner un freno a la desinformación parece un tanto complejo.

«Uso de la IA para detectar y frenar la desinformación a davía está muy lejos de ser una realidad» se publicó en un episodio reciente de Maldita Twitcheria, el canal de Twitch de Maldita.es, medio reconocido de comunicación en español abocado al hecho- comprobación.

Allí, el ingeniero de machine learning en paradigma digital, Ángel Delgado, rebajó muchas expectativas. «Una IA entrenada puede ver que est lo IMPORTANTE en un texto ya de lo aprendido, generar uno nuevo, pero nunca va a saber o escuchar el contexto de lo que ha leído o de lo que está escribiendo» resaltó, además de señalar que suelen haber falencias en cuanto al tono, dado que una maquina no es capaz de distinguir contextos y/o estilos.

Continuando con la línea de pensamiento de Delgado, el futuro de la inteligencia artificial es una verdadera incógnita. Sin duda, la alfabetización y conocimiento de las nuevas herramientas para evitar caer en bulos o contenidos falsos será fundamental.

No obstante, conocer las herramientas puede ser útil pero no bastará. Algo que complejiza realmente el porvenir para quienes combatimos la desinformación. Empezar adentrarse en que es la intellect artificial y conoce son las herramientas más populares sin dudas será un salto de calidad para no transformarse en títeres de aquellos que manipulan, à través de la desinformación, el discurso público.

Tambien te puede interesar