Las Lucinaciones de Harari | Perfil

Las Lucinaciones de Harari |  Perfil

Según el profesor de historia Yuval Harari, el ChatGPT –la herramienta de inteligencia artificial generativa– representa un riesgo para la humanidad. Los anuncios de Harari se basan en la construcción de un guión alimentado por la ciencia ficción de Hollywood, en el que se ven las máquinas contra los humanos.

En un punto, ChatGPT y Harari se asemejan: ambos alucinan cuando no saben qué decir. El primer inventa datos como resultado de una «laguna» de información y este término técnico se llama alucinación. El historiador ve robots asesinos incendiando las calles, alucinando que la ciencia ficción no es ficción.

En un reciente artículo publicado en el New York Times, el profesor de historia analiza la inteligencia artificial junto a los ejecutivos de una ONG que impulsó el uso responsable de la tecnología llamada Center for Human Technology. Esta organización ofrece una serie de instrucciones sobre la adopción de nuevas tecnologías. Entre otros, es el «responsable» de la inteligencia artificial. Esto es obviamente encomiable, además de vacuo y tribunero. La realidad es que no queda claro realmente qué proponen más allá de predecir escenarios catastróficos como resultado de la evolución tecnológica.

El artículo critica la inteligencia artificial, como si fuera algo realmente nuevo, y propone una moratoria o pausa en la investigación.

Ante un escenario en el que las máquinas giran contra la humanidad, los pronósticos de estos tres coautores suman a siglos de vaticinios similares, incluyendo la teoría heliocéntrica, la mecanización industrial y la aparición de los televisores. Sin embargo, las lagunas argumentativas de estos redactores no tienen conexión con la realidad. Es que la lógica es comparable a la actitud de los escualos en Tiburón, buen cine. Ficción y nada más. En el mundo real, ni las computadoras ni los animales marinos quieren terminar con la humanidad.

El primer punto es que la inteligencia artificial generativa no tiene superhabilidades. De hecho, la realidad indica que ChatGPT volvió menos astuto cuanto más interactuó con la gente, surpresa que pocos tienen en cuenta.

Según el experto en inteligencia artificial Eliezer Yudkowsky, el ChatGPT será sobresaliente en el cálculo de la probabilidad, sin embargo, a medida que la herramienta aprendió de humanos, empeoró su estadística. Oh mar, cuanto conoce a la gente, se vuelve menos inteligente. Y más allá de las habilidades propias de una máquina, como el cálculo; es la realidad básica.

Esta desinteligencia artificial, además, no siente, no desea, no nace ni muere. No tiene motivo para matarnos o defendernos. No sufre como un humano, por ende, no puede tener conciencia. No vive pensando que morirá, por ende, el paso del tiempo –y su demostración en el proceso de envejecimiento– no la afecta.

Los humanos estamos motivados por el sufrimiento y nuestra eventual e inexorable muerte, sin afecciones no habrán ni ciencias de la salud, ni pensamiento económico, ni ideas políticas.

En suma, no tiene la ambición de un dictador.

Harari, otra vez, se plantó sobre un tema de moda con la desinformación. Ahora, aprovechó el miedo a lo nuevo. Posiciones como esas solo van a hacer que la gente pase dificultades para ingresar a la tecnología, pero no frenará su uso.

Harari como historiador sabe que siempre se perdió la batalla contra el progreso. Desafortunadamente, esta no es una excepción.

* Analista en geopolítica. Filosofía y abogada especialista en antropología de la Universidad Temple de Filadelfia.

Tambien te puede interesar

Por Claudia Morales