Era casi esperable: frente al desarrollo vertiginoso de herramientas de capacidades asombrosas como charla GPT y otra familia de aplicaciones de Inteligencia Artificial (IA), un grupo de más de 1,000 académicosexpertos e intelectuales, entre los que se encuentran Steve Wozniak, cofundador de Apple, y Elon Muskquien no necesita presentación, firmó una carta en la que propuso una moratoria mínima de 6 meses en el desarrollo de estas aplicaciones de servicios sin precedentes, hasta tanto se pueda desarrollar un marco regulatorio que acote sus riesgos.
Entre otras medidas, proponer protocolos genéricos de seguridad para el diseño de aplicaciones avanzadas de inteligencia artificial, rigurosamente auditados y supervisados por expertos independientes y externos en los laboratorios que desarrollan estas aplicaciones. También la creación de autorizaciones que regulen y certifiquen lo concerniente a IA.
Inteligencia artificial: Mientras pregunto por las nuevas olas al ChatGPT
En cuanto a la innovación disruptiva y de gran poder, el desarrollo sostenido de aplicaciones de Inteligencia Artificial conlleva riesgos por su potencial uso para multas inapropiadas, por más que las que actualmente están disponibles explícitamente intentan prevenir.
Al igual que otras mejoras tecnológicas que finalmente cambiaron el mundoAl igual que la computadora personal o Internet, nadie puede predecir su impacto potencial, ni en sentido positivo ni negativo.
Pero algo deberíamos haber aprendido de la historia de los desarrollos tecnológicos y culturales: sólo el intercambio abierto de ideas y la competencia asociada al progreso han permitido que hoy, a pesar de todos los problemas que nos aquejan, vivamos en el mayor de los mundos.
IA: riesgos del progreso, peligros de la regulación
Los riesgos son reales y su alcance es conocido, como también lo es el potencial para democratizar el conocimiento y resolver esos mismos problemas que todavía nos acompañan.
Lo que sí sabemos es que jamás deberíamos someter el progreso al criterio de expertos, entes regulatorios, gobiernos o grupos de interés. Aun con los peligros que estos sistemas pueden representar, siempre es preferible informarse, aprender sobre las limitaciones y malos usos y acompañar su déarrollo con una mirada crítica, dejando que su propio uso regule su impacto.
Ninguna Restricciónpor mejor que el mar, puta ser perfecto en su capacidad de cerca del progreso. Marginalizar el desarrollo de aplicaciones de inteligencia artificial nos exppondrá, en èse caso sí, à quienes fuera de las eventuales continuas normas con estos desarrollos con multas que nos sean mejoras para la humanidad.
Nuestros esfuerzos deben estar orientados a prender, informarnos y generar una mirada crítica para que estos sistemas no sean una caja negra. Si los sistemas de inteligencia artificial nuestro alcanzaron y hasta superaron, el defiance es reconectar con el verdadero valor de nuestra humanidad, no suprimirlos.
El presente artículo fue escrito en su totalidad por un humano sin uso de Chat GPT ni ninguna otra herramienta de inteligencia artificial.
*Director de La Escuela Global
Tambien te puede interesar

