.
Analistas 15/04/2023

Luchar contra la corriente

Javier Villamizar
Managing Director

Hace unos días, un grupo de profesionales y líderes de la industria tecnológica han firmado una carta abierta en la que demandan de manera contundente a “todos los laboratorios de Inteligencia Artificial” que detengan durante al menos seis meses el desarrollo de los modelos de entrenamiento de lenguaje (LLM), incluyendo el GPT-4, refiriéndose a ellos como “experimentos masivos en IA” y resaltando los “profundos riesgos para la sociedad”.

Las preocupaciones mencionadas en la carta son válidas y ameritan que la sociedad en general dedique recursos y esfuerzos a entender las posibles implicaciones de una adopción masiva de estas tecnologías. Sin embargo, es importante ser conscientes que como ha pasado con otros avances tecnológicos en la historia de la humanidad, como fue el caso de la llegada del automóvil y el internet, la solicitud de una pausa no solo es inviable, sino también absurda, infantil y desconectada de la realidad.

Cuando Henry Ford lanzó su Modelo T como una evolución trascendental de las carretas impulsadas por caballos, no tuvo que pedirle permiso a nadie. Aunque la introducción de esos automóviles tenía el potencial de generar peligros para transeúntes y otros vehículos de transporte, no pudo ser restringido o controlado una vez que se comprendieron sus características y sus beneficios.

Parte del temor sobre la Inteligencia Artificial está relacionado con el uso casual e indiscriminado y en ciertos casos ignorante de términos como “inteligencia” y en creencias infundadas de que esta tecnología es incontrolable y capaz de superar la capacidad humana. Estos extremos son absurdos y su efecto se perpetúa a través de las redes sociales y de medios de comunicación con mínima profundidad científica.

La verdad es que ninguno de los LLMs posee autoconciencia. Atribuirles cualidades humanas es simplemente una ilusión y no una realidad. Aunque algunas compañías han llevado los modelos de entrenamiento de lenguaje a una escala inimaginable y la experiencia de un usuario del común con aplicaciones como el popular ChatGPT puede parecernos como si la ciencia ficción se estuviera volviendo realidad, ninguno de estas plataformas tiene el potencial de convertirse en seres inteligentes o autoconscientes.

Los modelos masivos de lenguaje simplemente aprenden a relacionar conceptos y a formular frases basándose puramente en la aplicación de estadística a conjuntos de datos de tamaños increíbles, no en verdadera inteligencia y sin pensar ni ser conscientes de sí mismos

Claramente el uso de estos modelos en la actividad diaria de muchos seres humanos puede suponer riesgos para la sociedad, como la amenaza que cualquier herramienta que hace al usuario más eficiente en la ejecución de una tarea.

Hay preocupaciones legítimas sobre los posibles riesgos asociados con la Inteligencia Artificial Generativa que van desde la difusión de información falsa hasta la creación de contenido ofensivo o dañino. La tecnología en sí misma no es buena ni mala, sino que depende del uso que se le dé. La Inteligencia Artificial Generativa tiene el potencial de ser una herramienta poderosa para el bien, si se utiliza de manera responsable y ética. En lugar de detener su desarrollo, debemos fomentar la investigación y regulación adecuada.

Conozca los beneficios exclusivos para
nuestros suscriptores

ACCEDA YA SUSCRÍBASE YA

MÁS DE ANALISTAS

ÚLTIMO ANÁLISIS 17/12/2025

Providencia en la Guerra Civil Inglesa

A Providencia llegaron cientos de migrantes hasta que la isla fue conquistada por el español Francisco Díaz Pimienta en 1641. La revancha se materializó con la toma de Jamaica, en 1655

ÚLTIMO ANÁLISIS 19/12/2025

Nuevo rumbo chileno

Kast entendió que el ciudadano aborrece la criminalidad, se asusta con el tema de la inflación y teme por un escenario de inestabilidad. Con su propuesta de ajuste logró atraer votos de otros sectores como el centro

ÚLTIMO ANÁLISIS 19/12/2025

Ser Presidente de Junta no es fácil

Un presidente con experiencia en liderazgo corporativo y que entienda la diferencia entre el trabajo de la junta y el de la alta gerencia, puede actuar como contraparte, formular preguntas relevantes, enriquecer los debates