.
Analistas 15/04/2023

Luchar contra la corriente

Javier Villamizar
Managing Director

Hace unos días, un grupo de profesionales y líderes de la industria tecnológica han firmado una carta abierta en la que demandan de manera contundente a “todos los laboratorios de Inteligencia Artificial” que detengan durante al menos seis meses el desarrollo de los modelos de entrenamiento de lenguaje (LLM), incluyendo el GPT-4, refiriéndose a ellos como “experimentos masivos en IA” y resaltando los “profundos riesgos para la sociedad”.

Las preocupaciones mencionadas en la carta son válidas y ameritan que la sociedad en general dedique recursos y esfuerzos a entender las posibles implicaciones de una adopción masiva de estas tecnologías. Sin embargo, es importante ser conscientes que como ha pasado con otros avances tecnológicos en la historia de la humanidad, como fue el caso de la llegada del automóvil y el internet, la solicitud de una pausa no solo es inviable, sino también absurda, infantil y desconectada de la realidad.

Cuando Henry Ford lanzó su Modelo T como una evolución trascendental de las carretas impulsadas por caballos, no tuvo que pedirle permiso a nadie. Aunque la introducción de esos automóviles tenía el potencial de generar peligros para transeúntes y otros vehículos de transporte, no pudo ser restringido o controlado una vez que se comprendieron sus características y sus beneficios.

Parte del temor sobre la Inteligencia Artificial está relacionado con el uso casual e indiscriminado y en ciertos casos ignorante de términos como “inteligencia” y en creencias infundadas de que esta tecnología es incontrolable y capaz de superar la capacidad humana. Estos extremos son absurdos y su efecto se perpetúa a través de las redes sociales y de medios de comunicación con mínima profundidad científica.

La verdad es que ninguno de los LLMs posee autoconciencia. Atribuirles cualidades humanas es simplemente una ilusión y no una realidad. Aunque algunas compañías han llevado los modelos de entrenamiento de lenguaje a una escala inimaginable y la experiencia de un usuario del común con aplicaciones como el popular ChatGPT puede parecernos como si la ciencia ficción se estuviera volviendo realidad, ninguno de estas plataformas tiene el potencial de convertirse en seres inteligentes o autoconscientes.

Los modelos masivos de lenguaje simplemente aprenden a relacionar conceptos y a formular frases basándose puramente en la aplicación de estadística a conjuntos de datos de tamaños increíbles, no en verdadera inteligencia y sin pensar ni ser conscientes de sí mismos

Claramente el uso de estos modelos en la actividad diaria de muchos seres humanos puede suponer riesgos para la sociedad, como la amenaza que cualquier herramienta que hace al usuario más eficiente en la ejecución de una tarea.

Hay preocupaciones legítimas sobre los posibles riesgos asociados con la Inteligencia Artificial Generativa que van desde la difusión de información falsa hasta la creación de contenido ofensivo o dañino. La tecnología en sí misma no es buena ni mala, sino que depende del uso que se le dé. La Inteligencia Artificial Generativa tiene el potencial de ser una herramienta poderosa para el bien, si se utiliza de manera responsable y ética. En lugar de detener su desarrollo, debemos fomentar la investigación y regulación adecuada.

Conozca los beneficios exclusivos para
nuestros suscriptores

ACCEDA YA SUSCRÍBASE YA