.
Analistas 14/04/2023

ChatGPT: estamos un poco asustados

Hernán David Pérez
Asesor en transformación digital y productividad

“Creo que la gente debería estar feliz de que estamos un poco asustados…”, eso respondió el pasado 16 de marzo en una entrevista Sam Altman, CEO de OpenAI, empresa creadora de ChatGPT, ante la pregunta “.... de un lado hay un gran potencial para cosas buenas, pero, por otro lado, hay un gran número de incógnitas acerca de cosas que podrían voltearse en contra y ser muy malas para la sociedad, ¿Usted qué piensa de esto?”.

Este extracto es el abrebocas de la entrevista con la periodista, Rebeca Jarvis, del canal ABC de los EE.UU., y en la cual también participó Mira Murati, CTO de OpenAI. La entrevista pasa por múltiples preguntas en la búsqueda de entender los beneficios y riesgos potenciales de la inteligencia artificial generativa, por el lado de los beneficios, Altman y Murati coinciden que el potencial es inmenso, y destacan: (i) proveer educación personalizada de alto nivel para cada usuario; (ii) disponer de consejos médicos personalizados en un nivel no conocido hasta ahora; (iii) ayudar a cada profesión a desarrollar su trabajo; (iv) desarrollar la respuesta a los nuevos problemas que van a surgir; y, (v) en términos generales, ayudar a mejorar la calidad de vida de las personas.

Así mismo, Murati enfatiza que está tecnología “si puede ser utilizada para fines perjudiciales para la sociedad”, y ambos resaltan varios riesgos: (i) esta herramienta puede ser utilizada para crear desinformación a gran escala; (ii) estos sistemas podrían ser usados para realizar ciber ataques; (iii) hay preocupación por el uso que pueden dar gobiernos autoritarios a esta tecnología; y, (iv) se pueden eliminar millones de trabajos.

Entre las medidas preventivas que han tomado para evitar el uso malicioso, ellos mencionan que el “sistema ha sido pre entrenado para que sea más propenso a rechazar el direccionamiento hacia fines perjudiciales”, y que existen equipos de seguridad y políticas de uso que pretenden asegurar el mejor uso de la herramienta, pero Altman enfatiza que “la sociedad tiene un tiempo limitado para definir como regular la IA generativa”, y “se debe buscar que los principales gobiernos del mundo definan la regulación de lo que se debería y no debería hacer, y lo que nunca se debería tocar por parte de la IA generativa”.

No nos debemos sorprender por lo que está sucediendo con la IA, a lo largo de la historia primero ha sido la tecnología y luego la regulación, solo basta recordar la energía nuclear y la clonación de seres vivos, y, más recientemente las criptomonedas, que aún no terminan de ser reguladas; probablemente con la IA tendremos inicialmente autorregulación de parte de los desarrolladores y más adelante alguna normativa supranacional como la que pretende implementar la Unión Europea.

Lo que sí es claro, es que el mundo del trabajo en todas las profesiones tendrá un antes y un después de la IA generativa, y será mucho más disruptivo a lo que ocurrió con la revolución del internet a finales de los noventas, pues tal como lo menciona Altman: “estamos alcanzando un punto donde las máquinas tendrán la capacidad de desarrollar mucho del trabajo cognitivo que hoy desarrollan las personas”.

Conozca los beneficios exclusivos para
nuestros suscriptores

ACCEDA YA SUSCRÍBASE YA