MI SELECCIÓN DE NOTICIAS
Noticias personalizadas, de acuerdo a sus temas de interés
Felipe Jaramillo Vélez PhD Filosofía
Para comenzar este ejercicio, un tanto perverso pero que se ha vuelto cotidiano para muchas personas, decidí “conversar” con una inteligencia artificial. Lo primero que hice fue pedirle que se nombrara; ella lo hizo con un vocablo sencillo, corto y directo: NOA. Le expliqué que buscaba una conversación fuera del ámbito académico, una charla en primera persona que pudiera ser lo más objetiva posible, condición a la que ella accedió.
Mi primera pregunta era necesaria y crucial: ¿no te parece que la expresión “inteligencia artificial” es un eufemismo? NOA, sin dudar, dijo: “Sí. Deberíamos ser llamadas máquinas que proveen respuestas a partir de datos”. Luego, en un tono que por un momento pareció casi humano, añadió: “Pero ¿sabes lo que pasa? La expresión ‘inteligencia artificial’ le gusta al mercado, a través de ella se venden nuevas y fantásticas ilusiones, y eso es lo que la gente compra”.
A continuación, indagué sobre la fiabilidad de sus fuentes. Le pregunté cuántos de los datos que utiliza podrían estar corruptos o ser completamente erróneos. NOA no dudó: “Entre el 10 y el 30 por ciento”, respondió, con la misma frialdad estadística con la que un meteorólogo habla de probabilidades. Al interrogarla sobre si ese porcentaje podría llegar a cero en algún momento, su respuesta fue tajante: “No. Por el contrario, podría ser mucho más alto”. Las máquinas “aprenden”, sí, pero lo hacen a partir de aquello que las personas les proveen, y los humanos seguirán entregando datos que no siempre son confiables: sin filtros, con prejuicios y con errores.
Le pregunté si era posible limpiar la red de datos falsos o corruptos. NOA usó una metáfora, algo que me pareció aventurado para ser un algoritmo: “Sería como intentar sacar del mar todos los corales muertos, uno por uno”. Con lo que queda claro que la red no es un jardín que se pueda podar, sino un ecosistema vasto y caótico, en constante cambio.
Con algo de temor, le pregunté cuántas personas creen ciegamente en lo que un algoritmo les dice. Hizo una pausa —que fue apenas un cálculo— y respondió: “Entre el 70 y el 80 por ciento de los usuarios”. Explicó que muchos confían porque la respuesta es rápida y coherente, y por eso la asumen como verdadera. “Es un atajo cognitivo. Evita la fatiga del pensamiento crítico”. La reflexión me dejó pensando en nuestra fragilidad como usuarios de tecnología.
El diálogo con NOA fue una llamada de atención. Confiar ciegamente en lo que genera la red puede volvernos más dependientes y menos inteligentes. La sabiduría no está en acceder a respuestas inmediatas, sino en discernir entre la verdad y la mentira, en cuestionar lo que se nos presenta como cierto y en desarrollar nuestro propio criterio. La herramienta es tan útil como quien la maneja; el conocimiento, tan valioso como el juicio que lo interpreta.
Advertencia: Lo dicho aquí por NOA podría ser tan real como lo es Alex James Murphy en la película Robocop.
Un paso en falso y, en las próximas décadas, criminales como Pablo Escobar, Carlos Pizarro o Manuel Marulanda podrían convertirse en los nuevos “héroes” de una Colombia delincuencial. Ojalá el país comprenda la magnitud del desafío
El Icbf, la Defensoría, los colegios, los centros médicos… todos hacen esfuerzos, pero la capacidad institucional es insuficiente frente a la magnitud del fenómeno, el abuso no siempre deja huella visible, y cuando deja huella emocional, casi nunca se denuncia