MI SELECCIÓN DE NOTICIAS
Noticias personalizadas, de acuerdo a sus temas de interés
No me considero un duro de la inteligencia artificial, ni tengo en mi haber compañías unicornio fundadas ni exits espectaculares. Pero, con el debido respeto por quienes sí los tienen, voy a meterme igual en el debate sobre la inteligencia artificial y el apocalipsis que muchos parecen necesitar ver en ella. En los últimos días ha circulado con fuerza un post de Matt Shumer, emprendedor e inversor en tecnología, que presenta el avance de la IA como un punto de no retorno: un quiebre abrupto que volvería obsoleta gran parte del trabajo intelectual humano en cuestión de meses.
El tono del texto es abiertamente fatalista. Según Shumer, los modelos más avanzados ya no son herramientas, sino agentes autónomos capaces de ejecutar tareas complejas de principio a fin: escribir, probar y desplegar código, analizar información, tomar decisiones y mejorar su propio desempeño. A partir de ahí, el salto es inmediato: programadores, abogados, analistas, consultores y creadores de contenido estarían enfrentando una extinción laboral inminente. No hay transición, no hay adaptación, no hay matices. O reaccionas ahora, o quedas fuera.
El problema con este tipo de lecturas no es que exageren el progreso tecnológico, sino que lo interpretan mal. Confunden tareas con roles. Un rol profesional no es una suma de funciones técnicas, sino una combinación de juicio, contexto, interacción humana, toma de decisiones bajo incertidumbre y, sobre todo, responsabilidad. Que una IA sea brillante ejecutando muchas tareas no implica que pueda reemplazar un rol completo. Pensar lo contrario es reducir el trabajo humano a una checklist técnica, algo que nunca fue.
Tomemos el ejemplo favorito del apocalipsis: el ingeniero de software. Que un sistema pueda escribir y desplegar código no significa que el ingeniero desaparezca. El rol incluye entender problemas mal definidos, negociar prioridades, coordinar equipos, asumir riesgos y responder cuando algo falla. La IA no rinde cuentas, no da explicaciones, no firma decisiones. Automatizar tareas no es eliminar roles; es redibujarlos.
Hay, además, una confusión aún más grave: la que existe entre capacidad y viabilidad. Que una tecnología pueda hacer algo no significa que vaya a ocurrir. Hace años existe la tecnología para eliminar tiendas físicas y oficinas: comercio electrónico, trabajo remoto, automatización total. Sin embargo, las tiendas siguen ahí y las oficinas también. No desaparecieron; se transformaron. La tecnología rara vez destruye de golpe; casi siempre reordena.
Volviendo a Shumer, su error no está en describir lo que la IA puede hacer, sino en asumir que todo lo técnicamente posible es históricamente inevitable. Ese salto ignora incentivos económicos, marcos legales, cultura organizacional, confianza y responsabilidad. Las sociedades no adoptan tecnologías por entusiasmo técnico, sino cuando encajan -mal o bien- en un sistema social complejo. Nada de esto niega la magnitud del cambio que trae la inteligencia artificial. Lo que niega es la necesidad del pánico. Confundir velocidad con fatalidad es intelectualmente tentador, pero históricamente falso. La IA no elimina los problemas humanos; los redefine. Y el progreso, como siempre, no vendrá del miedo, sino de pensar mejor. Así que menos apocalipsis y más análisis. Menos slogans y más responsabilidad intelectual. Y, por último, sonría: incluso con IA, todo va a estar bien.
La economía funcionaría mejor si la población tuviera seguridad en todo el territorio, capítulo en el cual ha habido serio retroceso