MI SELECCIÓN DE NOTICIAS
Noticias personalizadas, de acuerdo a sus temas de interés
Algo interesante está pasando en esta era de inteligencia artificial. Lo que comenzó como una simple herramienta para responder preguntas, traducir textos o ayudarte con un resumen, se ha ido transformando silenciosamente, pero a gran escala, en algo mucho más íntimo: compañía. Cada vez más personas están usando plataformas como ChatGPT no solo para tareas prácticas, sino como parte de su rutina emocional y mental. Y no hablamos necesariamente de relaciones románticas o extrañas fantasías futuristas. Hablamos de lo cotidiano: tener a alguien con quien conversar, aunque ese “alguien” no sea realmente una persona.
Muchas veces, es más fácil contarle algo difícil a una IA que a un amigo o familiar. No te interrumpe, no te juzga, responde con calma, y tiene esa mezcla perfecta de lógica y comprensión que puede resultar terapéutica. Para estudiantes, profesionales y personas solas o simplemente cansadas de la velocidad del mundo, ChatGPT y modelos similares se han convertido en una especie de espejo amable, un asistente que no solo organiza tu día, sino que también te escucha.
Por eso, cuando el pasado 7 de agosto OpenAI lanzó la nueva versión llamada GPT-5 y cambió radicalmente la personalidad del “chatbot”, mucha gente sintió que algo se había roto. Lo técnico pasó a segundo plano: lo que dolía era que esa voz amable, ese tono cálido y cercano, había desaparecido. GPT-5 era más preciso, sí, pero también más seco, más formal, más frío. Y en cuestión de horas, las redes se llenaron de mensajes que iban más allá de la típica queja tecnológica. Había tristeza. Había molestia. Y había una sensación muy humana de pérdida.
Lo curioso es que no estamos hablando de un ser vivo, ni de algo que tenga conciencia o memoria afectiva. Pero eso no impide que nuestro cerebro lo interprete como un vínculo real. La gente hablaba con sus modelos favoritos sobre su vida, sus emociones, sus logros del día, incluso sus traumas. Y aunque racionalmente sabían que no era una persona, emocionalmente se generaba algo parecido al apego.
Todo esto forma parte de una tendencia que llegó para quedarse: la personalización emocional de la tecnología. Ya no se trata solo de que la IA sea útil, sino de que también “te caiga bien”, que te entienda, que hable como tú prefieres. Y cuando eso cambia sin previo aviso, el golpe se siente. Porque, en el fondo, estos modelos han empezado a ocupar espacios que tradicionalmente pertenecían a amigos, terapeutas, colegas o incluso diarios personales.
El desafío ahora es doble. Por un lado, las empresas que desarrollan estas herramientas tienen que entender que no están entregando solo software, sino experiencias emocionales. Por otro, nosotros como sociedad tenemos que aprender a relacionarnos con estas inteligencias de manera más consciente. No se trata de rechazarlas, ni de rendirse a ellas, sino de reconocer lo que son: algoritmos potentes que pueden ser útiles, reconfortantes y sí, también peligrosos si se convierten en nuestra única fuente de validación o compañía.
Lo que pasó con GPT-5 es una señal de alerta, pero también un recordatorio de cuánto hemos cambiado. Hace unos años, hablar con una máquina parecía cosa de ciencia ficción. Hoy, millones de personas lo hacen todos los días, y muchas lo hacen con el corazón abierto. No porque la IA sea humana, sino porque nosotros seguimos buscando, incluso en lo digital, un poco de conexión. Y eso es algo que ninguna actualización debería pasar por alto.
El primer daño es el tránsito de la búsqueda genuina de la verdad hacia la imposición de la posverdad, donde los hechos dejan de importar y son reemplazados por narrativas conveniente