MI SELECCIÓN DE NOTICIAS
Noticias personalizadas, de acuerdo a sus temas de interés
En la mayoría de las empresas que conozco, la ética de la IA vive en un PDF -si es que tienen política-. Tiene logo. Tiene firma. Tiene principios bien redactados. Está colgado en la nube. Y casi nadie lo ha leído desde el día en que se publicó.
No es mala fe. Es un patrón: el mito del documento. Una encuesta de PwC, publicada a finales de 2025, encontró que la mitad de las empresas reconoce que su mayor obstáculo con la IA ya no es técnico, sino operacional. Saben qué prevenir. No saben cómo conversar entre quienes deciden.
Y ahí está el problema. La ética no es un documento. Es lo que ocurre cuando alguien levanta la mano en una reunión y dice algo incómodo. Cuando un analista interrumpe una integración porque detectó un sesgo. Cuando un proveedor cuestiona un caso de uso. Cuando un comité se permite no aprobar lo que la junta esperaba que aprobara. Si esas escenas no ocurren, lo que hay no es ética; es la estética del cumplimiento.
Jürgen Habermas trabajó durante cuarenta años una intuición que aquí se vuelve operativa: una norma no es válida porque alguien con autoridad la firme; es válida porque resiste un diálogo entre los afectados, sin coacción, sin exclusiones, sin argumentos suprimidos. El principio (D) de su ética del discurso lo dice con claridad: solo pueden pretender validez las normas que encuentran la aprobación de todos los afectados en un discurso práctico.
La palabra clave no es aprobación. Es participación. Y participación, para Habermas, no es enviar un documento para recibir comentarios.
Pero si Habermas describe la estructura del diálogo, Hannah Arendt describe lo que suele faltar. En La condición humana sostiene que la acción solo existe cuando aparece ante otros. La pluralidad no es un requisito formal; es la condición de posibilidad de que algo ocurra. Hablar de ética en una sala donde nadie contradice al gerente no es deliberar: es ejecutar un guion.
Lo que Habermas exige como condición, Arendt lo nombra como espacio: el espacio de aparición. El lugar donde alguien dice lo que piensa y otros lo juzgan y contradicen. Sin ese espacio no hay acción; hay tareas que se hacen porque toca.
Y aquí conviene una pregunta incómoda: ¿su empresa tiene un comité de IA o de datos? ¿Existe realmente esa sala? Según Pacific AI, 75% de las organizaciones tienen políticas, pero solo 36% cuenta con un marco de gobernanza real. Y los comités que existen suelen sesionar sin agenda, designan responsables sin autoridad y redactan principios sin discutirlos con quienes operan los sistemas. Cumplen el formato del diálogo, no el espacio donde este ocurre.
Por eso, adoptar IA éticamente no empieza por escribir. Empieza por crear las condiciones para que alguien pueda decir, sin costo, que algo no debería hacerse. Que ese caso de uso no se sostiene. Que ese dato no debió usarse. Que ese modelo no está listo.
La ética no es un documento alojado en la nube. Es una práctica. Y es una conversación.
La transición hacia otras modalidades de crédito no depende únicamente de voluntad regulatoria. Depende, sobre todo, de resolver un problema más profundo: la ingeniería del producto crediticio
En 2018 había llegado su momento. Era el hombre indicado en el momento indicado. Mejor hubiera sido Vargas Lleras. Él estuvo en ese momento a la altura de las circunstancias, pero su país, quizás, no