MI SELECCIÓN DE NOTICIAS
Noticias personalizadas, de acuerdo a sus temas de interés
Como funcionaria judicial, conocí de cerca el gran reto que enfrentan los juzgados, tribunales y altas cortes para revisar y sistematizar oportunamente millones de documentos con contenidos fácticos y normativos (expedientes, informes, mapas, bases de datos). En 2018, precisamente en la búsqueda de herramientas que hicieran más eficiente ese trabajo, la corte para la cual trabajaba me encargó tomar un curso sobre big data y analítica de datos. Allí nos hablaron del machine learning como la gran promesa. Hoy, esa tecnología es la base de la inteligencia artificial (IA) generativa; la misma que usamos cada vez que consultamos a ChatGPT, Gemini o Notebook.
El sector justicia lidera el uso de IA en el Estado colombiano con 54 sistemas, tanto más meritorio cuanto Colombia es uno de los países latinoamericanos con mayor proporción (25%) de adopción en el sector público (Sistemas de Algoritmos Públicos, Universidad de los Andes, 2026). La aplicación de esta herramienta en actividades de tan alto valor genera preocupaciones pertinentes que, en todo caso, no pueden justificar su descarte. Claro que vale la pena apoyarse en IA para la prestación del servicio de justicia; pero, eso sí, tomando las precauciones que su naturaleza exige.
En sano juicio, para preservar la garantía del juez natural y el debido proceso (Sentencia T-323 de 2024), la Corte Constitucional determinó que la IA no puede sustituir el razonamiento de los jueces -es decir, la valoración de pruebas, construcción de argumentos y toma de las decisiones sobre casos concretos-. Sin embargo, esta tecnología sí puede optimizar el desarrollo de actividades de gestión asociadas al servicio judicial.
Este es el caso de los instrumentos cuya construcción lideramos desde Econometría SAS, para atenuar las dificultades que enfrentan entidades del sector justicia en el manejo de grandes volúmenes de información. Principalmente, utilizamos sistemas de inteligencia artificial basados en técnicas de aprendizaje automático, incluidos modelos capaces de analizar lenguaje y generar respuestas o borradores de texto a partir de instrucciones. Entre ellos están los modelos de lenguaje de gran escala (Large Language Models, LLM), que permiten procesar grandes cantidades de información escrita, identificar patrones y apoyar tareas de sistematización documental, siempre bajo orientación humana.
La experiencia con estas herramientas nos ha permitido identificar tanto sus virtudes como sus riesgos, así como diseñar estrategias para prevenirlos o mitigarlos. En el caso de la gestión judicial, se ha evidenciado su utilidad para encontrar información específica en abundantes contenidos normativos: miles de páginas con normas constitucionales, legales, jurisprudencia y doctrina pueden ser revisadas por sistemas entrenados para identificar datos puntuales y organizarlos para el análisis. Asimismo, lo encontrado puede alimentar indicadores para medir la garantía de derechos individuales y colectivos, con lo cual se fortalecen los instrumentos de monitoreo de las instituciones judiciales. Esto, además, puede lograrse en tiempos sustancialmente menores a los que emplearía un equipo humano, y sin ocupar ejércitos de funcionarios en la lectura de millones de documentos.
Sin embargo, como se mencionó anteriormente, el uso de este tipo de tecnología en un tema tan importante como la justicia plantea alertas. Por ejemplo, como lo generado por IA depende de los datos con los que se alimenta, si aquellos son falsos o sesgados, así mismo serán los resultados. Igualmente, al revisar con ojo experto sus respuestas, es posible encontrar que sean equivocadas o imprecisas. Por eso es fundamental no simplemente delegar funciones a la tecnología, sino supervisar críticamente su uso y resultados.
En la gestión pública, la conciencia sobre las bondades y riesgos de trabajar con IA, junto con el conocimiento del correspondiente marco normativo, permite utilizar responsablemente una herramienta con tanto potencial. Econometría, tras la experiencia en este proceso, identifica 4 aspectos clave para usar responsablemente IA en proyectos vinculados al servicio judicial:
Controlar la calidad de los datos y administrarlos éticamente.
Es necesario establecer la disponibilidad, calidad, integridad y pertinencia de la información que alimentará los sistemas, para poder administrarla bajo valores éticos compartidos. Así se garantiza inclusión, imparcialidad, confianza pública y legitimidad del sistema y sus resultados. Los principios de buenas prácticas de la Ocde (2021) sobre la ética de datos en el sector público, y las directrices para el uso de sistemas de IA en cortes y tribunales de la Unesco (2026) son buenos referentes.
Entrenar y probar los sistemas de IA hasta hacerlos robustos, seguros y confiables.
Al entrenar sistemas de IA es clave hacer un escrutinio constante de datos, instrucciones dadas, funcionamiento, salidas, capacidades, limitaciones y riesgos del uso de la herramienta para identificar maneras de prevenir o mitigar consecuencias perjudiciales. Con mecanismos de gestión de riesgos se pueden reparar o retirar de manera segura sistemas que muestren potencial de daños o comportamientos no deseados. Igualmente, deben existir procedimientos para proteger la integridad de la información (Ocde, 2024).
Crear mecanismos de rendición de cuentas.
Todos los actores que participen en el diseño, instalación u operación de sistemas de IA deben responder por sus resultados, salvo que se demuestre que la responsabilidad de los daños generados solo recae sobre uno o algunos de ellos. En esta línea, se debe garantizar la trazabilidad del funcionamiento de los sistemas durante todo su ciclo de vida (Consejería Presidencial para Asuntos Económicos y Transformación Digital, 2021).
Garantizar transparencia, explicabilidad, imparcialidad, privacidad y seguridad.
Quienes diseñen sistemas de IA, dentro o fuera de las instituciones judiciales, deben suministrar información significativa como: fuentes de los datos que los alimentaron, su diseño, proceso de entrenamiento, lógica tras las predicciones, y capacidades, limitaciones y oportunidades de mejora. Una divulgación responsable asegura que los operadores comprendan y cuestionen tanto el funcionamiento como los resultados de los sistemas (Procuraduría General de la Nación y Defensoría del Pueblo, 2025).
Además, para evitar que sistemas de IA refuercen formas de discriminación (como el racismo y el sexismo), los creadores deben cuidar que los datos sean suficientes e imparciales. Mejorar la calidad de la información a ingresar y eliminar variables que produzcan sesgos son cuidados que deben estar presentes de manera permanente. Para esto, una medida importante es conformar equipos multidisciplinarios y diversos que, desde el inicio, garanticen la imparcialidad de los sistemas (Ocde, 2022).
Por último, es fundamental proteger la reserva de los datos personales y sensibles que se dan a conocer a las instituciones judiciales (Consejo Superior de la Judicatura, 2024). La implementación de medidas de ciberseguridad es indispensable para prevenir accesos no autorizados, afectaciones sobre los datos y riesgos para la integridad de los sistemas (Presidencia de la República, 2026).
El anterior listado solo comprende recomendaciones de mejores prácticas para el uso ético y responsable de IA en proyectos vinculados al servicio judicial, de acuerdo con los cuerpos normativos y de soft law que se vienen construyendo a nivel local e internacional (los mismos que aplicamos a nuestros proyectos).
Para finalizar, la tecnología puede potenciar sustancialmente el desempeño de funcionarios y el impacto de instituciones judiciales en la garantía de derechos. En todo caso, y como decimos en Econometría: la IA no anda sola; requiere de humanos expertos que le den vida, la nutran, la entrenen, la monitoreen y la retiren cuando lo consideren pertinente.
Esa preocupación recorre distintas épocas del pensamiento político. En la posguerra, Hannah Arendt advirtió que la mentira sostenida no busca solo que la gente crea algo falso, sino desorientarla hasta vaciar su capacidad de juzgar; cuando ya no se cree en nada
La realidad es que el país está peor que nunca en materia de lucha contra las drogas y la delincuencia organizada
Hoy, quienes deberían estar pagando sus delitos y sometidos a la justicia son los que mandan, deciden, ordenan y celebran. Allá los delincuentes no purgan penas, humillan al Estado en su club privado del delito