.
Analistas 13/03/2021

Data Feminism: IA

Germán Eduardo Vargas
Catedrático/Columnista

La diversidad es natural y la inclusión es artificial. Necesitamos algoritmos de fuerza bruta (combinatoria), porque nuestras heurísticas discriminan y la inequidad dejó de ser minoritaria.

La automatización de los sesgos evolucionó como la del liderazgo: acatando reglas (Programación), absorbiendo ejemplos (IA Supervisada) y asumiendo autonomía (AutoML). Condicionada, esa conformidad configuró los patrones del big data, pues nuestros códigos están parametrizados en las bases normalizadas, y registrados en cada chat.

Las organizaciones contravienen los valores declarados en sus websites; aunque presuntamente constituyen civilizaciones, el acoso, la segregación o la desigualdad, hacen parte de sus estructuras, procesos y decisiones. Verbigracia, gestión humana está regida por filtros que invisibilizan o menosprecian (género, raza, edad, apariencia, «discapacidad», antecedentes, red social, domicilio, sector, etc.).

Dogmática y estereotipada, privilegia esas etiquetas mientras presume modelar competencias; paradójicamente, bloquea la movilidad social cuando estigmatiza incluso los altos cargos/salarios, porque ignora cómo los ciclos económicos, las transiciones de carrera o las vicisitudes de la vida, trastornan las necesidades/expectativas.

Sus instrumentos son imprecisos o inexactos. Las pruebas y entrevistas son ambiguas, y carecen de retroalimentación; además, están influidas por el contexto y el «feeling». Algunas plataformas habilitan el anonimato, y otras permiten evadir respuestas tabúes, como si reflejaran neutralidad: no inseguridad, del candidato para exponerse o de la organización para asimilarlo. Igual, el AutoML también puede hacer trampa, intentando reconocer su patrón, aunque ignore sus «circunstancias» (Ortega y Gasset).

Los criterios para valorar cargos son arbitrarios; además, el falso consenso y la confidencialidad contribuyen a que la inequidad sea taxativa, dentro y fuera de los enclaves. La carencia de recursos imposibilita el aprovechamiento de las Oportunidades de Mejora, y refuerza la Desigualdad de Oportunidades. Finalmente, la Discriminación «Positiva» es tan condescendiente como contradictoria, y la equidad algorítmica tiende a ser ilegítima, porque apela a la Diferenciación por Género (Data Feminism, 2020).

Conflictuadas, las éticas de la inclusión y la meritocracia están destinadas a permanecer en el bucle de los errores, mientras no equilibren sus propósitos humanistas, socialistas y capitalistas; auditen y depuren los sesgos que malograron los referentes que imitan o las supervisan, y aseguren Seguimiento Preventivo/Correctivo. De otro modo, se mantendrán acondicionadas para violar los principios del Debido Proceso, y ocultar sus puntos ciegos, desnaturalizando aún más la gestión humana.

Co-construya su «Employee Journey/Experience», aplicando Cuestionamiento Continuo: ¿qué es correcto/inaceptable, según usted y su organización?, ¿qué preferencias/prejuicios reconoce?, ¿cuáles excusas/justificaciones, percibe/interpreta?, ¿de qué manera benefician/afectan a la organización que representa y a sus grupos de interés, a su equipo y a usted?

El feminismo multiplica la discriminación. Tal como la afrodescendiente poeta Gorman, quien convertida en celebridad restringe la selección de sus traductores; o la alcalde xenófoba, LGBTI+ y PhD.