.
Analistas 04/05/2024

El riesgo de desinformar

P. Harold Castilla Devoz
Rector General de Uniminuto

Hablando de gestión estratégica de los riesgos siempre tenemos la posibilidad de estructurar acciones de blindaje para que no se materialicen. Lo más complejo que puede suceder en una apuesta estratégica tecnológica es que se materialicen los impactos negativos de esta. Haciendo alusión a la Inteligencia Artificial (IA), también hay muchos temores que hablan de posibles riesgos. Uno de ellos es el de la desinformación.

Si la IA aprende de los datos que se le proporcionan, puede existir el riesgo de los sesgos en estos. El sesgo o la no completitud de los datos puede ocasionar que la IA puede que replique y amplifique un impacto de desinformación potencial. También puede darse que a la IA le falte comprensión contextual llevando a malinterpretaciones de la información y generando conclusiones incorrectas.

La IA puede ser utilizada para generar contenido falso, como noticias, artículos, imágenes y videos manipulado que no es fácil de detectar y se propaga fácilmente. Se amplifica así la información errónea y se manipula la opinión de las personas difundiendo información engañosa y distorsionando la verdad de los hechos. Para abordar estos elementos críticos, es urgente implementar prácticas éticas en el desarrollo y el uso de la IA, así como fomentar la alfabetización digital y crítica de los usuarios.

Un reto claro es que los investigadores y desarrolladores están invitados a trabajar en mejorar la transparencia y la explicación de los sistemas de IA. Hoy más que nunca, la IA debe estar al servicio de una sociedad más equitativa e inclusiva, más informada para que con criterio manifieste sus opiniones y acciones coherentes y consistentes. Para ello es muy importante que los ambientes de aprendizaje, donde se forman los futuros pensadores críticos de esta sociedad contemporánea, esté impregnado de integridad ética.

Abrazar y adaptar la IA es el camino a seguir y, por ello, es necesario que las Instituciones de Educación Superior (IES) implementen políticas que orienten en su uso, aplicación y adopción. En este contexto, un actor importante es el profesor, llamado a saberse responsable del otro para orientar y adaptar la experiencia del aprendizaje. También, invitado a construir una comunicación responsable con sus estudiantes y demás grupos. La verdad y autenticidad son vectores de la visión ética de la IA. El llamado a la búsqueda de la verdad y la transmisión de información precisa y verificada es relevante.

También lo es la solidaridad y la responsabilidad social. Esto implica un llamado a la responsabilidad por parte de los desarrolladores de tecnología, las plataformas en línea y los usuarios para contrarrestar la propagación de información falsa. Implica el acceso equitativo a la información veraz. Los sistemas democráticos se han contraído quizá por las dinámicas polarizadas de la política que fundan su propuesta en prácticas no éticas a través del uso y transferencia de la información. Ejemplo de ello son las famosas “bodegas” que en Colombia y en otras latitudes se han desarrollado.

Estos principios concretos sobre la comunicación responsable y la ética de la IA proporcionan un marco relevante para reflexionar sobre este desafío emergente. Las investigaciones deberán ser una oportunidad para abrazar la IA no como algo que éticamente destruye la dignidad humana sino como una extensión de la misma para potencializarla.

Conozca los beneficios exclusivos para
nuestros suscriptores

ACCEDA YA SUSCRÍBASE YA