La intelgencia artificial como dilema de exclusión o de inclusión

La inteligencia artificial (IA) se está convirtiendo en una herramienta tecnológica cada vez más común en nuestra vida cotidiana y su uso se está extendiendo a una amplia variedad de campos, desde la medicina hasta la industria automotriz. Se ha convertido en el revulsivo tecnológico del siglo XXI. Esta revolución, así como otras tecnologías en desarrollo como la robótica, la computación a la nube y el Internet de las cosas, están transformando disciplinas, economías e industrias, y desafiando las ideas sobre el que significa ser humano.

Aun así, estos adelantos también plantean muchos dilemas éticos, que surgen precisamente del gran potencial que tienen los sistemas basados en IA para reproducir prejuicios, contribuir a la degradación del clima o, incluso, poder llegar a amenazar los derechos humanos. Todos estos riesgos se añaden a las desigualdades ya existentes a nivel social, desamparando todavía más los colectivos más vulnerables de nuestra sociedad, planteando toda una serie de desafíos éticos que tenemos que controlar de manera inmediata para mitigar los daños colaterales que sin duda generarán.

Una de las primeras actuaciones lo ha hecho la UNESCO, en un informe mundial titulado "Replantear juntos nuestros futuros: nuevo contrato social para la educación", liderando iniciativas internacionales orientadas a garantizar que la ciencia y la tecnología se desarrollen dentro de un marco ético. Ya en noviembre del 2021 elaboró la primera norma mundial sobre la ética de la inteligencia artificial: la “Recomendación sobre la ética de la inteligencia artificial”.

Este documento fue adoptado por los 193 estados miembros de la UNESCO, en un acuerdo, en que la protección de los derechos humanos y la dignidad de la persona son la piedra angular, basada en el adelanto de principios fundamentales como la transparencia y la equidad, recordando siempre la importancia de la supervisión humana de estos sistemas.

Considero que el hecho de conseguir una gestión adecuada de la IA es uno de los retos más importantes de nuestro tiempo, que exige un aprendizaje mutuo basado las buenas prácticas que surgen de las diferentes jurisdicciones de todo el mundo.
La cuestión ya no es si legislar o no sobre la IA y las tecnologías a su alrededor, sino qué es la mejor manera de hacerlo. El desarrollo de la IA bajo un control ético es estratégico en cuanto que puede ser utilizada para tomar decisiones que afectan a las personas, pero por encima de todo, puede reproducir estigmas que ya existen en nuestra sociedad. Si estos sistemas no están fundamentados bajo criterios éticos sólidos, sin duda reproducirán prejuicios y discriminación, como los que ha cometido la propia inteligencia natural humana.
Para prevernos de estos peligros inminentes, necesitamos detectar los riesgos para los colectivos más vulnerables de nuestra Sociedad, y encontrar soluciones aplicables a corto plazo.

Algunos de los riesgos que tenemos que evitar en quiero señalar algunos como:

Para empezar podemos encontrarnos con filtraciones de datos personales. La IA puede procesar grandes cantidades de datos personales, cosa que sin lugar a dudas, podría comprometer la privacidad y el bienestar de las personas. Para combatirlo nos habrá que implementar estrictas políticas de privacidad y seguridad que protejan la información personal, para evitar el riesgo de exposición pública.
También podemos encontrarnos con casos de vigilancia extrema y manipulación. Organizaciones privadas o gubernamentales pueden utilizar la IA para vigilarnos y manipularnos como ciudadanos. Esto nos obligará a regular y supervisar esta tarea en la toma de decisiones, para garantizar la transparencia en los algoritmos y proporcionar acceso a explicaciones claras sobre cómo se consigue la información.
La carencia de transparencia en la supervisó de la inteligencia artificial avocarà a lo que podríamos denominar como “Cámaras de eco” y sesgos preconcebidos. La exposición constante a las mismas ideas y noticias fortalecerá los sesgos informativos y limitará la diversidad de perspectivas. Esto nos hace que para abordar este problema haya que favorecer una diversidad más plural en el diseño y el entrenamiento de modelos de IA y corregir los sesgos sistemáticos en sus algoritmos.
También tenemos que prever que haya una sobre representación en los modelos de IA. Estos modelos podan no representar adecuadamente a los grupos minoritarios y más vulnerables. Por lo tanto, creo que será imprescindible recopilar datos que sean más inclusivas y equilibradas, utilizando técnicas de ajustamiento que nos permitan corregir estos desequilibrios en la representación.
Así mismo, nos podemos encontrar que disponemos de información sin plan de acción. Vendería a ser el hecho de tener datos sin un enfoque claro para gestionar problemas sociales, forzándonos a desarrollar estrategias y hojas de ruta específicas para aplicar los conocimientos generados por la IA, en políticas y programas efectivos que aligeren el sufrimiento de los colectivos más vulnerables.
Todo ello puede parecer agobiante. Y lo es. Por eso, tengo el convencimiento que la acción a nivel global tiene que ser urgente y profunda en el ámbito de la formación y el fomento de habilidades, no basta de declarar que la revolución digital tiene que tener el ser humano en el centro. Hay que asegurarnos que así sea, desarrollando ambiciosos programas públicos y privados de corta duración, con un impacto casi inmediato en competencias digitales y analíticas.
La velocidad de este cambio tecnológico nos obliga a actuar sobre las personas para compensar la automatización de muchas de las tareas tradicionales. Así mismo, las empresas se tendrán que comprometer a impulsar un uso responsable de los datos, así como un diseño abierto y auditable de los algoritmos que rigen las decisiones de sus servicios implementados en IA. Y todo esto sin olvidar que, como sociedad, nos urge repensar las reglas y las instituciones adecuadas para una sociedad digitalizada, con acuerdos y principios supranacionales sobre privacidad, flujos de datos y auditoría de los algoritmos que no dejen a nadie perdido por el camino.

Josep Giralt Lladonosa
Expresidente de ASPID
Facebook Twitter LinkedIn WhatsApp
Utilizamos cookies propias y de terceros para mejorar nuestros servicios y razones técnicas, para mejorar tu experiencia de navegación, para almacenar tus preferencias y, opcionalmente, para mostrarte publicidad relacionada con tus preferencias mediante el análisis de tus hábitos de navegación. Hemos incluido algunas opciones de configuración que te permiten decirnos exactamente las cookies que prefieres y las que no. Pulsa ACEPTAR para consentir todas las cookies. Pulsa CONFIGURACIÓN para decidir las opciones que prefieres. Para obtener más información sobre nuestras cookies accede a nuestra Política de cookies aquí: Más información
Aceptar Rechazar Gestionar Cookies