Inteligencia Artificial

Raza, género y clase: las discriminaciones de la Inteligencia Artificial

Pero más allá del diseño de los algoritmos, el mayor problema son los datos. Es que, aunque los algoritmos detrás de la Inteligencia Artificial le otorgan cierto grado de autonomía a las decisiones de los “robots” o softwares, su inherente capacidad de aprendizaje automático o Machine Learning la expone a entrenarse continuamente con los datos creados por sociedades que efectivamente, aún reproducen discursos y pautas de comportamientos racistas, machistas y clasistas.

Inteligencia Artificial y su relación con la Sociedad

Durante el último tiempo, las crisis políticas se han sucedido alrededor del mundo. La desconfianza de parte de la ciudadanía en las instituciones públicas ha abierto grietas que permiten el avance de populismos e incluso autoritarismos de distinto signo político. Este aparente agotamiento de la democracia liberal, impulsa a politólogos, sociólogos y otros profesionales de las ciencias sociales y humanas a buscar alternativas que permitan contener o mejorar el estado de las cosas ante lo que parecen ser signos inequívocos del fin de un ciclo político relativamente estable.

La preocupación por este tema es amplia, al punto que, desde otros campos del saber, tradicionalmente alejados de cuestiones políticas, también aparecen sugerencias para superar esta escalada de inestabilidad política. Una de las propuestas más singulares en este sentido proviene de un académico del prestigioso MIT, el físico chileno César Hidalgo, que sugiere crear una democracia artificial. ¿Qué es esto? Pues nada menos que delegar las decisiones sobre políticas públicas en manos de un software basado en Aprendizaje Automático (Machine Learning) e Inteligencia Artificial.

El mecanismo es, en principio sencillo: el software captura y analiza datos de redes sociales y trasfondos ideológicos de los distintos usuarios. Con esta información se puede diseñar un representante o “senador” virtual que, con alto grado de acierto y nulos niveles de corrupción, se encargará de deliberar por nosotros en espacios de discusión política.

En Japón, país que siempre deslumbra por sus avances en el campo de la Inteligencia Artificial y la robótica, el 2018 adelantaban esta propuesta presentando al primer candidato a alcalde robótico:  Michihito Matsuda. Entre sus propuestas, el candidato ofrecía poder discernir acerca de los genuinos intereses de los habitantes del distrito que aspiraba a representar. Este ambicioso objetivo lo lograría operando en un supuesto plano en el que se diluiría el contenido ético de la política, para dar paso a decisiones basadas en la estadística más depurada. Matsuda, el robot, al contrario que nuestros políticos tradicionales, se situaría más allá del bien y el mal.

En medio del desconcierto político, estas ideas sin duda pueden ser atractivas para los tecnófilos más entusiastas. Sin embargo, la duda se presenta cuando, pese al optimismo, ya podemos constatar tendencias no muy democráticas en la Inteligencia Artificial. Es el caso de la discriminación racial, de género y clase que según  algunos expertos, advierten, ya se han podido observar en algoritmos.

Entre los casos más polémicos que han generado controversia el último tiempo, podemos mencionar la asociación de imágenes de cocinas a mujeres antes que a hombres o, en Estados Unidos, la asociación de nombres utilizados por los afroamericanos a actividades delictuales, mientras que a nombres que por lo general los utiliza la población blanca resultaban favorecidos en cuanto a estas asociaciones.

Es que la Inteligencia Artificial no es neutral, como nos sugiere el físico César Hidalgo o el candidato robótico de Japón. Primero que todo, es importante señalar que los algoritmos detrás de la Inteligencia Artificial son diseñados por humanos de carne y hueso, y ellos, a menos que se encuentren muy sensibilizados respecto de las distintas formas de discriminación social, tenderán a reproducir, incluso involuntariamente, en menor o mayor medida, patrones históricos de discriminación en el diseño de los algoritmos.

En general, los equipos de investigación en Inteligencia Artificial cuentan con una alta presencia de hombres blancos. Las mujeres, la población racializada o aquella en situación de pobreza o vulnerabilidad social, no suelen tener una alta representación en estos equipos. De este modo, es esperable que en su aspecto ligado al  procesamiento de datos no exista mayor preocupación o filtros que logren discernir qué y cómo se procesarán datos que pueden fortalecer la discriminación social.

Pero más allá del diseño de los algoritmos, el mayor problema son los datos. Es que, aunque los algoritmos detrás de la Inteligencia Artificial le otorgan cierto grado de autonomía a las decisiones de los “robots” o softwares, su inherente capacidad de aprendizaje automático o Machine Learning la expone a entrenarse continuamente con los datos creados por sociedades que efectivamente, aún reproducen discursos y pautas de comportamientos racistas, machistas y clasistas.

Este tipo de casos nos invitan, paradójicamente, a discriminar en el sentido más propio de la palabra, es decir a discernir acerca del verdadero potencial, así como las dificultades y los límites con los que topa la Inteligencia Artificial con especial atención a sus impactos en el ámbito social y político. Para ello, aunque muchas veces la rehuyamos, la discusión nos lleva inevitablemente al plano ético y normativo.

Porque si en el futuro dejaremos decisiones tan importantes como, por ejemplo, las que generan las políticas públicas, en manos de la Inteligencia Artificial, debemos al menos preguntarnos: ¿Es moralmente neutral la Inteligencia Artificial? ¿Está libre de conflictos de interés o posibilidad de corrupción? ¿Es deseable que las decisiones sean tomadas por máquinas que cargan con los patrones históricos de discriminación que heredan de sus diseñadores? ¿Es democrático un sistema que recoge las peores conductas sociales de la actualidad y las convierte en verdad estadística?

Respondido eso, tal vez, en el futuro, la Inteligencia Artificial pueda ser, por qué no, una gran aliada de la política en la mejora de las sociedades.


Fuentes utilizadas en este artículo:

https://www.eldiario.es/tecnologia/sesgos-genero-algoritmos-circulo-perverso-discriminacion-linea-vida-real_129_7198975.html

https://www.lavanguardia.com/vida/20171024/432320320392/inteligencia-artificial-sexismo-racismo-discriminacion.html

https://ctxt.es/es/20200203/Culturas/30737/inteligencia-artificial-sesgos-racistas-sanidad-estadounidense-gabriela-martinez.htm

https://www.xataka.com/inteligencia-artificial/algoritmos-sesgo-racial-genero-problema-que-venimos-arrastrando-anos-80

https://theconversation.com/discriminacion-racial-en-la-inteligencia-artificial-142334

https://nmas1.org/news/2018/04/17/ia-politicos

https://otaquest.com/tama-city-ai-mayor/


Acerca del Autor de este Artículo

ANDRÉS FONSECA LÓPEZ

Profesional en Ciencias Sociales, Económicas y Gestión de Proyectos. Licenciado en Filosofía, estudios de Máster en Psicología y posgrados en Trabajo Social, Innovación y Emprendimiento. Especializado en Estudios del Desarrollo, Economía Política, Cooperación al Desarrollo y Derechos Humanos.


Oferta Formativa

Máster en Dirección y Gestión de la Ciberseguridad

La Ciberseguridad ha pasado de ser un actor secundario a convertirse en un elemento fundamental de la estrategia corporativa, cuya gestión debe planearse y ejecutarse mediante un enfoque general orientado al cumplimiento de los objetivos estratégicos.

Más información en nuestra página: https://www.iniseg.es/ciberseguridad/masteres-oficiales/master-en-direccion-y-gestion-de-la-ciberseguridad.html

 

 

 

Share on FacebookShare on Google+Tweet about this on TwitterShare on LinkedInEmail this to someonePrint this page

Dejar una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *


*