“La tecnología no es neutral y las consecuencias son obvias. Está cambiando el modo en que mantenemos conversaciones, nuestra forma de pensar y está causando estragos en nuestro sistema democrático”.[1] Las personas con menos recursos económicos y menos nivel educativo son las que lo están sufriendo primero.
Son varios los investigadores que prestan atención al tema de los problemas sociales derivados de la tecnología y sobre las implicaciones sociales de la inteligencia artificial:
La conclusión parece sencilla: El mundo digital está reproduciendo las desigualdades del mundo real. Los patrones con los cuales se entrenan a los algoritmos tienen un sesgo, reproducen estereotipos, y el sistema de inteligencia artificial lo toma como única verdad. Les estamos suministrando nuestras limitaciones, nuestra forma de discriminar. Otro aspecto al que hay que prestar atención es que se tiene conocimiento de empresas que, en la contratación de personal a través de patrones de reconocimiento y automatización, buscan personas que se parezcan a sus actuales empleados, y eso tiene un gran impacto en la diversidad, ya que están creando monoculturas.
Es la lógica dominante en un contexto de expertos que tienen conocimientos de programación, estadística y/o matemáticas y que pueden lidiar con fórmulas lógicas. Además, saben trasladar la forma de pensar de los humanos a los sistemas de procesamiento de datos. Para entender la injusticia en este mecanismo, que aclaro envuelve a los programadores, no se necesita ser un Data Scientist.
La buena noticia es que contamos con empresas interesadas en destinar recursos para analizar esos sesgos. Tal es el caso de Microsoft. El estudio Man is to Computer Programmer as Woman is to Homemaker, detectó que los hombres se asocian habitualmente con profesiones como políticos o programadores, y las mujeres con modelo, ama de casa, madre… Analizando cientos de textos se extrajeron esos patrones o estereotipos sociales que después replican los algoritmos. Esta es la razón por la cual, si buscas en Google imágenes de la palabra médico, aparecen fotos de hombres con chaquetas blancas. Si pones enfermero, verás mayormente mujeres. Inconscientemente, cuando la gente ve eso se refuerzan las formas más básicas de sesgo. Hay que empezar a cuestionar cómo se han construido esos sistemas.
Hacemos una alerta especial para los gobiernos y en nuestro contexto particular, Ecuador. Los gobiernos deben dejar de usar sistemas algorítmicos cerrados. La Ley de Transparencia debe obligarlos a permitir a expertos independientes auditen las fórmulas para detectar dónde están los sesgos. Es muy importante para asegurar la igualdad de oportunidades. Queremos ayudarlos a elaborar un mecanismo transparente que permita a los ciudadanos conocer en detalles, si sus datos se han procesado de forma correcta. Si no, nunca sabrán cómo se ha tomado una decisión que afecta directamente sus vidas.
Como toda investigación, partimos de una pregunta: ¿cómo afectan los algoritmos a los ciudadanos? La intención es avanzar en la aplicación pertinente y eficaz de la Inteligencia Artificial (IA) en la toma de decisiones pública.
[1] Tristan Harris, uno de los fundadores del proyecto que en 2016 dejó su puesto como diseñador ético en Google, donde estudiaba cómo modificar los productos para hacerlos menos intrusivos en la vida de los usuarios. Buscar Charla TED.
[2] Cathy O’neil. “Los privilegiados son analizados por personas; las masas, por máquinas”.
[3] Kate Crawford: “Los ricos temen la rebelión de las máquinas, no tienen otra cosa de la que preocuparse”.
Doctora en Ciencias Sociológicas
Investigadora de campos sociales
Redactora de contenido hipermedia
Sembradora de tendencias
binance
26 junio, 2024 at 2:15 pmThank you for your sharing. I am worried that I lack creative ideas. It is your article that makes me full of hope. Thank you. But, I have a question, can you help me?