Ética en el diseño de la tecnología

“La tecnología no es neutral y las consecuencias son obvias. Está cambiando el modo en que mantenemos conversaciones, nuestra forma de pensar y está causando estragos en nuestro sistema democrático”.[1] Las personas con menos recursos económicos y menos nivel educativo son las que lo están sufriendo primero.

Son varios los investigadores que prestan atención al tema de los problemas sociales derivados de la tecnología y sobre las implicaciones sociales de la inteligencia artificial:

  • Cathy O’neil, experta en algoritmos, analiza cómo el big data “aumenta” la desigualdad y “amenaza” la democracia. Defiende que los algoritmos generan injusticias porque se basan en modelos matemáticos diseñados para replicar prejuicios, equivocaciones y sesgos humanos.[2] La persona que diseña un algoritmo define el modo de proceder y no evaluamos su construcción ética, ni cómo entiende la sociedad a partir de las estructuras de poder. Es su opinión la que decide qué es importante.
  • Kate Crawford fundó en 2017 con otros colegas de la Universidad de Nueva York el AI Now Research Institute, un instituto independiente que pretende ayudar a los gobiernos a corregir los sesgos de desigualdad de sus algoritmos. Según comenta esta investigadora, su objetivo es acabar con las llamadas black boxes (cajas negras), sistemas automatizados y totalmente opacos que usan los gobiernos para decidir cuestiones fundamentales para la vida de las personas, como a quién conceden ayudas a la dependencia. “Nadie sabe cómo funcionan ni los criterios que se utilizan para entrenar a esas máquinas”.[3]

La conclusión parece sencilla: El mundo digital está reproduciendo las desigualdades del mundo real. Los patrones con los cuales se entrenan a los algoritmos tienen un sesgo, reproducen estereotipos, y el sistema de inteligencia artificial lo toma como única verdad. Les estamos suministrando nuestras limitaciones, nuestra forma de discriminar. Otro aspecto al que hay que prestar atención es que se tiene conocimiento de empresas que, en la contratación de personal a través de patrones de reconocimiento y automatización, buscan personas que se parezcan a sus actuales empleados, y eso tiene un gran impacto en la diversidad, ya que están creando monoculturas.

Es la lógica dominante en un contexto de expertos que tienen conocimientos de programación, estadística y/o matemáticas y que pueden lidiar con fórmulas lógicas. Además, saben trasladar la forma de pensar de los humanos a los sistemas de procesamiento de datos. Para entender la injusticia en este mecanismo, que aclaro envuelve a los programadores, no se necesita ser un Data Scientist.

La buena noticia es que contamos con empresas interesadas en destinar recursos para analizar esos sesgos. Tal es el caso de Microsoft. El estudio Man is to Computer Programmer as Woman is to Homemaker, detectó que los hombres se asocian habitualmente con profesiones como políticos o programadores, y las mujeres con modelo, ama de casa, madre… Analizando cientos de textos se extrajeron esos patrones o estereotipos sociales que después replican los algoritmos. Esta es la razón por la cual, si buscas en Google imágenes de la palabra médico, aparecen fotos de hombres con chaquetas blancas. Si pones enfermero, verás mayormente mujeres. Inconscientemente, cuando la gente ve eso se refuerzan las formas más básicas de sesgo. Hay que empezar a cuestionar cómo se han construido esos sistemas.

Hacemos una alerta especial para los gobiernos y en nuestro contexto particular, Ecuador. Los gobiernos deben dejar de usar sistemas algorítmicos cerrados. La Ley de Transparencia debe obligarlos a permitir a expertos independientes auditen las fórmulas para detectar dónde están los sesgos. Es muy importante para asegurar la igualdad de oportunidades. Queremos ayudarlos a elaborar un mecanismo transparente que permita a los ciudadanos conocer en detalles, si sus datos se han procesado de forma correcta. Si no, nunca sabrán cómo se ha tomado una decisión que afecta directamente sus vidas.

Como toda investigación, partimos de una pregunta: ¿cómo afectan los algoritmos a los ciudadanos? La intención es avanzar en la aplicación pertinente y eficaz de la Inteligencia Artificial (IA) en la toma de decisiones pública.

 

 

[1] Tristan Harris, uno de los fundadores del proyecto que en 2016 dejó su puesto como diseñador ético en Google, donde estudiaba cómo modificar los productos para hacerlos menos intrusivos en la vida de los usuarios. Buscar Charla TED.

[2] Cathy O’neil. “Los privilegiados son analizados por personas; las masas, por máquinas”.

[3] Kate Crawford: “Los ricos temen la rebelión de las máquinas, no tienen otra cosa de la que preocuparse”.

 

Comentarios

mood_bad
  • No hay comentarios todavía.
  • Agrega un comentario