Los algoritmos están presenten en muchos ámbitos de nuestra vida. Cuando buscamos algo en Google, sus algoritmos nos ofrecen los resultados más relevantes para nosotros, en función de un conjunto de parámetros. Lo mismo sucede cuando Netflix o Spotify nos recomiendan una serie o una canción, cuando Facebook nos muestra unos u otros contenidos y nos ofrece sugerencias, cuando una app de citas escoge perfiles afines al nuestro, etc.

También intervienen en otros asuntos más trascendentales. Por ejemplo, los bancos se ayudan de algoritmos para decidir si nos conceden una hipoteca. También están detrás de cada decisión que toma un vehículo autónomodurante la conducción. Y muchas empresas está utilizando algoritmos para cribar solicitudes en sus procesos de selección en ofertas de empleo.

Así pues, la digitalización y la automatización de todo tipo de tareas ha hecho que los algoritmos intervengan casi a cada momento en nuestro día a día, guiando nuestro devenir. Por eso, cabe preguntarse qué son dichos algoritmos, cómo se diseñan y si son neutrales o pueden estar condicionados por determinados sesgos.

¿Qué son los algoritmos?

Un algoritmo es un conjunto de operaciones, instrucciones, pasos o reglas definidas que permiten llegar a la resolución de un problema concreto. A priori, los algoritmos suponen una manera objetiva de tomar decisiones, atendiendo a un conjunto de elementos o inputs. A partir de estos datos, las máquinas solamente tienen que seguir los pasos prefijados para dar con una solución.

Sin embargo, la objetividad de los algoritmos no es completa si su creación depende de programadores informáticos que se encargan de trasladar situaciones reales al lenguaje de las máquinas. Así, pueden conceder más o menos relevancia a unos factores, condicionando la solución a la que lleguen. Además, la respuesta de los algoritmos dependerá, en gran medida, de los datos con los que se alimenten.

Por ejemplo, el algoritmo de Twitter permite ofrecer a cada usuario un contenido ajustado a su perfil, valorando diferentes elementos y otorgando distinto peso a cada uno, teniendo en cuenta aspectos como la actualidad del tuit, si ofrece contenido multimedia, interacciones del tuit, cuenta que lo publica, antigüedad e intensidad en la relación entre la cuenta del emisor y el receptor, etc. Todos estos parámetros son decididos por alguien, por lo que la decisión final no es puramente objetiva.

A esto hay que añadir un riesgo vinculado a la creciente complejidad de la tecnología. Las técnicas de inteligencia artificial han evolucionado tanto que ni siquiera los propietarios de los algoritmos saben con exactamente cómo funcionan o cómo llegan a tomar sus decisiones, convirtiéndose en ‘cajas negras’.

Riesgo de discriminación

Los algoritmos no son inmunes al peligro de un posible sesgo involuntario. Ya se han detectado varios casos en los que se ha producido la discriminación de diferentes colectivos. Por ejemplo, los Países Bajos han vetado un algoritmo que perjudica a las personas más desfavorecidas.

El problema reside en un sistema de análisis empleado para detectar posibles fraudes al Estado. Dicho sistema es empleado para estudiar múltiples datos de los contribuyentes -ingresos, impuestos, pensiones, subsidios, seguros, tipo de residencia, multas, integración, educación, deudas, etc.- con el fin de calcular mediante algoritmos su propensión a defraudar a la Administración.

La polémica surgió a raíz de un informe de un relator especial de la ONU sobre pobreza y derechos humanos, quien advirtió que dicha herramienta estigmatiza a los ciudadanos de menor renta y de origen inmigrante. Un tribunal neerlandés ha reconocido que el sistema vulnera la privacidad y los derechos de los ciudadanos, ya que el modelo de riesgo elaborado puede tener efectos no deseados, como la discriminación a determinados ciudadanos.

Otro ejemplo es la polémica surgida en torno al límite de crédito de la tarjeta Apple Card, que parece tener un sesgo sexista. Un empresario estadounidense publicó en su cuenta de Twitter que la compañía le otorgaba un límite de crédito 20 veces superior que el concedido a su mujer, pese a que presentan declaración de impuestos conjunta y que ella cuenta con mejor scoring crediticio.

Por otro lado, los algoritmos dependen de los datos sobre los que se sustentan. Por ejemplo, se ha detectado que los algoritmos de reconocimiento facial se nutren con conjuntos de datos que contienen más caras con rasgos caucásicos, por lo que están peor entrenadas para reconocer rostros de otros orígenes. Este sesgo puede generar problemas futuros con la policía o las fuerzas de seguridad si se producen errores de identificación en lugares como aeropuertos o fronteras.

También es un riesgo la posible perpetuación de algunos estereotipos. Amazon decidió dejar de utilizar un algoritmo en la selección de candidatos a sus ofertas de trabajo al descubrir que discriminaba a las mujeres. Esta herramienta estaba alimentada con los perfiles de los solicitantes de empleo de la última década, engrosada mayoritariamente por hombres. De esta forma, la inteligencia artificial del sistema infirió que los perfiles masculinos eran preferibles. 

Ver también

¿Cómo evitar el sesgo?

Gobiernos, instituciones y compañías tecnológicas son conscientes del desafío que comporta evitar estos sesgos, por lo que se está buscando la manera de resolver este problema.

En un artículo publicado por el Fondo Económico Mundial (FMI) se indican algunas medidas para evitar que se introduzca este sesgo. El primer paso es reconocer que el uso de tecnología no es completamente neutral. El mayor sesgo es creer que no se tiene ninguno.

También es fundamental identificar las responsabilidades. Por ejemplo, si un programa gubernamental se basa en software desarrollado por una empresa, que ha sido reempaquetado posteriormente por otra compañía, hay que determinar claramente en quién recae la responsabilidad si se detecta cierto sesgo discriminatorio. Si no es así, la responsabilidad se diluye, pasándose el problema de una a otra organización.

Además, es esencial que los algoritmos se basen en datos de entrenamiento de calidad, sin sesgos en la recopilación y presentación de esta información. Por ejemplo, para entrenar un sistema de reconocimiento de voz mediante inteligencia habría que incluir voces hombres y mujeres, de todos los perfiles de edad, con acentos diferentes, etc.

Igualmente, es indispensable mejorar la transparencia. Si no es posible explicar un algoritmo o cómo llega a las decisiones que adopta, el artículo del FMI defiende que no debería usarse. Si se carece de esta información, será imposible determinar por qué se llega a estas decisiones injustas o discriminatorias, impidiendo que las personas perjudicadas rebatan los resultados.

IBM está buscando soluciones a este problema. La compañía ha desarrollado un software que detecta automáticamente los sesgos de los algoritmos y explica las decisiones que toma. Asimismo, Google ha puesto en marcha un concurso de imágenes inclusivas, con el fin de recopilar un conjunto de fotos que reflejen una mayor diversidad que la que ofrecen los catálogos de los que actualmente se nutre la inteligencia artificial, en los que están sobrerrepresentadas la sociedad y la cultura europea y estadounidense. El objetivo es recopilar todo tipo de imágenes -situaciones, vehículos, paisajes, comidas, etc.- del mundo entero. Por su parte, el proyecto Gender Shades evalúa la precisión de la clasificación de sexo realizada por sistemas de reconocimiento facial mediante inteligencia artificial. En cualquier caso, se trata de una situación que todas las empresas deberían afrontar. Por ejemplo, las organizaciones pueden dotarse de laboratorios de ética digital, comisiones multidisciplinares compuestas por miembros de los diferentes departamentos de la compañía, que elaboren protocolos de prueba para detectar posibles sesgos en los algoritmos empleados en sus operaciones, con el fin de evitar la aparición de problemas en el futuro.

Un proyecto de:

© 2022 CECA.
Todos los derechos reservados.

Ir arriba