Leyendo ahora
Laboratorios de ética digital para adelantarse a los problemas del futuro

El proceso de transformación digital que está experimentando nuestra sociedad plantea numerosas dudas en torno a aspectos como la privacidad de datos, el desarrollo y aplicaciones de la inteligencia artificial, el derecho a la desconexión laboral o el uso de la tecnología Big Data.

Los problemas derivados de estas cuestiones son ya una realidad tangible. Y en el futuro es muy probable que tengamos que enfrentarnos a nuevos desafíos relacionados con la tecnología que todavía no somos capaces ni de imaginar.

Las primeras respuestas a estas cuestiones están llegando desde el ámbito académico, como el Digital Ethics Lab de la Universidad de Oxford, el Center for Digital Ethics & Policy de la Universidad de Loyola de Chicago, The Alan Turing Institute o el Ada Lovelace Institute. Estas instituciones están impulsando laboratorios de ética digital con el objetivo de anticiparse a las posibles complicaciones que puedan surgir ante un uso poco apropiado de la tecnología.

Estos laboratorios de ética digital constituyen un foro donde se promueve el debate y la investigación acerca de la utilización de la tecnología y sus límites. Por ejemplo, el Digital Ethics Labs ha publicado trabajos acerca de la ética del Big Data biomédico, la responsabilidad en la toma de decisiones automatizadas, pautas éticas para la regulación de conflictos cibernéticos, políticas y ética de la gobernanza e infraestructura de internet, bienestar digital, implicaciones éticas y sociales de la inteligencia artificial, el impacto que tienen los mensajes ‘virales’ en redes sociales y aplicaciones de mensajería, etc.

Asimismo, el Center for Digital Ethics & Policy cuenta con ensayos sobre la ética del coche autónomo, el impacto medioambiental de los servicios de computación en la nube, la repercusión del uso de Big Data en procesos electorales, etc.

The Alan Turing Institute dispone de un grupo especializado en la ética de datos, que colabora con diferentes instituciones británicas -como el Servicio Nacional de Salud (NHS), la policía de West Midlands o la Royal Society-, aportando su visión respecto a la aplicación de la tecnología de la salud, el uso de la analítica de datos con el fin de prevenir delitos, el gobierno de datos o el impacto ético de la ciencia de datos. Además, el año pasado organizó un encuentro para abordar el uso de los datos y de la inteligencia artificial en el sector financiero.

Por su parte, el Ada Lovelace Institute ha tratado asuntos candentes como el manejo de datos en situaciones de pandemia como la causada por la COVID-19. También ha publicado acerca del gobierno de datos por parte del NHS británico, sobre la regulación del reconocimiento facial, etc.

Traslado al mundo privado

Las reflexiones que se plantean estas instituciones también pueden servir de guía a todo tipo de organizaciones privadas. Para ello, las empresas necesitan constituir comisiones o comités interdepartamentales, conformados por personas de todas las áreas -legal, tecnologías de la información, comercial, etc.-, con una labor transversal y respaldada desde la alta dirección.

Es decir, no se trata de consultar con expertos en ética digital ajenos a la compañía, sino de formar grupos multidisciplinares que aporten su visión desde su conocimiento de la propia empresa. Aunque también se puede contar con el refuerzo de algún experto externo.

La misión de estos laboratorios consistirá en analizar los desafíos éticos que comporta la transformación digital en el seno de su compañía para encontrar la manera de aprovechar todo el potencial de la tecnología, pero sin menoscabar los derechos y libertades de los clientes, proveedores o los propios empleados. Y esto debe conducir a políticas de empresa que mejoren la posición de la organización ante posibles conflictos.

Derecho a la desconexión digital

Por ejemplo, estos grupos pueden debatir acerca del derecho a la desconexión digital de los trabajadores. La Ley de Protección de Datos Personales y garantía de los derechos digitales reconoce este derecho, pero su aplicación práctica en el ámbito empresarial dista mucho de ser una realidad. Las llamadas o mensajes a través de aplicaciones de mensajería fuera del horario laboral son frecuentes en muchos trabajos.

Esta misma ley también recoge asuntos como el derecho a la intimidad en el uso de dispositivos digitales puestos a disposición de los empleados y frente al uso de dispositivos de videovigilancia y geolocalización.

La actuación del laboratorio de ética digital puede favorecer la adaptación de las empresas a las exigencias recogidas en la normativa, previniendo posibles reclamaciones futuras, mejorando el clima laboral, etc.

Ver también

Sesgo de los algoritmos

Otro aspecto objeto de discusión puede ser el sesgo de los algoritmos empleados por la organización en sus operaciones. Apple se vio envuelta en una polémica hace algunos meses por el límite de crédito otorgado para su tarjeta Apple Card, emitida por Goldman Sachs. Un empresario estadounidense denunció el supuesto sexismo del algoritmo empleado por la compañía para fijar el límite de crédito concedido. En su caso, el límite obtenido era 20 veces superior que el otorgado a su mujer, pese a que ambos presentan declaración de impuestos conjunta y que ella incluso cuenta con mejor scoring crediticio.

Un comité de ética digital podría anticiparse a la aparición de este tipo de problemas, diseñando protocolos de prueba para detectar posibles sesgos discriminatorios de este tipo.

Uso del Big Data

La utilización de Big Data también puede tener consecuencias que convendría discutir en estos laboratorios de ética digital. Suele citarse como ejemplo una anécdota protagonizada por Target en Estados Unidos, relatada en The New York Times Magazine.

En este caso, un hombre acudió a un supermercado de la cadena porque habían enviado a su hija adolescente cupones de descuento para ropa de bebé y premamá, cunas, etc. Se quejaba porque parecía que el supermercado estuviera alentándola a quedarse embarazada. Pero su hija realmente ya lo estaba, pese a que él lo desconocía. Target pudo deducirlo a partir de los cambios en los patrones de consumo de las mujeres expectantes, como el aumento de la compra de cremas sin perfume, la adquisición de suplementos de calcio, magnesio y zinc, etc.

De este modo, aunque la segmentación con fines comerciales puede ser muy útil, puede colisionar con la intimidad de las personas, que pueden sentir invadida su privacidad. Y esto puede afectar gravemente a la reputación de la compañía, por lo que es un tema que debería discutir un comité de ética.

Otro peligro del uso de Big Data es la hipersegmentación. Por ejemplo, la utilización de los datos individuales de cada persona a la hora de tarificar un seguro puede ser muy interesante para ajustar la prima al riesgo real del cliente. Esto beneficia tanto a la aseguradora como al asegurado, ya que los precios se fijan más eficientemente, pero también tiene consecuencias negativas. Por un lado, perjudica a las personas con un perfil de riesgo más elevado, que verán incrementada sustancialmente su cuota, pudiendo llegar a hacer inaccesible el seguro. Por otra parte, elimina el carácter mutual intrínseco al seguro, basado en el reparto del riesgo entre una colectividad. Estos son solo algunos ejemplos de los temas que podrían formar parte del debate promovido en el seno de los laboratorios de ética, pero podrían ser muchos más, como el impacto de la inteligencia artificial y la robotización en la destrucción de puestos laborales, el uso que se hace de los datos de los propios empleados, etc.

Un proyecto de:

© 2022 CECA.
Todos los derechos reservados.

Ir arriba