Por un lado, Estados Unidos, que mantiene la primacía tecnológica gracias a la investigación avanzada de actores públicos, como Darpa, y privados, como Google, Amazon o Facebook. Por otro, China, a la vanguardia en el sector del reconocimiento de imágenes y cuyo objetivo es convertirse en líder de la inteligencia artificial (IA) para 2030, también gracias a las enormes inversiones públicas y a leyes sobre la privacidad muy flexibles. En este escenario, Europa parece desaparecer.

Sin embargo, en abril de 2018, la Comisión Europea dio un golpe en la mesa y presentó un plan de inversión en el sector tecnológico. 1.500 millones de euros en dos años y el intento de recaudar al menos otros veinte del sector privado. El proyecto más ambicioso es la creación de un laboratorio europeo conjunto sobre IA (llamado Ellis, Laboratorio Europeo de Aprendizaje y Sistemas Inteligentes), que cuenta con el apoyo de realidades europeas y americanas.

Todo esto representa un claro paso adelante, aunque no suficiente para eliminar los temores de muchos expertos sobre el retraso irrecuperable de Europa. Esta es también la razón por la cual el Viejo Continente parece haber decidido centrarse en un aspecto que, especialmente en este campo, no siempre recibe el valor que se merece: la ética.

Pautas éticas para la inteligencia artificial

La Comisión Europea fue la primera institución en el mundo en redactar, en abril de 2019, unas “pautas éticas para la inteligencia artificial“. El documento, elaborado por 52 expertos, establece que los sistemas de deep learning deben ser, desde un punto de vista técnico, “respetuosos de la ley y los valores éticos; en ambos casos teniendo en cuenta el entorno social”.

Para lograr estos objetivos, los expertos europeos se centraron en siete requisitos clave. En primer lugar, los seres humanos siempre deben poder supervisar los sistemas de IA y siempre debe estar disponible un plan B “en caso de que algo salga mal”, además de cumplir con todas las normas de privacidad.

Y es más, las decisiones de los sistemas de deep learning deben ser transparentes (y entendibles por cualquier parte interesada, no solo por los técnicos), no verse afectadas por prejuicios sociales y deben producir beneficios para toda la sociedad, evitando exacerbar la discriminación y la marginación de los grupos más vulnerables.

Ahora, la voluntad de la UE de regular este ámbito tecnológico parece haberse vuelto aún más firme. De hecho, después de San Francisco y otras ciudades de EE.UU., también la Comisión Europea está considerando prohibir el reconocimiento facial. La propuesta, contenida en el borrador de un white paper sobre inteligencia artificial, establece que “el uso de tecnologías de reconocimiento facial por parte de actores públicos o privados queda prohibido por un período específico de tiempo (por ejemplo, 3-5 años), durante el cual se deberá identificar y desarrollar una metodología sólida para evaluar los impactos de esta tecnología y posibles medidas de gestión de riesgos”.

La Unión Europea plantea prohibir el reconocimiento facial

La noticia, publicada en enero por la revista Euractiv, que tuvo acceso al borrador redactado por la Comisión, representa un importante pero no inesperado paso adelante. Como ya sucedió en el campo de la protección de datos con el RGPD (Reglamento general de protección de datos), la Unión Europea quiere ponerse en la cabeza también del desarrollo de directrices que garantizan la fiabilidad y la ética de la inteligencia artificial.

La propuesta para la prohibición temporal del reconocimiento facial podría frustrar los planes de algunas naciones europeas. Alemania, por ejemplo, tiene previsto utilizar esta tecnología con fines de seguridad en 134 estaciones y 14 aeropuertos. Por su parte, la policía británica ha concluido recientemente una serie de experimentos en las calles de Londres. Ahora bien, en este caso, el Brexit sacaría al Reino Unido del apuro.

El reconocimiento facial, si se incorpora a las cámaras de vigilancia, permite comparar a las personas grabadas en los vídeos con las imágenes contenidas en las bases de datos de las fuerzas del orden. De ahí surge el temor de que se pueda activar una vigilancia masiva de los ciudadanos, monitoreándolos constantemente en sus prácticas diarias, con una seria invasión de la esfera privada. Algo que, por ejemplo, ocurre regularmente en China, como también se ha podido ver en estos días por la crisis del coronavirus.

Ver también
Ver también
Ver también

En el pasado, el reconocimiento facial ya ha demostrado ciertas carencias, especialmente cuando se trata de reconocer a personas de minorías étnicas que viven en los Estados Unidos y Europa. Un problema conocido como ‘perjuicio del algoritmo’. De hecho, estos modelos matemático se entrenan utilizando bases de datos fotográficas formadas mayoritariamente por hombres y mujeres blancos. Por lo tanto, no desarrollan adecuadamente la capacidad de reconocer a las minorías. De ahí el riesgo de cometer errores y graves abusos.

Una forma de proteger la privacidad de las personas

Por todas estas razones, el uso del reconocimiento facial es visto con gran preocupación no solo por los activistas de derechos civiles, sino también por algunas administraciones. Por ejemplo, el garante de privacidad sueco multó por 20.000 euros a un municipio que utilizó esta tecnología para monitorear a los estudiantes dentro de las escuelas. Por su parte, la comisión francesa para la protección de datos personales dijo que el reconocimiento facial viola el RGPD, que establece el “derecho de los ciudadanos a no estar sujetos a decisiones tomadas exclusivamente a través de procesos automáticos, incluida la elaboración de perfiles”.

Tendremos que esperar un poco más antes de hacernos una idea clara de cómo la Comisión Europea quiere concretar su visión de “inteligencia artificial ética y confiable“. Pero hay algo seguro: en una fase en la que se utilizan algoritmos de deep learning para seleccionar a los candidatos para un trabajo, conceder una hipoteca o la prestación por desempleo, o elegir qué preso podrá salir de la prisión, la postura tomada por Europa es un hito importante.

Lo que es evidente es que nuestro continente, de alguna manera, admite su incapacidad para competir desde un punto de vista exclusivamente tecnológico, y trata de usar su fuerza como mercado para hacerse árbitro del uso responsable de las nuevas tecnologías. Primero vino el RGDP, luego las líneas éticas en el campo de los coches autónomos, y ahora se centra en la inteligencia artificial. El papel de Europa se parece cada vez más al del viejo sabio que lucha con unos muchachos nerviosos y poco juiciosos (Estados Unidos y China). Si logra establecer sus principios fundacionales en un campo de importancia crucial como el de la inteligencia artificial, ciertamente podrá cantar victoria.

Un proyecto de:

© 2022 CECA.
Todos los derechos reservados.

Ir arriba