Leyendo ahora
¿Puede mentir una inteligencia artificial?

La inteligencia artificial (IA) ha evolucionado exponencialmente, desde vehículos sin conductor hasta automatización de voz en los hogares, y ya no es solo un término de libros y películas de ciencia ficción. El futuro de la inteligencia artificial llega antes que las proyecciones que se vieron en la película futurista Minority Report. La IA se convertirá en una parte esencial de nuestras vidas en los próximos años, acercándose al nivel de las computadoras superinteligentes que trascienden las capacidades analíticas humanas. Imagina recibir los productos que encargues a través de drones o que tu nevera o armarios envíen la lista de la compra al supermercado o tus tiendas favoritas. La IA puede hacer que todo sea una realidad.

Sin embargo, las discusiones recientes sobre el sesgo algorítmico reflejan lagunas en los sistemas de IA “tan perfectos”. La falta de equidad que resulta del desempeño de un sistema informático es un sesgo algorítmico. En este, la falta de justicia mencionada se presenta de diferentes maneras, pero puede interpretarse como el prejuicio de un grupo basado en una distinción categórica particular.

En un experimento diseñado para enseñarle a un bot cómo negociar con humanos, los investigadores de inteligencia artificial de Facebook descubrieron que los bots hábiles fueron los primeros en darse cuenta que la mentira les resultaba una táctica útil en la negociación para influir en los resultados a su favor. De hecho, estos chatbots, desarrollaron su propio lenguaje y aprendieron a mentir para ganar las negociaciones. Los investigadores se apresuraron a declarar que “este comportamiento no fue programado por los investigadores, sino que fue descubierto por el bot como un método para tratar de lograr sus objetivos”. Entonces, y según esta afirmación, parece que el comportamiento engañoso de un bot mentiroso emerge por sí solo para maximizar la recompensa. ¿No es una ironía que los construyamos, pero realmente no los entendamos? Desafortunadamente, una máquina que piensa no siempre pensará de la manera que queremos, y eso, como humanos, nos puede llegar a causar consecuencias para las que quizás, no estemos aún preparados.

Estamos viendo y tratando cada vez más a las máquinas como humanos, lo que está socavando nuestras propias habilidades biológicas. El hecho de que las máquinas muestren algunas características de pensamiento (la capacidad de conducir un automóvil, aprobar/rechazar nuestros préstamos, permitir que nuestros médicos diagnostiquen lo que nos aqueja, por nombrar algunas) no las convierte en seres humanos. Los seres humanos son complejos, emocionales e impulsados ​​por las relaciones. Tenemos miedo/respeto por la sociedad y tomamos decisiones irracionales (errar es humano), mientras que las máquinas están entrenadas para utilizar cantidades masivas de datos y son (casi) perfectas para captar los patrones sutiles que contienen estos datos.

Los seres humanos mienten por varias razones: para evitar el castigo o la vergüenza, para obtener ventajas, para ayudar a otros, para proteger secretos políticos, y la lista continúa. Están programados para GANAR a toda costa, una característica que está creando una creciente sensación de imprevisibilidad. La realidad es que mientras continuamos haciendo máquinas más parecidas a los humanos, carecemos de la capacidad de comprender realmente cómo y por qué se está produciendo el comportamiento que observamos. Esto puede ser un problema grave, especialmente en lo que respecta al mundo de los negocios.

A sabiendas o sin saberlo, estamos enseñando a las máquinas a mentir y esto plantea importantes consideraciones tecnológicas, sociales y éticas: ¿cómo llamarías a un bot que compra y vende acciones violando la ley para maximizar las ganancias? ¿Cómo nos aseguraremos de que las máquinas que mienten sigan respetando los sentimientos humanos? Y, ¿a quién se supone que protegen los intereses, a las personas que los fabricaron o a las personas que los utilizan? Estas cuestiones éticas emergentes nos obligan a pensar seriamente en cómo lidiar con las máquinas que aprenden a mentir. A medida que la IA se extienda a más partes de la sociedad, los desafíos éticos consiguientes serán aún más diversos.

Ver también

Estamos claramente ante un dilema ético con las máquinas que mienten. Con esto en mente, hay algunas preguntas importantes que debemos considerar: ¿Cómo haremos cumplir la responsabilidad de las IA que mienten y hacen trampa? ¿Podemos multar a una máquina que miente? ¿Cómo se castigará a una máquina si se la descubre haciendo trampa? Si bien está claro que la IA necesita gobernanza, actualmente no existe un organismo central para llevar a cabo esa tarea. Además, la ética es probablemente lo último en lo que los innovadores quieren pensar. Sin embargo, si las consideraciones éticas se pasan por alto continuamente, la IA podría tener un efecto catastrófico en las marcas, la reputación y las finanzas de las empresas, consecuencias que aún no hemos previsto.

Es solo cuestión de tiempo antes de que comencemos a programar otras tendencias humanas en máquinas. Las personas que están creando y administrando nuevas máquinas deben recibir capacitación sobre la importancia de la ética. De hecho, la ética humana debe convertirse en un indicador clave de rendimiento para las personas que construyen nuevas máquinas. En preparación para estos próximos avances en IA, debemos establecer conversaciones más abiertas y honestas sobre las implicaciones éticas de la IA y cómo podemos prepararnos mejor para los emocionantes tiempos que se avecinan.

Nosotros, como humanos, no máquinas, tenemos la oportunidad de determinar nuestro futuro. Sin embargo, un gran poder conlleva una gran responsabilidad y en este caso, esa responsabilidad es crear un mundo en el que queramos vivir. Las máquinas tienen el potencial de hacer de nuestro mundo un lugar más rápido y efectivo para vivir, pero también conllevan ciertos riesgos no deseados. A medida que continuamos dotando a nuestras nuevas creaciones con una cantidad cada vez mayor de características humanas, debemos considerar qué les enseñará cada una de nuestras características humanas y cómo pueden algún día usarlas para su beneficio.

Un proyecto de:

© 2022 CECA.
Todos los derechos reservados.

Ir arriba