IA: Intencionalidad Artificial

por 1 Abr 2017Ética, Inteligencia artificial

La Plaza del Campidoglio se halla en lo alto de una de las siete colinas de Roma, la Colina Capitolina. Durante la Edad Media esta plaza fue el centro político y civil, que se alzaba como continuación del Foro Romano. Con el tiempo fue perdiendo relevancia y acabó convertida en lugar de pasto para las cabras. En 1537 el papa Pablo III encargó a Miguel Ángel la remodelación de la plaza, ante su estado arrumbado y por ser el escenario previsto para el desfile triunfal de bienvenida al emperador Carlos V. Miguel Ángel, con su genio nato, creó una obra maestra de la arquitectura, no sólo por ordenar geométricamente un espacio asilvestrado, sino por su visión innovadora.

La notoria innovación de Miguel Ángel fue abrir la nueva plaza hacia la Basílica de San Pedro del Vaticano, en construcción por entonces, al ser el renovado centro de poder de toda Europa y dar la espalda al Foro Romano, antiguo poder civil. Aquello supuso un cambio manifiesto, cargado de intención, y con un mensaje claro en apoyo hacia el poder papal. Hoy puede que no nos demos cuenta, pero en aquel momento fue reconocido por todos, pues la única vista desde la plaza eran los dominios papales. Todo, hasta una plaza, es susceptible de ser el vehículo de ideas o valores de las personas.

Podemos pensar que afortunadamente hoy no ocurre tal, pues vivimos en un mundo rodeado de tecnología. Un espacio libre de ideas, ajeno a pasiones, que tan solo nos ofrece información de forma neutral para que nosotros podamos tomar decisiones sin injerencias de terceros. Falso.

Podemos pensar que la tecnología es un espacio libre de ideas, ajeno a pasiones, que tan solo nos ofrece información de forma neutral para que nosotros podamos tomar decisiones sin injerencias de terceros. Falso.

Pensamos que la tecnología no tiene valores. Que está ahí. Decimos que esto o aquello “aparece en Internet”, como si eso fuera garante de libertad o, lo que es peor, aval de la verdad. O bien utilizamos frases tales como “el sistema dice…” o “la aplicación recomienda”, en una forma irreflexiva e irresponsable de zanjar una cuestión al subyugar nuestra voluntad a un ente tecnológico supuestamente ecuánime, libre y justo.

Pero la información que recibimos de la tecnología no está libre de intención. Cuando un “sistema dice” algo, en realidad significa que un algoritmo (conjunto de operaciones matemáticas) ha ejecutado una serie de operaciones totalmente definidas por una persona. Luego en lugar de “el sistema dice”, más bien debiéramos pensar “alguien dice”; o “alguien ha decidido”, pues en realidad no sabemos quién es el que decide.

Esta situación la podemos ver claramente en los mensajes de error que aparecen en las aplicaciones. Hace unos años cuando una aplicación fallaba aparecía la frase “error del sistema”, como si “el sistema” se hubiera equivocado. Hoy sin embargo es más común leer algo similar a “Ups, hemos debido hacer algo mal” ante un funcionamiento erróneo de una aplicación. Esto es un avance en el reconocimiento propio de la responsabilidad de los diseñadores, pero quizá no suficiente.

La falsa sensación de autonomía de la tecnología puede tener una repercusión más importante si hablamos de inteligencia artificial o robótica. La inteligencia artificial y los robots no están libres de la intencionalidad humana.

La falsa sensación de autonomía de la tecnología es más peligrosa en la inteligencia artificial y la robótica. La inteligencia artificial y los robots no están libres de la intencionalidad humana

En el caso de la inteligencia artificial se une un elemento más en favor de la incorporación de valores a la tecnología: la aplicación (el algoritmo) “aprende”. La inteligencia artificial se sustenta en algoritmos que son capaces de modificar sus operaciones, y por tanto sus resultados, en base a los sucesivos datos de entrada. Y estos datos dependen de nuestras intenciones.

El caso más simple lo podemos ver en las noticias que nos aparecen en las páginas de redes sociales: estas noticias dependen de las noticias que hemos visto previamente. O bien los resultados de búsqueda que nos aparecen en Google dependen de los resultados que hemos pinchado en búsquedas anteriores. Parece que dichas aplicaciones “aprenden” de tu comportamiento y “toman decisiones” en tu favor, pero tan sólo ejecutan un algoritmo variable que alguien ha programado. Alguien que, probablemente, no sepamos quién es.

Esta percepción se complica cuando hablamos de inteligencia artificial algo más sofisticada o si pensamos en robots. Según los fabricantes del famoso robot Pepper, éste es capaz de interpretar tus emociones y quiere hacerte feliz. La primera cuestión puede ser cierta, en el sentido de que tomando como entrada tus rasgos faciales, por ejemplo, tu boca arqueada hacia arriba, pueda dar como resultado una salida una frase como “te veo feliz”; la segunda afirmación no es cierta: un robot no “quiere” nada, tan solo actúa según ha sido programado. Más bien, alguien (el diseñador del robot) quiere algo sobre ti. Alguien que, probablemente, no sepamos quién es.

Detrás de una respuesta compleja de un robot, tan solo hay un algoritmo complejo y alguien que ha diseñado tal algoritmo

De manera similar ocurre con Jibo, un robot, esta vez no humanoide como Pepper, sino un pequeño dispositivo de sobremesa con una especie de ojo único y capaz de contonearse; con pocos elementos muestra un reducido pero eficaz conjunto de emociones. Se dice que es un nuevo tipo de robot, y que nunca deja de aprender. Esto último es cierto, pero sólo modifica sus respuestas según se le ha programado que debe hacer.

En ambos casos, los dos robots actúan según sus creadores, es decir, según sus programadores, o las organizaciones tras dichos programadores. Debemos tener presente que, a pesar de sus respuestas complejas, no tienen independencia, sino que siguen la intencionalidad de sus creadores. Detrás de una respuesta compleja sólo hay un algoritmo complejo. Pepper no sonríe, sino que alguien ha decidido que cuando tú sonríes, el robot haga unos determinados movimientos. Estos ejemplos no ofrecen peligro aparente, pues están diseñados para ser amables, pero en algún momento esto puede que no sea así.

La Plaza del Campidoglio la hizo Miguel Ángel y ofrece una intencionalidad de su verdadero dueño, el Papa Pablo III. Parece imposible, pues sólo hablamos de una plaza, alejada de toda connotación política o social. Lo mismo ocurre con la inteligencia artificial, aparentemente libre de toda intencionalidad. Pero no es así. Cualquier hecho creado por el ser humano, está condicionado por el ser humano, como la plaza de Campidoglio, como los robots. Nada nuestro está libre de intención. En el caso de la inteligencia artificial el riesgo radica en que desconocemos la intención del diseñador y al mismo diseñador.

Pero la obra de Miguel Ángel tiene una diferencia con la inteligencia artificial. No pensemos que Miguel Ángel fue como un robot en manos del Papa. Primero porque Miguel Ángel pudo decir que no al Papa, y aun diciendo que sí, se diferencia en que creó algo nuevo. ¿Puede un robot crear?

 

Pin It on Pinterest