Votemos qué está bien qué está mal

Votemos qué está bien qué está mal

Votemos qué está bien qué está mal

La preocupación por complacer o por convencer tiende a prevalecer sobre las exigencias de la razón. Y el amor al éxito, sobre el amor a la verdad. Toda democracia favorece la sofística

André Comte-Sponville

En cierta ocasión una piedra desprendida desde lo alto de un acantilado mató a un joven que estaba abajo, tranquilamente mirando el móvil junto a la playa. La piedra fue condenada por asesinato. De nada valieron los argumentos de la defensa que sostenían que la piedra estaba sujeta a la ineludible ley de la gravedad. El juez dictó que la piedra, como vehículo en movimiento, debería haber decidido de forma autónoma el desviar su trayectoria para así evitar la muerte de aquel inocente joven. Este mismo absurdo razonamiento ocurre con los vehículos de conducción autónoma.

Actualmente existe el debate de qué decisión debe tomar un vehículo autónomo cuando se encuentre ante una situación que afecte a la integridad física de las personas. Por ejemplo, cómo actuar si en su trayectoria se encuentra a una persona cruzando la calle.

Para avanzar en este debate el MIT ha creado la plataforma de crowdsourcing “Moral Machine”. El objetivo es “construir una imagen amplia (mediante «crowdsourcing») de la opinión de las personas sobre cómo las máquinas deben tomar decisiones cuando se enfrentan a dilemas morales”. Para ello el MIT propone una serie de escenarios con dilemas morales relacionados con vehículos autónomos sobre los cuales los participantes deciden soluciones.

Por ejemplo, en una calle sin escapatoria por los laterales, un coche autónomo que no puede frenar se dirige hacia un paso de cebra sobre el cual cruzan ciertos viandantes. Se plantea entonces el dilema de si el vehículo debe seguir recto y matar a los viandantes que están en su carril cruzando la calle, o desviarse y matar a aquellos que están cruzando a la altura del carril contrario. Las disyuntivas que se plantean radican en el número y tipo de personas a matar. Así, en un escenario se plantea si es mejor matar a un viandante o a las cuatro personas que viajan en el coche; o matar a una joven frente a un delincuente; o bien, a una persona atlética respecto a un anciano achacoso. Estas cuestiones tienen su peligro y merecen una reflexión.

Una máquina no se enfrenta a dilemas a morales, somos nosotros a través de las máquinas y ésa es nuestra responsabilidad

Detrás del planteamiento de tales dilemas morales se encuentra la corriente filosófica ética denominada utilitarista, según la cual está bien aquello es bueno para la mayoría. En el caso de la plataforma del MIT, la solución correcta respecto a un posible escenario (por ejemplo, si matar a un anciano o a un joven), puede depender de la opinión más votada. Así planteado, parece que dejamos la vida en manos de la solución más votada, al puro estilo de un circo romano, por ello es más moderno decir que es una solución basada en una “plataforma de crowdsourcing”. De esta forma diluimos la responsabilidad en la modernidad.

Pero además existe un segundo error. Ninguna máquina toma ninguna decisión moral; son las personas que diseñaron los algoritmos de la máquina quienes toman una decisión moral. Un vehículo autónomo es como la piedra que cayó y mató al joven en el acantilado. Así como argumentó la defensa, que la piedra estaba sujeta a la ineludible ley de la gravedad, de la misma forma el vehículo autónomo está sujeto a la ineludible ley (o leyes) del algoritmo que algún ingeniero le programó. Ni la piedra es “autónoma”, ni el vehículo tampoco. Una máquina no se enfrenta a dilemas a morales, somos nosotros quienes nos enfrentamos a ellos a través de las máquinas y ésa es nuestra responsabilidad.

Todo esto nos lleva a una serie de preguntas a las cuales debemos dar respuesta antes de ponernos a programar: ¿es la moral una cuestión de democracia? ¿es el bien y el mal una cuestión de votos? ¿es siempre única la respuesta ante una pregunta ética?, y, en consecuencia, ¿podemos reducir las cuestiones éticas a fórmulas matemáticas, y por tanto a algoritmos? Hace falta más Kant y menos Watson.

Publicado en digitalbiz

 

La vida en tuit-pildoras

La vida en tuit-pildoras

La vida en tuit-pildoras

Los nuevos valores de la tecnología

 

En preguntar lo que sabes

el tiempo no has de perder…

Y a preguntas sin respuesta

¿quién te podrá responder?

Estos son versos de Machado, peo hoy día se considerarían un tuit: porque ocupan menos de 280 caracteres y porque lanzan un mensaje más o menos contundente. Si Machado viviera hoy, quizá habría escrito este cantar en formato tuit, seguido de una hermosa foto prefabricada, con paisaje de ensueño, sacada de un banco de imágenes. O quizá habría convertido el texto en una imagen de Instragram con palabras escritas en distintos formatos y colores, algunas de ellas sobre un recuadro, y sobre fondo de color pastel.

Vivimos la vida a píldoras. A píldoras de tuits, de instantáneas en Instagram o de llamativos titulares en alimentadores de noticias. Twitter es un microblog que nos ofrece la vida en micro-realidades pasajeras. Lo importante es el número de “impresiones”, es decir, las veces que se ha visto un tuit, aunque sea de manera fugaz, y sin causar apenas ninguna impresión. Porque la vida a píldoras no impresiona, sino que reconforta. Vivimos rodeados de frases breves, de aforismos lapidarios que intentan arreglar cualquier situación en 280 caracteres.

Vivimos la vida a píldoras. A píldoras de tuits, de instantáneas en Instagram

Estos mismos tuits remiten a artículos que exponen la realidad siempre en un número reducido de pautas: “Los cinco pasos para una transformación eficaz”, “Las tres cosas que debes saber sobre el blockhacin”, “Siete pequeñas acciones diarias que te harán ser feliz”. Hay que simplificar la realidad.

Lo mismo ocurre en cierta literatura actual. Asistimos a microlecturas de historias, o a recetarios vitales, que para poderlos convertir en libros se escriben con letras de tamaño 18 puntos y sin escatimar espacios en blanco. De nuevo se busca la pauta mágica que lo solucione todo, o la historia breve que permita cambiar de asunto sin dejarme huella.

Eficacia y rapidez: quiero solucionar mis problemas y lo quiero de forma rápida.

Este pensamiento, este valor ético, se traslada también al ámbito profesional. Lo experimento cada vez que un cliente me pide empezar un proyecto la semana que viene, como si no hubiera más vida en dos semanas; y obtener lo antes posible “quick wins”, porque “arriba” quieren ver resultados lo antes posible. “Quick wins”, esto es, tuit-soluciones en 280 caracteres. Eficacia y rapidez.

Si quieres escribir buenos tuits, lee poesía

Son los valores culturales que nos transmite la tecnología. Durante años se viene discutiendo si la ciencia y la tecnología son asépticas en lo que respecta a valores morales. Existen argumentos en ambos sentidos. La cuestión radica cuando trasvasamos elementos de la esfera científica o tecnológica al ámbito de lo social y de lo humano: véase la teoría de Darwin, para el caso de la ciencia, o la inmediatez, para la tecnología.

La comunicación por el móvil a través de Twitter o WhatsApp puede ser inmediata, y puede ser breve, porque el móvil no se ha hecho para escribir “Cien años de soledad”. Pero ¿nuestra percepción de la realidad debe ser breve e inmediata? La tecnología es eficacia y rapidez; ¿debemos ser nosotros siempre eficaces y rápidos?

Volviendo a Machado, no sé si estoy preguntando lo que ya sé o bien estoy haciendo preguntas sin respuesta. En todo caso nuestra labor es tener esa consciencia de qué valores nos creamos en virtud de la tecnología.

Si quieres escribir buenos tuits, lee poesía (esto mismo podría ser un tuit). Por ello, dado el tema, termino con otros versos apropiados del gran Antonio Machado:

Tras el vivir y el soñar,

está lo que más importa:

despertar.

Publicado en Digital Biz

 

IA: Intencionalidad Artificial

IA: Intencionalidad Artificial

IA: Intencionalidad Artificial

La Plaza del Campidoglio se halla en lo alto de una de las siete colinas de Roma, la Colina Capitolina. Durante la Edad Media esta plaza fue el centro político y civil, que se alzaba como continuación del Foro Romano. Con el tiempo fue perdiendo relevancia y acabó convertida en lugar de pasto para las cabras. En 1537 el papa Pablo III encargó a Miguel Ángel la remodelación de la plaza, ante su estado arrumbado y por ser el escenario previsto para el desfile triunfal de bienvenida al emperador Carlos V. Miguel Ángel, con su genio nato, creó una obra maestra de la arquitectura, no sólo por ordenar geométricamente un espacio asilvestrado, sino por su visión innovadora.

La notoria innovación de Miguel Ángel fue abrir la nueva plaza hacia la Basílica de San Pedro del Vaticano, en construcción por entonces, al ser el renovado centro de poder de toda Europa y dar la espalda al Foro Romano, antiguo poder civil. Aquello supuso un cambio manifiesto, cargado de intención, y con un mensaje claro en apoyo hacia el poder papal. Hoy puede que no nos demos cuenta, pero en aquel momento fue reconocido por todos, pues la única vista desde la plaza eran los dominios papales. Todo, hasta una plaza, es susceptible de ser el vehículo de ideas o valores de las personas.

Podemos pensar que afortunadamente hoy no ocurre tal, pues vivimos en un mundo rodeado de tecnología. Un espacio libre de ideas, ajeno a pasiones, que tan solo nos ofrece información de forma neutral para que nosotros podamos tomar decisiones sin injerencias de terceros. Falso.

Podemos pensar que la tecnología es un espacio libre de ideas, ajeno a pasiones, que tan solo nos ofrece información de forma neutral para que nosotros podamos tomar decisiones sin injerencias de terceros. Falso.

Pensamos que la tecnología no tiene valores. Que está ahí. Decimos que esto o aquello “aparece en Internet”, como si eso fuera garante de libertad o, lo que es peor, aval de la verdad. O bien utilizamos frases tales como “el sistema dice…” o “la aplicación recomienda”, en una forma irreflexiva e irresponsable de zanjar una cuestión al subyugar nuestra voluntad a un ente tecnológico supuestamente ecuánime, libre y justo.

Pero la información que recibimos de la tecnología no está libre de intención. Cuando un “sistema dice” algo, en realidad significa que un algoritmo (conjunto de operaciones matemáticas) ha ejecutado una serie de operaciones totalmente definidas por una persona. Luego en lugar de “el sistema dice”, más bien debiéramos pensar “alguien dice”; o “alguien ha decidido”, pues en realidad no sabemos quién es el que decide.

Esta situación la podemos ver claramente en los mensajes de error que aparecen en las aplicaciones. Hace unos años cuando una aplicación fallaba aparecía la frase “error del sistema”, como si “el sistema” se hubiera equivocado. Hoy sin embargo es más común leer algo similar a “Ups, hemos debido hacer algo mal” ante un funcionamiento erróneo de una aplicación. Esto es un avance en el reconocimiento propio de la responsabilidad de los diseñadores, pero quizá no suficiente.

La falsa sensación de autonomía de la tecnología puede tener una repercusión más importante si hablamos de inteligencia artificial o robótica. La inteligencia artificial y los robots no están libres de la intencionalidad humana.

La falsa sensación de autonomía de la tecnología es más peligrosa en la inteligencia artificial y la robótica. La inteligencia artificial y los robots no están libres de la intencionalidad humana

En el caso de la inteligencia artificial se une un elemento más en favor de la incorporación de valores a la tecnología: la aplicación (el algoritmo) “aprende”. La inteligencia artificial se sustenta en algoritmos que son capaces de modificar sus operaciones, y por tanto sus resultados, en base a los sucesivos datos de entrada. Y estos datos dependen de nuestras intenciones.

El caso más simple lo podemos ver en las noticias que nos aparecen en las páginas de redes sociales: estas noticias dependen de las noticias que hemos visto previamente. O bien los resultados de búsqueda que nos aparecen en Google dependen de los resultados que hemos pinchado en búsquedas anteriores. Parece que dichas aplicaciones “aprenden” de tu comportamiento y “toman decisiones” en tu favor, pero tan sólo ejecutan un algoritmo variable que alguien ha programado. Alguien que, probablemente, no sepamos quién es.

Esta percepción se complica cuando hablamos de inteligencia artificial algo más sofisticada o si pensamos en robots. Según los fabricantes del famoso robot Pepper, éste es capaz de interpretar tus emociones y quiere hacerte feliz. La primera cuestión puede ser cierta, en el sentido de que tomando como entrada tus rasgos faciales, por ejemplo, tu boca arqueada hacia arriba, pueda dar como resultado una salida una frase como “te veo feliz”; la segunda afirmación no es cierta: un robot no “quiere” nada, tan solo actúa según ha sido programado. Más bien, alguien (el diseñador del robot) quiere algo sobre ti. Alguien que, probablemente, no sepamos quién es.

Detrás de una respuesta compleja de un robot, tan solo hay un algoritmo complejo y alguien que ha diseñado tal algoritmo

De manera similar ocurre con Jibo, un robot, esta vez no humanoide como Pepper, sino un pequeño dispositivo de sobremesa con una especie de ojo único y capaz de contonearse; con pocos elementos muestra un reducido pero eficaz conjunto de emociones. Se dice que es un nuevo tipo de robot, y que nunca deja de aprender. Esto último es cierto, pero sólo modifica sus respuestas según se le ha programado que debe hacer.

En ambos casos, los dos robots actúan según sus creadores, es decir, según sus programadores, o las organizaciones tras dichos programadores. Debemos tener presente que, a pesar de sus respuestas complejas, no tienen independencia, sino que siguen la intencionalidad de sus creadores. Detrás de una respuesta compleja sólo hay un algoritmo complejo. Pepper no sonríe, sino que alguien ha decidido que cuando tú sonríes, el robot haga unos determinados movimientos. Estos ejemplos no ofrecen peligro aparente, pues están diseñados para ser amables, pero en algún momento esto puede que no sea así.

La Plaza del Campidoglio la hizo Miguel Ángel y ofrece una intencionalidad de su verdadero dueño, el Papa Pablo III. Parece imposible, pues sólo hablamos de una plaza, alejada de toda connotación política o social. Lo mismo ocurre con la inteligencia artificial, aparentemente libre de toda intencionalidad. Pero no es así. Cualquier hecho creado por el ser humano, está condicionado por el ser humano, como la plaza de Campidoglio, como los robots. Nada nuestro está libre de intención. En el caso de la inteligencia artificial el riesgo radica en que desconocemos la intención del diseñador y al mismo diseñador.

Pero la obra de Miguel Ángel tiene una diferencia con la inteligencia artificial. No pensemos que Miguel Ángel fue como un robot en manos del Papa. Primero porque Miguel Ángel pudo decir que no al Papa, y aun diciendo que sí, se diferencia en que creó algo nuevo. ¿Puede un robot crear?

 

Pin It on Pinterest