Votemos qué está bien qué está mal

por | 16 Abr 2019 | Ética, Innovación, Inteligencia artificial

La preocupación por complacer o por convencer tiende a prevalecer sobre las exigencias de la razón. Y el amor al éxito, sobre el amor a la verdad. Toda democracia favorece la sofística

André Comte-Sponville

En cierta ocasión una piedra desprendida desde lo alto de un acantilado mató a un joven que estaba abajo, tranquilamente mirando el móvil junto a la playa. La piedra fue condenada por asesinato. De nada valieron los argumentos de la defensa que sostenían que la piedra estaba sujeta a la ineludible ley de la gravedad. El juez dictó que la piedra, como vehículo en movimiento, debería haber decidido de forma autónoma el desviar su trayectoria para así evitar la muerte de aquel inocente joven. Este mismo absurdo razonamiento ocurre con los vehículos de conducción autónoma.

Actualmente existe el debate de qué decisión debe tomar un vehículo autónomo cuando se encuentre ante una situación que afecte a la integridad física de las personas. Por ejemplo, cómo actuar si en su trayectoria se encuentra a una persona cruzando la calle.

Para avanzar en este debate el MIT ha creado la plataforma de crowdsourcing “Moral Machine”. El objetivo es “construir una imagen amplia (mediante «crowdsourcing») de la opinión de las personas sobre cómo las máquinas deben tomar decisiones cuando se enfrentan a dilemas morales”. Para ello el MIT propone una serie de escenarios con dilemas morales relacionados con vehículos autónomos sobre los cuales los participantes deciden soluciones.

Por ejemplo, en una calle sin escapatoria por los laterales, un coche autónomo que no puede frenar se dirige hacia un paso de cebra sobre el cual cruzan ciertos viandantes. Se plantea entonces el dilema de si el vehículo debe seguir recto y matar a los viandantes que están en su carril cruzando la calle, o desviarse y matar a aquellos que están cruzando a la altura del carril contrario. Las disyuntivas que se plantean radican en el número y tipo de personas a matar. Así, en un escenario se plantea si es mejor matar a un viandante o a las cuatro personas que viajan en el coche; o matar a una joven frente a un delincuente; o bien, a una persona atlética respecto a un anciano achacoso. Estas cuestiones tienen su peligro y merecen una reflexión.

Una máquina no se enfrenta a dilemas a morales, somos nosotros a través de las máquinas y ésa es nuestra responsabilidad

Detrás del planteamiento de tales dilemas morales se encuentra la corriente filosófica ética denominada utilitarista, según la cual está bien aquello es bueno para la mayoría. En el caso de la plataforma del MIT, la solución correcta respecto a un posible escenario (por ejemplo, si matar a un anciano o a un joven), puede depender de la opinión más votada. Así planteado, parece que dejamos la vida en manos de la solución más votada, al puro estilo de un circo romano, por ello es más moderno decir que es una solución basada en una “plataforma de crowdsourcing”. De esta forma diluimos la responsabilidad en la modernidad.

Pero además existe un segundo error. Ninguna máquina toma ninguna decisión moral; son las personas que diseñaron los algoritmos de la máquina quienes toman una decisión moral. Un vehículo autónomo es como la piedra que cayó y mató al joven en el acantilado. Así como argumentó la defensa, que la piedra estaba sujeta a la ineludible ley de la gravedad, de la misma forma el vehículo autónomo está sujeto a la ineludible ley (o leyes) del algoritmo que algún ingeniero le programó. Ni la piedra es “autónoma”, ni el vehículo tampoco. Una máquina no se enfrenta a dilemas a morales, somos nosotros quienes nos enfrentamos a ellos a través de las máquinas y ésa es nuestra responsabilidad.

Todo esto nos lleva a una serie de preguntas a las cuales debemos dar respuesta antes de ponernos a programar: ¿es la moral una cuestión de democracia? ¿es el bien y el mal una cuestión de votos? ¿es siempre única la respuesta ante una pregunta ética?, y, en consecuencia, ¿podemos reducir las cuestiones éticas a fórmulas matemáticas, y por tanto a algoritmos? Hace falta más Kant y menos Watson.

Publicado en digitalbiz

 

Pin It on Pinterest