Una IA ética y rentable en la economía pos-viral

Una IA ética y rentable en la economía pos-viral

Una IA ética y rentable en la economía pos-viral

Una IA ética y eficiente, que nos ayude a un crecimiento sostenible

No pensemos en ‘volver’ a una normalidad, ni siquiera a una ‘nueva normalidad’. Pensemos mejor que ‘avanzamos’ hacia una nueva sociedad con una nueva economía. ¿Cómo serán esta nueva sociedad y nueva economía? Apenas puedo vislumbrarlo, pero no muy diferentes, si todo lo que hacemos es lavarnos las manos, y no cambiamos nuestra forma de pensar.

De momento, en ese camino hacia una nueva economía, nos preocupa el siguiente paso. Este virus coronado ha mandado nuestro PIB a la UCI, la actividad económica permanece en cama, las empresas ven reducidas sus expectativas de facturación y nosotros nos tenemos que hablar a dos metros de distancia. Como solución tenemos de nuevo a la tecnología y las grandes corporaciones anuncian inversiones millonarias en digitalizar su actividad para los próximos años.

¿Qué tipo de digitalización? Principalmente encaminada a dos objetivos: mejorar la eficiencia, para reducir costes y mantener un cierto beneficio; y permitir la interacción a distancia con los clientes. Para ello la inteligencia artificial (IA) y la robótica se presentan como dos poderosas aliadas.

Es posible aunar IA con eficiencia y ética. No tenemos que elegir entre uno u otro. Es factible aplicar la ética en la IA para conseguir resultados eficientes y sostenibles

Es posible aunar IA con eficiencia y ética. No tenemos que elegir entre uno u otro

La IA se está viendo como una potente herramienta para mejorar la eficiencia en distintos ámbitos y funciones de una organización. Desde aplicaciones de productividad personal que realizan actividades como leer correos en voz alta o agendar reuniones, hasta sistemas inteligentes para funciones específicas como la reducción de costes de energía, la eficiencia en procesos de reclutamiento, la automatización de tareas de contabilidad (junto con RPA) o la mejora de las operaciones de TI (IAOps).

La IA puede ser nuestro respirador artificial en los próximos años, pero sí solo pensamos en su aplicación con ánimo de eficiencia, seguiremos pensando como antes y será, como dije, nada más que lavarse las manos. Volveremos a la vieja normalidad, si bien, con las manos limpias. ¿Dónde quedarán las cuestiones éticas de la IA? ¿Las abandonaremos en favor de una eficiencia para la salud?

Se puede pensar que ahora no es tiempo de cuestiones éticas; que la ética es para tiempos de bonanza, cuando hay dinero para ‘otras cosas’. Quizá no sea así si nos fijamos en los llamados índices MSCI ESG Leaders (Environmental, Social and Governance). Esta nueva peste universal ha supuesto pérdidas en las bolsas de todo el mundo, si bien los índices MSCI ESG Leaders han resistido mejor a la crisis que sus homólogos principales en la mayoría de las geografías.

Por consiguiente, si la IA es una poderosa herramienta para ayudarnos a salir de la crisis y hacerlo éticamente permite un crecimiento más sostenible, ¿cómo logramos esto? Usando la ética aplicada.

Pensemos, por ejemplo, en un chatbot como sistema inteligente que sirve de complemento a un centro de atención al usuario. Las acciones para una ética aplicada son las siguientes:

  1. Determinar el fin específico por el que cobra sentido el sistema inteligente (chatbot). En este caso, conocer mejor al cliente para ayudarle mejor.
  2. Esclarecer los medios que usa el chatbot para conseguir tales fines. Todas las personas relacionadas con el chatbot deben entender cómo éste analiza la información y toma sus propias decisiones.
  3. Indagar qué valores debemos incorporar para alcanzar dicho fin. Este paso requiere debate. Como punto de partida podemos tomar los valores propuestos por la bioética: autonomía, beneficencia y justicia.
  4. Dejar que los afectados (organizaciones y usuarios), con la información adecuada (todo lo anterior), ponderen las consecuencias y puedan tomar decisiones. Para ello se pueden usar marcos prácticos como las Directrices para una IA Confiable de la Comisión Europea.

Es posible aunar IA con eficiencia y ética. No tenemos que elegir entre uno u otro. Es factible aplicar la ética en la IA para conseguir resultados eficientes y sostenibles. Esto nos puede llevar efectivamente hacia una nueva sociedad y una nueva economía, y no solo ‘lavarnos las manos’.

Ya sabemos que esta expresión nace de la escena en la que Pilatos evita la responsabilidad de sus actos. Significa ‘aquí está el hombre’, refiriéndose a un Jesús lacerado. La frase sigue vigente. Podemos lavarnos las manos en cuestiones éticas de la IA, pero sigue el ‘ecce homo’, es decir, nosotros.

Publicado en Expansión

 

Robots cristianos, liberales, o marxistas

Robots cristianos, liberales, o marxistas

Robots cristianos, liberales, o marxistas

El modelo de ética aplicada

“Pero, ¿qué ética?”, me quedé algo sorprendido por su espontánea y razonable pregunta. Ante mi silencio, continuó mi interlocutora. “Sí, estamos de acuerdo en que necesitamos una ética para la inteligencia artificial. Pero, insisto, ¿qué ética aplicamos? Y si encontramos una ética, ¿cómo la aplicamos?”. Mi dialogante amiga me abandonó, pues su agenda la requería en otro lugar. De pronto mi imaginación me trasladó a la Academia de Platón donde comenzaron las primeras discusiones éticas y me vi debatiendo la tesis de Protágoras sobre que toda moral es opinable, o la de Gorgias sobre que es mejor cometer una injusticia que padecerla. Una alerta de Android en mi móvil esfumó aquella imagen; necesitaba actualizar mi sistema operativo, y así hice.

Si buscamos una ética que aplicar en la inteligencia artificial lo tenemos complicado, pues desde aquellos tiempos de Platón no hemos llegado a una solución concluyente sobre una ética admitida por todos. Dado este desacuerdo, debemos acudir a lo que se llama una ética de mínimos, es decir, a unos principios morales mínimos en los que todo ser racional pueda estar de acuerdo (por ejemplo, no hacer daño o ser justo). Como tenemos que estar de acuerdo, no podemos entrar en detalles, y por ello resulta que la ética de mínimos acaba hablando de principios muy genéricos, que resultan poco útiles en la práctica y, por tanto, complicados de programar en un sistema inteligente.

Las tres leyes de la robótica de Asimov son de alguna forma una ética de mínimos, al establecer en su primera ley que un robot no podrá hacer daño a un ser humano. Desde un punto de vista conceptual se ha visto la inconsistencia de tal ley, pues un robot puede no saber que está haciendo daño a un ser humano; y desde un punto de vista práctico se ha constatado la dificultad de programar tal ley.

La ética aplicada es un modo de aplicar conceptos éticos a cuestiones concretas de la actividad humana

Como resulta complicado aplicar una ética de mínimos, deberemos pasar a una ética de máximos. En este caso entran en juego los valores particulares de cada uno, la ética se vuelve individual y es cuando cada uno se comporta según una cierta moral con nombres y apellidos particulares (por ejemplo, según la moral católica, el pensamiento liberal o el materialismo histórico). Con esta perspectiva, ¿tendremos que diseñar robots cristianos, liberales, o marxistas, a gusto de cada usuario?

Para salir de esta espiral filosófica propongo aplicar la ética en tres momentos distintos (en su diseño, su entrega en forma de servicio y su uso), y de tres formas distintas: aplicar una ética en el diseño de sistemas inteligentes; disponer de un gobierno ético en las organizaciones que entregan servicios basados en inteligencia artificial; y permitir que cada usuario pueda obrar según sus valores éticos.

En el diseño ético se pueden aplicar algunos conceptos prácticos y posibles de programar, como evitar el sesgo o facilitar la explicación de resultados. Con el gobierno ético una organización puede garantizar a sus clientes y a la sociedad que aplica mecanismos de control, como, por ejemplo, disponer de sistemas auditables, que garantizan una entrega de servicios basados en inteligencia artificial de forma ética. De forma ética en el sentido de que cada individuo pueda tomar sus decisiones de manera autónoma y según sus valores éticos.

Este modelo de ética para la inteligencia artificial pone en juego a varios actores (diseñadores, organizaciones, usuarios), por lo que solo puede funcionar bajo lo que se conoce como ética aplicada. La ética aplicada es un modo de aplicar conceptos éticos a cuestiones concretas de la actividad humana y ha mostrado su utilidad en campos como la bioética o la ética de las profesiones.

Luego para responder a la pregunta “¿qué ética aplicamos?”, debemos contestar la ética aplicada y en los tres momentos antes descritos. No es un juego de palabras, sino aplicar con un método todo lo que hemos aprendido desde los tiempos de Platón.

Publicado en Digital Biz

 

Ética a Sophia

Ética a Sophia

Ética a Sophia

Tenemos un robot peregrinando por el mundo. Se llama Sophia y en su discurrir por el mundo nos quiere mostrar sus habilidades discursivas. Es un robot humanoide, quizá una robot (¿son como los ángeles, sin sexo?) basada en inteligencia artificial (IA) que deambula de país en país, de continente en continente, ofreciendo entrevistas y respondiendo, como puede y como sabe, a las preguntas de sus interlocutores. Podemos decir que es una maravillosa máquina parlante. Puede que no la primera.
En 1845 Joseph Faber presentó en Filadelfia a Euphonia, a la que denominó maravillosa máquina parlante. Consistía en una cabeza femenina de maniquí, dispuesta en un bastidor de madera. Mediante un conjunto de teclado y pedales, accionados por el propio Faber, se hacía pasar aire por una serie de lengüetas que reproducían la voz humana a través de la cabeza del maniquí. Era capaz de hablar en cualquier idioma europeo y de cantar el himno “Dios salve a la Reina”. Al igual que Sophia, respondía a las preguntas de su público como buenamente podía; si bien, en este caso, como buenamente podía Faber.

No podemos decir que Sophia y Euphonia sean lo mismo. Euphonia no estaba basada en IA, sino más bien en inteligencia natural. Sin embargo, Sophia y Euphonia tienen algo en común; algo que caracteriza a toda IA. Sabemos que cuando Euphonia respondía, en realidad era Faber quien respondía. Si la respuesta era acertada, el mérito era de Faber; si era una locura, peligraba más bien el propio Faber. En el caso de Sophia, ¿sabemos en realidad quién responde?

Si hablamos de ética, hablamos de responsabilidad; y detrás de una IA ética hay un ser humano responsable

El sistema de reconocimiento de voz de Sophia está basado en tecnología de Alphabet, filial de Google, su sistema de procesamiento verbal en CereProc, y su sistema de IA está diseñado por Hanson Robotics. Todo esto es correcto, pero no hemos respondido a la pregunta, ¿sabemos en realidad quien responde? La ética se fundamenta en la respuesta a esta pregunta.

Si hablamos de aplicar principios éticos a la IA, debemos poder responder a esta pregunta. Porque la ética se justifica por la existencia de un ser responsable, que actúa en un sentido u otro. La ética de Euphonia es la ética de Faber; ¿de quién es la ética de Sophia? La ética en la IA no es solo una cuestión tecnológica. Si hablamos de ética, hablamos de responsabilidad; y detrás de una IA ética hay un ser humano responsable.

Publicado en Innovadores

 

Acabaremos con la barbarie

Acabaremos con la barbarie

Acabaremos con la barbarie

Promesas y temores morales de la tecnología

El establecimiento de la primera línea de telégrafo en 1844 trajo grandes esperanzas para la humanidad. Por primera vez el mensaje iba más rápido que el mensajero. Por primera vez el pensamiento podía volar a cualquier punto del mundo, y eso generó una gran ilusión. Se creó el concepto de “comunicación universal”, como aquel medio por el cual se podría unir la mente de todos los hombres en una especie de conciencia común mundial. Con el telégrafo se podría unificar a todos los pueblos para compartir los principios más elevados del humanismo. Por fin la barbarie estaba llamada a su fin. Era imposible que los viejos prejuicios y las hostilidades existieran por más tiempo, dado que se había creado un instrumento que permitía llevar el pensamiento a cualquier lugar de la tierra. El telégrafo prometía grandes avances morales en la humanidad.

No sé si finalmente ha sido así. Hemos conseguido una comunicación global, pero creo que no tanto esa “comunicación universal”, en el sentido de una conciencia común y una unidad en lo humano. La razón es clara: una supuesta conciencia universal no depende tanto del telégrafo, sino de los mensajes que transmitamos por dicha herramienta. No por tener una herramienta con capacidad para la comunicación universal, vamos a tener una cultura humana universal. Lo importante es el contenido (los mensajes) y menos el continente (el telégrafo). Así ocurrió que un telegrama fue el casus belli para el estallido de la guerra Franco-Prusiana en 1870, con lo que se conoce como el Telegrama de Ems.

No por tener una herramienta con capacidad para la comunicación universal, vamos a tener una cultura humana universal

El periódico inglés Spectator publicó en 1889 un editorial titulado “Los efectos intelectuales de la electricidad” donde se alertaba de los daños que podía causar el telégrafo en nuestra mente. Según el periódico, el telégrafo era un invento que no debía de ser, es decir, era moralmente inadecuado, pues su uso iba a afectar al cerebro y al comportamiento humano. El telégrafo estaba basado en comunicaciones breves, inmediatas y con frases reducidas. Esto hacía que el telégrafo forzara a los hombres a pensar de manera apresurada, sin apenas reflexión y sobre la base de información fragmentada. El resultado era una precipitación universal y una confusión de juicio, una disposición a decidir demasiado rápidamente y agitados por emociones. El telégrafo acabaría por dañar la consciencia y la inteligencia, para finalmente debilitar y paralizar el poder reflexivo. Me gustaría saber qué pensaría hoy el Spectator del WhatsApp.

Del telégrafo al WhatsApp. Tras casi doscientos años de “comunicación universal” me temo que no hemos acabado con la barbarie, y nos seguimos alimentando de la comunicación breve, con textos de 280 caracteres y vídeos de 30 segundos. ¿Tenemos ahora más humanismo que hace doscientos años? ¿Cabe suponer que nuestro poder reflexivo se viene debilitando desde el siglo XIX? Son preguntas para no acabar con el poder de reflexión.

Publicado en Digital Biz

 

Votemos qué está bien qué está mal

Votemos qué está bien qué está mal

Votemos qué está bien qué está mal

La preocupación por complacer o por convencer tiende a prevalecer sobre las exigencias de la razón. Y el amor al éxito, sobre el amor a la verdad. Toda democracia favorece la sofística

André Comte-Sponville

En cierta ocasión una piedra desprendida desde lo alto de un acantilado mató a un joven que estaba abajo, tranquilamente mirando el móvil junto a la playa. La piedra fue condenada por asesinato. De nada valieron los argumentos de la defensa que sostenían que la piedra estaba sujeta a la ineludible ley de la gravedad. El juez dictó que la piedra, como vehículo en movimiento, debería haber decidido de forma autónoma el desviar su trayectoria para así evitar la muerte de aquel inocente joven. Este mismo absurdo razonamiento ocurre con los vehículos de conducción autónoma.

Actualmente existe el debate de qué decisión debe tomar un vehículo autónomo cuando se encuentre ante una situación que afecte a la integridad física de las personas. Por ejemplo, cómo actuar si en su trayectoria se encuentra a una persona cruzando la calle.

Para avanzar en este debate el MIT ha creado la plataforma de crowdsourcing “Moral Machine”. El objetivo es “construir una imagen amplia (mediante «crowdsourcing») de la opinión de las personas sobre cómo las máquinas deben tomar decisiones cuando se enfrentan a dilemas morales”. Para ello el MIT propone una serie de escenarios con dilemas morales relacionados con vehículos autónomos sobre los cuales los participantes deciden soluciones.

Por ejemplo, en una calle sin escapatoria por los laterales, un coche autónomo que no puede frenar se dirige hacia un paso de cebra sobre el cual cruzan ciertos viandantes. Se plantea entonces el dilema de si el vehículo debe seguir recto y matar a los viandantes que están en su carril cruzando la calle, o desviarse y matar a aquellos que están cruzando a la altura del carril contrario. Las disyuntivas que se plantean radican en el número y tipo de personas a matar. Así, en un escenario se plantea si es mejor matar a un viandante o a las cuatro personas que viajan en el coche; o matar a una joven frente a un delincuente; o bien, a una persona atlética respecto a un anciano achacoso. Estas cuestiones tienen su peligro y merecen una reflexión.

Una máquina no se enfrenta a dilemas a morales, somos nosotros a través de las máquinas y ésa es nuestra responsabilidad

Detrás del planteamiento de tales dilemas morales se encuentra la corriente filosófica ética denominada utilitarista, según la cual está bien aquello es bueno para la mayoría. En el caso de la plataforma del MIT, la solución correcta respecto a un posible escenario (por ejemplo, si matar a un anciano o a un joven), puede depender de la opinión más votada. Así planteado, parece que dejamos la vida en manos de la solución más votada, al puro estilo de un circo romano, por ello es más moderno decir que es una solución basada en una “plataforma de crowdsourcing”. De esta forma diluimos la responsabilidad en la modernidad.

Pero además existe un segundo error. Ninguna máquina toma ninguna decisión moral; son las personas que diseñaron los algoritmos de la máquina quienes toman una decisión moral. Un vehículo autónomo es como la piedra que cayó y mató al joven en el acantilado. Así como argumentó la defensa, que la piedra estaba sujeta a la ineludible ley de la gravedad, de la misma forma el vehículo autónomo está sujeto a la ineludible ley (o leyes) del algoritmo que algún ingeniero le programó. Ni la piedra es “autónoma”, ni el vehículo tampoco. Una máquina no se enfrenta a dilemas a morales, somos nosotros quienes nos enfrentamos a ellos a través de las máquinas y ésa es nuestra responsabilidad.

Todo esto nos lleva a una serie de preguntas a las cuales debemos dar respuesta antes de ponernos a programar: ¿es la moral una cuestión de democracia? ¿es el bien y el mal una cuestión de votos? ¿es siempre única la respuesta ante una pregunta ética?, y, en consecuencia, ¿podemos reducir las cuestiones éticas a fórmulas matemáticas, y por tanto a algoritmos? Hace falta más Kant y menos Watson.

Publicado en digitalbiz

 

Pin It on Pinterest