El valor de una IA valiente

El valor de una IA valiente

El valor de una IA valiente

La inteligencia artificial no está consiguiendo el valor esperado. La solución no está reñida con la ética. Es posible obtener valor de la IA y tener el valor de ser éticos.

Rossumovi Univerzální Roboti (Robots Universales Rossum). Así se llama la obra de teatro del autor checo Karel ?apek, estrenada hace 100 años en el Teatro Nacional de Praga, y que ha pasado a la historia por acuñar por primera vez el término robot. La historia versa sobre la empresa Rossumovi Univerzální Roboti, que se dedica a la fabricación de unos artilugios humanoides, llamados robots, que proviene de la palabra checa “robota”, que significa “esclavo. Han sido diseñados con el saludable propósito de aliviar la carga de trabajo a los sufridos humanos. Finalmente, la situación se va de las manos y los robots acaban matando a toda la humanidad, excepto a un ingeniero, porque él, igual que los robots, trabaja con las manos.

Apenas un 20% de las organizaciones que invierten en inteligencia artificial obtienen verdadero valor de la misma

Curiosa metáfora que parece un sombrío augurio, si bien veo poco probable que suceda, al menos en el corto plazo. Al igual que hemos controlado otras tecnologías, ésta de la robótica y de la inteligencia artificial también estará bajo control, aunque no sin arduo trabajo. Hoy en día el problema no son los robots, sino la inteligencia artificial, la cual añade un riesgo mayor: que la inteligencia artificial, a diferencia de los robots, no se ve. Un robot es un muñeco que ves venir; la inteligencia artificial se encuentra sumergida en miles de aplicaciones, tomando decisiones sin que lo sepamos.

Esto es una cuestión ética (la ética habla de la toma de decisiones) y por ello ahora importa menos: porque las preocupaciones éticas son para los tiempos de bonanza, cuando el exceso de presupuesto permite dedicarse a “esas otras cosas”. Pues bien, existe otra cuestión con la inteligencia artificial que quizá resulte más interesante a los comités de dirección de las organizaciones: apenas un 20% de las organizaciones que invierten en inteligencia artificial obtienen verdadero valor de la misma. Así lo revela un informe de McKinsey de finales del año pasado.

La razón de tan bajo rendimiento no es solo una cuestión tecnológica. No es tanto un problema con la integración de datos que provienen de sistemas distintos, ni con la validez de los algoritmos o con la capacidad de procesamiento. La inteligencia artificial es una tecnología que tiene un tipo de diseño particular y, en consecuencia, presenta una problemática particular asociada. Debemos saber cómo entrenar bien a los algoritmos para evitar riesgos de sesgo o de robustez; es necesario entender por qué un sistema inteligente toma una decisión en detrimento de otra (‘explicabilidad’); los sistemas de machine learning tienen métodos específicos de ataque que permiten conocer los datos fuentes o causar resultados erróneos; o bien se deben cumplir regulaciones específicas relacionadas con protección de datos.

Podemos conseguir valor de la inteligencia artificial y tener el valor de ser éticos.

La solución a estas cuestiones escapa a la pura tecnología y se dirige más a los mecanismos de gestión y de gobierno. Hablamos de obtener el compromiso de todos los niveles de dirección, para evitar islas tecnológicas; de entender qué objetivos buscamos con la IA y si somos capaces de explicarlos a la sociedad; de disponer de líderes transversales que gestionen equipos con un balance adecuado de talento interno y externo; de contar con product owners que conozcan los riesgos y oportunidades de los sistemas inteligentes; y por último, para los más atrevidos, de velar por disponer de una inteligencia artificial éticamente responsable.

Como se ve, la solución no es nueva. Consiste en saber gestionar y gobernar la tecnología, en este caso con sus particularidades. Quizás nos falte un nombre a esta solución para hacerla más atractiva y así explicar con palabras brillantes los viejos problemas de siempre. Karel ?apek supo encontrar ese nombre para estos autómatas seudo-inteligentes. Tengamos nombre o no, sugiero aplicar esta visión con un doble afán: conseguir valor de la inteligencia artificial y tener el valor de ser éticos.

Publicado en Digital Biz

 

Las maquinas trabajan, nosotros ociamos

Las maquinas trabajan, nosotros ociamos

Las maquinas trabajan, nosotros ociamos

¿La tecnología nos ayuda o nos suplanta?

“Si tienes el correo electrónico en tu móvil, terminarás antes de trabajar y disfrutarás de más tiempo libre”. Recuerdo con claridad aquellos primeros anuncios de la BlackBerry. Un joven risueño y placentero se sentaba en un vagón de metro camino de su oficina. En el trayecto del suburbano accedía a su correo electrónico, revisaba sus mensajes y respondía convenientemente a cada uno de ellos. Todo ello con tal rapidez y acierto que al finalizar el viaje ya había resuelto sus tareas diarias. No era necesario ir a la oficina. El joven audaz cambiaba su destino y concluía el resto de la jornada disfrutando de la paz de un ameno parque, vestido con de traje, pero liberado de su corbata.

O bien este joven tenía poco que hacer, o bien el anuncio era irreal. El tiempo nos ha descubierto que era lo segundo: el anuncio era una mentira. Actualmente disponemos de todas nuestras herramientas de trabajo en el móvil: correo electrónico, paquetes ofimáticos (‘ofimático’, ¡qué antiguo!), sistemas de comunicación, reuniones virtuales; sin embargo, no parece que nuestras jornadas de trabajo sean menores. La razón es clara: la dirección por objetivos significa que, si cumples tus objetivos, ya se encargarán de ponerte otros nuevos; si eres capaz de responder tus correos en el trayecto del metro, ven a la oficina que te daré nuevos correos.

La tecnología altera seriamente el trabajo. Esto ha ocurrido desde que se inventó la palanca o la polea y se necesitaban menos personas para mover un cubo de piedra. Ahora la situación parece más alarmante por virtud, o vicio, de la inteligencia artificial. El último informe de la OCDE sobre el futuro del trabajo indica que el 14% de los trabajos tiene riesgo de automatización, lo cual no es poco, si bien supone un porcentaje mucho menor que lo expresado por otros informes. Además, no vaticina un desempleo masivo por la automatización. El informe es alentador, pero es un análisis de la era pre-virus.

La tecnología altera seriamente el trabajo. Ahora la situación parece más alarmante por la inteligencia artificial

En estos tiempos coronados la situación ha cambiado en cuestión de meses. La reclusión hogareña y el cierre físico de los negocios ha incrementado la digitalización de la actividad. En particular se está potenciando el uso de la inteligencia artificial, ya sea para ganar eficiencia, y reducir costes, para generar negocio, principalmente con big data y machine learning, o bien, unido a la robótica, para realizar tareas en el mundo físico y evitar contagios.

Se acrecienta el temor a que la inteligencia artificial genere desempleo y se aviva el discurso de un ingreso básico universal que nos sustente. El mensaje atrae, porque es bonito y simple: que las máquinas trabajen, y así nosotros ociamos. Nuevo anuncio BlackBerry. La idea tiene sus defensores y detractores. Recientemente el cofundador de Twitter, Jack Dorsey, ha donado 3 millones de dólares para un programa de ingreso básico en 16 ciudades de Estados Unidos; en nuestro país, se ha implantado el ingreso mínimo vital, quizá no tanto movido por la inteligencia artificial. Por otro lado, Calum Chace, experto en inteligencia artificial, argumenta que el concepto ‘ingreso básico universal’ contiene tres palabras donde al menos una de ellas no es buena. En todo caso, vaticina que la inteligencia artificial cambiará la economía y eso parece indudable.

La tecnología nos cambia la vida, pero ahora la situación no se observa con perspectiva halagüeña. En el anuncio de la BlackBerry el mundo aparecía feliz por causa de la tecnología; ahora aparece vacío (de trabajadores) por su misma causa. Una misma causa, pero distinta consecuencia: en el primer caso la tecnología parece que “nos ayuda”, en el segundo, parece que “nos suplanta”. Con independencia de la validez de un ingreso básico universal, el matiz entre una consecuencia y otra no depende de las máquinas, sino de nosotros.

Publicado en Digital Biz

Una IA ética y rentable en la economía pos-viral

Una IA ética y rentable en la economía pos-viral

Una IA ética y rentable en la economía pos-viral

Una IA ética y eficiente, que nos ayude a un crecimiento sostenible

No pensemos en ‘volver’ a una normalidad, ni siquiera a una ‘nueva normalidad’. Pensemos mejor que ‘avanzamos’ hacia una nueva sociedad con una nueva economía. ¿Cómo serán esta nueva sociedad y nueva economía? Apenas puedo vislumbrarlo, pero no muy diferentes, si todo lo que hacemos es lavarnos las manos, y no cambiamos nuestra forma de pensar.

De momento, en ese camino hacia una nueva economía, nos preocupa el siguiente paso. Este virus coronado ha mandado nuestro PIB a la UCI, la actividad económica permanece en cama, las empresas ven reducidas sus expectativas de facturación y nosotros nos tenemos que hablar a dos metros de distancia. Como solución tenemos de nuevo a la tecnología y las grandes corporaciones anuncian inversiones millonarias en digitalizar su actividad para los próximos años.

¿Qué tipo de digitalización? Principalmente encaminada a dos objetivos: mejorar la eficiencia, para reducir costes y mantener un cierto beneficio; y permitir la interacción a distancia con los clientes. Para ello la inteligencia artificial (IA) y la robótica se presentan como dos poderosas aliadas.

Es posible aunar IA con eficiencia y ética. No tenemos que elegir entre uno u otro. Es factible aplicar la ética en la IA para conseguir resultados eficientes y sostenibles

Es posible aunar IA con eficiencia y ética. No tenemos que elegir entre uno u otro

La IA se está viendo como una potente herramienta para mejorar la eficiencia en distintos ámbitos y funciones de una organización. Desde aplicaciones de productividad personal que realizan actividades como leer correos en voz alta o agendar reuniones, hasta sistemas inteligentes para funciones específicas como la reducción de costes de energía, la eficiencia en procesos de reclutamiento, la automatización de tareas de contabilidad (junto con RPA) o la mejora de las operaciones de TI (IAOps).

La IA puede ser nuestro respirador artificial en los próximos años, pero sí solo pensamos en su aplicación con ánimo de eficiencia, seguiremos pensando como antes y será, como dije, nada más que lavarse las manos. Volveremos a la vieja normalidad, si bien, con las manos limpias. ¿Dónde quedarán las cuestiones éticas de la IA? ¿Las abandonaremos en favor de una eficiencia para la salud?

Se puede pensar que ahora no es tiempo de cuestiones éticas; que la ética es para tiempos de bonanza, cuando hay dinero para ‘otras cosas’. Quizá no sea así si nos fijamos en los llamados índices MSCI ESG Leaders (Environmental, Social and Governance). Esta nueva peste universal ha supuesto pérdidas en las bolsas de todo el mundo, si bien los índices MSCI ESG Leaders han resistido mejor a la crisis que sus homólogos principales en la mayoría de las geografías.

Por consiguiente, si la IA es una poderosa herramienta para ayudarnos a salir de la crisis y hacerlo éticamente permite un crecimiento más sostenible, ¿cómo logramos esto? Usando la ética aplicada.

Pensemos, por ejemplo, en un chatbot como sistema inteligente que sirve de complemento a un centro de atención al usuario. Las acciones para una ética aplicada son las siguientes:

  1. Determinar el fin específico por el que cobra sentido el sistema inteligente (chatbot). En este caso, conocer mejor al cliente para ayudarle mejor.
  2. Esclarecer los medios que usa el chatbot para conseguir tales fines. Todas las personas relacionadas con el chatbot deben entender cómo éste analiza la información y toma sus propias decisiones.
  3. Indagar qué valores debemos incorporar para alcanzar dicho fin. Este paso requiere debate. Como punto de partida podemos tomar los valores propuestos por la bioética: autonomía, beneficencia y justicia.
  4. Dejar que los afectados (organizaciones y usuarios), con la información adecuada (todo lo anterior), ponderen las consecuencias y puedan tomar decisiones. Para ello se pueden usar marcos prácticos como las Directrices para una IA Confiable de la Comisión Europea.

Es posible aunar IA con eficiencia y ética. No tenemos que elegir entre uno u otro. Es factible aplicar la ética en la IA para conseguir resultados eficientes y sostenibles. Esto nos puede llevar efectivamente hacia una nueva sociedad y una nueva economía, y no solo ‘lavarnos las manos’.

Ya sabemos que esta expresión nace de la escena en la que Pilatos evita la responsabilidad de sus actos. Significa ‘aquí está el hombre’, refiriéndose a un Jesús lacerado. La frase sigue vigente. Podemos lavarnos las manos en cuestiones éticas de la IA, pero sigue el ‘ecce homo’, es decir, nosotros.

Publicado en Expansión

 

Robots cristianos, liberales, o marxistas

Robots cristianos, liberales, o marxistas

Robots cristianos, liberales, o marxistas

El modelo de ética aplicada

“Pero, ¿qué ética?”, me quedé algo sorprendido por su espontánea y razonable pregunta. Ante mi silencio, continuó mi interlocutora. “Sí, estamos de acuerdo en que necesitamos una ética para la inteligencia artificial. Pero, insisto, ¿qué ética aplicamos? Y si encontramos una ética, ¿cómo la aplicamos?”. Mi dialogante amiga me abandonó, pues su agenda la requería en otro lugar. De pronto mi imaginación me trasladó a la Academia de Platón donde comenzaron las primeras discusiones éticas y me vi debatiendo la tesis de Protágoras sobre que toda moral es opinable, o la de Gorgias sobre que es mejor cometer una injusticia que padecerla. Una alerta de Android en mi móvil esfumó aquella imagen; necesitaba actualizar mi sistema operativo, y así hice.

Si buscamos una ética que aplicar en la inteligencia artificial lo tenemos complicado, pues desde aquellos tiempos de Platón no hemos llegado a una solución concluyente sobre una ética admitida por todos. Dado este desacuerdo, debemos acudir a lo que se llama una ética de mínimos, es decir, a unos principios morales mínimos en los que todo ser racional pueda estar de acuerdo (por ejemplo, no hacer daño o ser justo). Como tenemos que estar de acuerdo, no podemos entrar en detalles, y por ello resulta que la ética de mínimos acaba hablando de principios muy genéricos, que resultan poco útiles en la práctica y, por tanto, complicados de programar en un sistema inteligente.

Las tres leyes de la robótica de Asimov son de alguna forma una ética de mínimos, al establecer en su primera ley que un robot no podrá hacer daño a un ser humano. Desde un punto de vista conceptual se ha visto la inconsistencia de tal ley, pues un robot puede no saber que está haciendo daño a un ser humano; y desde un punto de vista práctico se ha constatado la dificultad de programar tal ley.

La ética aplicada es un modo de aplicar conceptos éticos a cuestiones concretas de la actividad humana

Como resulta complicado aplicar una ética de mínimos, deberemos pasar a una ética de máximos. En este caso entran en juego los valores particulares de cada uno, la ética se vuelve individual y es cuando cada uno se comporta según una cierta moral con nombres y apellidos particulares (por ejemplo, según la moral católica, el pensamiento liberal o el materialismo histórico). Con esta perspectiva, ¿tendremos que diseñar robots cristianos, liberales, o marxistas, a gusto de cada usuario?

Para salir de esta espiral filosófica propongo aplicar la ética en tres momentos distintos (en su diseño, su entrega en forma de servicio y su uso), y de tres formas distintas: aplicar una ética en el diseño de sistemas inteligentes; disponer de un gobierno ético en las organizaciones que entregan servicios basados en inteligencia artificial; y permitir que cada usuario pueda obrar según sus valores éticos.

En el diseño ético se pueden aplicar algunos conceptos prácticos y posibles de programar, como evitar el sesgo o facilitar la explicación de resultados. Con el gobierno ético una organización puede garantizar a sus clientes y a la sociedad que aplica mecanismos de control, como, por ejemplo, disponer de sistemas auditables, que garantizan una entrega de servicios basados en inteligencia artificial de forma ética. De forma ética en el sentido de que cada individuo pueda tomar sus decisiones de manera autónoma y según sus valores éticos.

Este modelo de ética para la inteligencia artificial pone en juego a varios actores (diseñadores, organizaciones, usuarios), por lo que solo puede funcionar bajo lo que se conoce como ética aplicada. La ética aplicada es un modo de aplicar conceptos éticos a cuestiones concretas de la actividad humana y ha mostrado su utilidad en campos como la bioética o la ética de las profesiones.

Luego para responder a la pregunta “¿qué ética aplicamos?”, debemos contestar la ética aplicada y en los tres momentos antes descritos. No es un juego de palabras, sino aplicar con un método todo lo que hemos aprendido desde los tiempos de Platón.

Publicado en Digital Biz

 

Ética a Sophia

Ética a Sophia

Ética a Sophia

Tenemos un robot peregrinando por el mundo. Se llama Sophia y en su discurrir por el mundo nos quiere mostrar sus habilidades discursivas. Es un robot humanoide, quizá una robot (¿son como los ángeles, sin sexo?) basada en inteligencia artificial (IA) que deambula de país en país, de continente en continente, ofreciendo entrevistas y respondiendo, como puede y como sabe, a las preguntas de sus interlocutores. Podemos decir que es una maravillosa máquina parlante. Puede que no la primera.
En 1845 Joseph Faber presentó en Filadelfia a Euphonia, a la que denominó maravillosa máquina parlante. Consistía en una cabeza femenina de maniquí, dispuesta en un bastidor de madera. Mediante un conjunto de teclado y pedales, accionados por el propio Faber, se hacía pasar aire por una serie de lengüetas que reproducían la voz humana a través de la cabeza del maniquí. Era capaz de hablar en cualquier idioma europeo y de cantar el himno “Dios salve a la Reina”. Al igual que Sophia, respondía a las preguntas de su público como buenamente podía; si bien, en este caso, como buenamente podía Faber.

No podemos decir que Sophia y Euphonia sean lo mismo. Euphonia no estaba basada en IA, sino más bien en inteligencia natural. Sin embargo, Sophia y Euphonia tienen algo en común; algo que caracteriza a toda IA. Sabemos que cuando Euphonia respondía, en realidad era Faber quien respondía. Si la respuesta era acertada, el mérito era de Faber; si era una locura, peligraba más bien el propio Faber. En el caso de Sophia, ¿sabemos en realidad quién responde?

Si hablamos de ética, hablamos de responsabilidad; y detrás de una IA ética hay un ser humano responsable

El sistema de reconocimiento de voz de Sophia está basado en tecnología de Alphabet, filial de Google, su sistema de procesamiento verbal en CereProc, y su sistema de IA está diseñado por Hanson Robotics. Todo esto es correcto, pero no hemos respondido a la pregunta, ¿sabemos en realidad quien responde? La ética se fundamenta en la respuesta a esta pregunta.

Si hablamos de aplicar principios éticos a la IA, debemos poder responder a esta pregunta. Porque la ética se justifica por la existencia de un ser responsable, que actúa en un sentido u otro. La ética de Euphonia es la ética de Faber; ¿de quién es la ética de Sophia? La ética en la IA no es solo una cuestión tecnológica. Si hablamos de ética, hablamos de responsabilidad; y detrás de una IA ética hay un ser humano responsable.

Publicado en Innovadores

 

Votemos qué está bien qué está mal

Votemos qué está bien qué está mal

Votemos qué está bien qué está mal

La preocupación por complacer o por convencer tiende a prevalecer sobre las exigencias de la razón. Y el amor al éxito, sobre el amor a la verdad. Toda democracia favorece la sofística

André Comte-Sponville

En cierta ocasión una piedra desprendida desde lo alto de un acantilado mató a un joven que estaba abajo, tranquilamente mirando el móvil junto a la playa. La piedra fue condenada por asesinato. De nada valieron los argumentos de la defensa que sostenían que la piedra estaba sujeta a la ineludible ley de la gravedad. El juez dictó que la piedra, como vehículo en movimiento, debería haber decidido de forma autónoma el desviar su trayectoria para así evitar la muerte de aquel inocente joven. Este mismo absurdo razonamiento ocurre con los vehículos de conducción autónoma.

Actualmente existe el debate de qué decisión debe tomar un vehículo autónomo cuando se encuentre ante una situación que afecte a la integridad física de las personas. Por ejemplo, cómo actuar si en su trayectoria se encuentra a una persona cruzando la calle.

Para avanzar en este debate el MIT ha creado la plataforma de crowdsourcing “Moral Machine”. El objetivo es “construir una imagen amplia (mediante «crowdsourcing») de la opinión de las personas sobre cómo las máquinas deben tomar decisiones cuando se enfrentan a dilemas morales”. Para ello el MIT propone una serie de escenarios con dilemas morales relacionados con vehículos autónomos sobre los cuales los participantes deciden soluciones.

Por ejemplo, en una calle sin escapatoria por los laterales, un coche autónomo que no puede frenar se dirige hacia un paso de cebra sobre el cual cruzan ciertos viandantes. Se plantea entonces el dilema de si el vehículo debe seguir recto y matar a los viandantes que están en su carril cruzando la calle, o desviarse y matar a aquellos que están cruzando a la altura del carril contrario. Las disyuntivas que se plantean radican en el número y tipo de personas a matar. Así, en un escenario se plantea si es mejor matar a un viandante o a las cuatro personas que viajan en el coche; o matar a una joven frente a un delincuente; o bien, a una persona atlética respecto a un anciano achacoso. Estas cuestiones tienen su peligro y merecen una reflexión.

Una máquina no se enfrenta a dilemas a morales, somos nosotros a través de las máquinas y ésa es nuestra responsabilidad

Detrás del planteamiento de tales dilemas morales se encuentra la corriente filosófica ética denominada utilitarista, según la cual está bien aquello es bueno para la mayoría. En el caso de la plataforma del MIT, la solución correcta respecto a un posible escenario (por ejemplo, si matar a un anciano o a un joven), puede depender de la opinión más votada. Así planteado, parece que dejamos la vida en manos de la solución más votada, al puro estilo de un circo romano, por ello es más moderno decir que es una solución basada en una “plataforma de crowdsourcing”. De esta forma diluimos la responsabilidad en la modernidad.

Pero además existe un segundo error. Ninguna máquina toma ninguna decisión moral; son las personas que diseñaron los algoritmos de la máquina quienes toman una decisión moral. Un vehículo autónomo es como la piedra que cayó y mató al joven en el acantilado. Así como argumentó la defensa, que la piedra estaba sujeta a la ineludible ley de la gravedad, de la misma forma el vehículo autónomo está sujeto a la ineludible ley (o leyes) del algoritmo que algún ingeniero le programó. Ni la piedra es “autónoma”, ni el vehículo tampoco. Una máquina no se enfrenta a dilemas a morales, somos nosotros quienes nos enfrentamos a ellos a través de las máquinas y ésa es nuestra responsabilidad.

Todo esto nos lleva a una serie de preguntas a las cuales debemos dar respuesta antes de ponernos a programar: ¿es la moral una cuestión de democracia? ¿es el bien y el mal una cuestión de votos? ¿es siempre única la respuesta ante una pregunta ética?, y, en consecuencia, ¿podemos reducir las cuestiones éticas a fórmulas matemáticas, y por tanto a algoritmos? Hace falta más Kant y menos Watson.

Publicado en digitalbiz

 

Pin It on Pinterest