Ser éticos con la inteligencia artificial

Ser éticos con la inteligencia artificial

Ser éticos con la inteligencia artificial

¿Es la inteligencia artificial la que tiene que ser ética o el ser humano cuando la utiliza? He aquí las claves para entender el uso ético de la IA

 
 
Una inteligencia artificial ni tan buena ni tan mala

En 1889 el periódico inglés Spectator alertaba sobre los dañinos efectos intelectuales de la electricidad, y, en particular, del telégrafo. Declaraba que el telégrafo era un invento que claramente iba a afectar al cerebro y al comportamiento humano. Debido a este nuevo medio de comunicación, la población no paraba de recibir información de modo continuo y con muy poco tiempo para la reflexión. El resultado llevaría a debilitar y finalmente paralizar el poder reflexivo.

Nicholas Carr se preguntó algo similar respecto a Google. Ciertamente, viendo las patochadas que a veces se publican en las redes sociales, uno pudiera pensar que tal debilidad de reflexión ya ha se ha hecho realidad. Sin embargo, de ser verdad, no sería justo atribuirlo al desarrollo de la electricidad, sino más bien a la propia naturaleza de los hacedores de tales despropósitos.

La inteligencia artificial es excelente identificando patrones. La cuestión radica a qué dedicamos dicha excelencia.

Pero no todo iban a ser desgracias. El telégrafo también estaba llamado a traer la paz al mundo, al más puro deseo de un certamen de belleza. El telégrafo podía transmitir la información a la velocidad del rayo. Esto iba a permitir favorecer la comunicación entre toda la humanidad de forma instantánea, lo cual nos llevaría a una conciencia universal que acabaría con la barbarie. No parece que haya sido así. Hoy gozamos de una capacidad de comunicación inmediata sin precedentes, que permite compartir sin tardanza las imágenes de tu noticiable desayuno. Sin embargo, la barbarie sigue siendo nuestra compañera en la historia.

Algo similar sucede hoy en día con la inteligencia artificial: ni tan buena, ni tan mala. La inteligencia artificial trabaja principalmente identificando patrones y en esto es verdaderamente excelente. La cuestión radica a qué dedicamos dicha excelencia.

Esta identificación de patrones, permite, por ejemplo, identificar síntomas de Covid-19 en personas asintomáticas, evitando así la extensión de la enfermedad; también puede reconocer y clasifica leopardos por las manchas de su pelaje, favoreciendo su seguimiento y disminuir el riesgo de extinción; o bien reconocer trazos en la escritura de textos antiguos y determinar su número de autores. Es la cara amable y deseada de la inteligencia artificial que nos ayuda a mejorar la salud, el medioambiente y la ciencia.

Esta misma grandeza en reconocer patrones es la que permite a la inteligencia artificial clasificarnos (encasillarnos), por nuestra actividad en el uso de aplicaciones móviles o en redes sociales, para predecir nuestro comportamiento e incitarnos a comprar productos sin apenas ser conscientes. Nos puede recomendar aquello que realmente sabe que nos gusta o que necesitamos. La inteligencia artificial sabe más de nuestra intimidad que nosotros mismos. Este conocimiento sobre nuestra forma de ser es el que permite también generar notificaciones, cuidadosamente pensadas para mantenernos activos en dichas redes sociales, llegando a la adicción, tal y como denuncia el reportaje The Social Dilema.

Es un conocimiento matemático sobre nuestra personalidad que niega a la libertad una opción de existir. El año pasado, durante los meses más duros de la pandemia que suspendieron las clases docentes y la celebración de exámenes, en el Reino Unido se decidió utilizar un sistema de inteligencia artificial para determinar la evaluación académica de ese curso, en función de las calificaciones obtenidas en años anteriores. ¿Acaso no puedo ser distinto este año respecto al anterior y ahora estudiar más? ¿No es posible que mis actos futuros sean diferentes a mis patrones de comportamiento del pasado? ¿No aceptas que soy libre? Para la inteligencia artificial, la respuesta a todas estas preguntas es “no, no puedes, así lo dice mi algoritmo”.

Éticas para una inteligencia artificial

Estas preguntas en el fondo nos están hablando sobre la moral, aunque este término nos parezca algo “viejuno” (neologismo despectivo instagramer para decir antiguo, bien distinto, dicho sea de paso, de “vintage”, concepto elogioso de la misma antigüedad). Así es, porque la moral nos interpela sobre cómo actuar y sobre cómo responder, ante nosotros y ante la sociedad, sobre tales actos. Al hablar de actuar podemos pensar en nuestras actuaciones directas, o en aquellas a través de una herramienta como es la inteligencia artificial. Y si queremos pensar sobre la moral, debemos recurrir a la ética, que es la parte de la filosofía que se ocupa de la misma. ¡Quién nos iba a decir que la filosofía podía servir para algo práctico en nuestra vida! Pues sí, detrás de nuestra forma de pensar y de proponer soluciones se encuentran propuestas filosóficas.

Las Tres Leyes de Asimov se alimentan de Kant. Decidir que está bien según la mayoría, es ser utilitarista. La filosofía nos influye aunque no lo veamos 

Ese lado no tan amable de la inteligencia artificial que acabamos de ver es materia de preocupación. Como solución a ello existen ciertas propuestas que en el fondo se alimentan de propuestas filosóficas.

Una de las primeras soluciones a los dilemas éticos de la inteligencia artificial son las famosas Tres Leyes de la Robótica de Asimov. Constituyen tres principios éticos que supuestamente se deberían programar en un sistema inteligente. La primera de ellas, por ejemplo, dice que un robot no hará daño a un ser humano o, por inacción, permitirá que un ser humano sufra daño. Detrás de esta solución práctica se encuentra una visión de la ética de Kant, según la cual debemos actuar por un principio categórico, no condicionado por nada más. Tales leyes de la robótica serían esos principios categóricos de los sistemas inteligentes. Pero, como buena ética kantiana, tiene sus dificultades prácticas.

El primer problema surge de tratar con conceptos abstractos, tales como “hacer daño”. Matar es claramente hacer daño; poner una vacuna también causa dolor. ¿Hasta dónde llega el daño? El segundo problema viene de la evaluación del posible daño y de tener que evitar éste a todo ser humano. Si un sistema inteligente se encuentra con dos personas con la misma probabilidad de daño, no sabrá a quien atender y puede ocurrir que se acabe bloqueando.

Otra solución al comportamiento ético de la inteligencia artificial podría ser recurrir a una visión de la mayoría. Sí, ha leído bien: la mayoría decide qué está bien y qué está mal. Por ejemplo, supongamos que tenemos que decidir qué debe hacer un vehículo de conducción autónoma en el supuesto de accidente inmediato e irreversible que implica a viandantes: ¿salvamos a los ocupantes o a los viandantes? El MIT propone su Moral Machine para analizar estas posibles decisiones. Esta solución se ampara en la llamada ética utilitarista de Bentham según la cual una acción es buena si proporciona la mayor felicidad para el mayor número.

Este tipo de soluciones éticas se preocupan por las consecuencias de las acciones y no tanto por los principios que las inspiran, siendo la felicidad una de las principales consecuencias deseadas. Desde esta perspectiva utilitarista, las recomendaciones en redes sociales para ver nuevos contenidos serían éticamente aceptable. El sistema simplemente nos recomienda lo que más le satisface a la mayoría, aquello que más “like” ha conseguido. ¿Y si tanta recomendación me causa adicción, como hemos visto? Eso ya es responsabilidad de cada uno, se podría argumentar, pero el fin es bueno: las recomendaciones buscan mejorar la experiencia del usuario.

Principios, consecuencias y responsabilidad

En la última frase del párrafo anterior se encuentra la tercera variable de la solución ética a la inteligencia artificial: es responsabilidad de cada uno. Hemos visto que la moral consiste en la toma de decisiones y en cómo respondemos, ante nosotros y la sociedad, de dichas decisiones. El comportamiento ético de un sistema inteligente siempre debe concluir en la responsabilidad de una persona (o institución): de la persona responsable de la conducción de un vehículo autónomo; de la persona que determina una sentencia ayudado por un sistema inteligente; o de la persona que contrata en función de recomendaciones de machine learning. Esta responsabilidad es una dimensión más de una inteligencia artificial ética, pero no la única.

Existen además aquellas otras dos dimensiones que hemos visto en los ejemplos de posibles éticas a aplicar. Hemos hablado de una ética de principios (por ejemplo, Kant) y de una ética de consecuencias (por ejemplo, el utilitarismo). La solución ética a los sistemas inteligentes consiste en tres elementos: (1) determinar los principios que rigen dicho sistema, (2) evaluar sus consecuencias y (3) permitir que las personas afectadas puedan tomar decisiones.

Marco europeo para una inteligencia artificial fiable

Ésta es la idea que inspira a las propuestas de la Unión Europea en dos de sus textos principales para una inteligencia artificial fiable. En el documento Directrices Éticas para una Inteligencia Artificial Fiable establece el concepto de inteligencia artificial fiable como aquella que es lícita (que cumple con la normativa vigente), robusta (sin fallos para no causar daños) y ética (que asegure el cumplimiento de valores éticos). Sobre esta visión se construyen las tres dimensiones que comentamos.

Para que una inteligencia artificial sea fiable ésta debe partir de unos principios, que para la UE son: prevención del daño, equidad, explicación y autonomía humana, siendo este último el que garantiza esa capacidad de decisión. La inteligencia artificial no puede subordinar, coaccionar, engañar, manipular, condicionar o dirigir a las personas de manera injustificada. Al contrario, la inteligencia artificial debe potenciar las aptitudes cognitivas, sociales y culturales de las personas. Ésta es la dimensión de responsabilidad.

Permitir que las personas puedan tomar decisiones es un elemento ético principal

Para ayudar al cumplimiento de estos principios y garantizar esta responsabilidad, el marco de directrices establece una serie de requisitos claves a evaluar en cada sistema inteligente, tales como la acción y supervisión humana, la solidez técnica, la privacidad, la transparencia o la no discriminación. Estos requisitos clave se orientan a prevenir esas posibles consecuencias.

Para que todo esto no se queden en palabras bonitas, al albur de la buena fe y dado que la mejor forma de animar a dicha buena fe es la aplicación de medios coercitivos, la Comisión Europea ha propuesto una legislación con medidas concretas y sanciones sobre el uso de sistemas inteligentes. Esta normativa prohíbe ciertos usos de la inteligencia artificial, como, por ejemplo, aquellos que manipulan el comportamiento para eludir la voluntad de los usuarios o sistemas que permitan la «puntuación social» por parte de los Gobiernos. Otros usos de la inteligencia artificial, tales como su aplicación en procesos legales, control de migraciones, usos educativos o gestión de trabajadores, son considerados como de alto riesgo y deben tener un proceso previo de auditoría para su evaluación de conformidad antes de ser introducidos en el mercado. Este tipo de auditorías es demandado por distintas organizaciones, como We The Humans, think tank orientado hacia una inteligencia artificial ética.

El telégrafo no parece que nos haya hecho más tontos, ni ha eliminado la barbarie. Es un error pensar que una tecnología por sí sola va a resolver, o va a ser la causa de todos nuestros problemas. Todo depende del uso que hagamos de ella. Depende de nosotros, de nuestra responsabilidad, que la inteligencia artificial tenga un uso ético. La pregunta no es cómo hacer que la inteligencia artificial sea ética, sino cómo hacer que nosotros seamos éticos usando la inteligencia artificial.

Publicado en esglobal

 

El valor de una IA valiente

El valor de una IA valiente

El valor de una IA valiente

La inteligencia artificial no está consiguiendo el valor esperado. La solución no está reñida con la ética. Es posible obtener valor de la IA y tener el valor de ser éticos.

Rossumovi Univerzální Roboti (Robots Universales Rossum). Así se llama la obra de teatro del autor checo Karel ?apek, estrenada hace 100 años en el Teatro Nacional de Praga, y que ha pasado a la historia por acuñar por primera vez el término robot. La historia versa sobre la empresa Rossumovi Univerzální Roboti, que se dedica a la fabricación de unos artilugios humanoides, llamados robots, que proviene de la palabra checa “robota”, que significa “esclavo. Han sido diseñados con el saludable propósito de aliviar la carga de trabajo a los sufridos humanos. Finalmente, la situación se va de las manos y los robots acaban matando a toda la humanidad, excepto a un ingeniero, porque él, igual que los robots, trabaja con las manos.

Apenas un 20% de las organizaciones que invierten en inteligencia artificial obtienen verdadero valor de la misma

Curiosa metáfora que parece un sombrío augurio, si bien veo poco probable que suceda, al menos en el corto plazo. Al igual que hemos controlado otras tecnologías, ésta de la robótica y de la inteligencia artificial también estará bajo control, aunque no sin arduo trabajo. Hoy en día el problema no son los robots, sino la inteligencia artificial, la cual añade un riesgo mayor: que la inteligencia artificial, a diferencia de los robots, no se ve. Un robot es un muñeco que ves venir; la inteligencia artificial se encuentra sumergida en miles de aplicaciones, tomando decisiones sin que lo sepamos.

Esto es una cuestión ética (la ética habla de la toma de decisiones) y por ello ahora importa menos: porque las preocupaciones éticas son para los tiempos de bonanza, cuando el exceso de presupuesto permite dedicarse a “esas otras cosas”. Pues bien, existe otra cuestión con la inteligencia artificial que quizá resulte más interesante a los comités de dirección de las organizaciones: apenas un 20% de las organizaciones que invierten en inteligencia artificial obtienen verdadero valor de la misma. Así lo revela un informe de McKinsey de finales del año pasado.

La razón de tan bajo rendimiento no es solo una cuestión tecnológica. No es tanto un problema con la integración de datos que provienen de sistemas distintos, ni con la validez de los algoritmos o con la capacidad de procesamiento. La inteligencia artificial es una tecnología que tiene un tipo de diseño particular y, en consecuencia, presenta una problemática particular asociada. Debemos saber cómo entrenar bien a los algoritmos para evitar riesgos de sesgo o de robustez; es necesario entender por qué un sistema inteligente toma una decisión en detrimento de otra (‘explicabilidad’); los sistemas de machine learning tienen métodos específicos de ataque que permiten conocer los datos fuentes o causar resultados erróneos; o bien se deben cumplir regulaciones específicas relacionadas con protección de datos.

Podemos conseguir valor de la inteligencia artificial y tener el valor de ser éticos.

La solución a estas cuestiones escapa a la pura tecnología y se dirige más a los mecanismos de gestión y de gobierno. Hablamos de obtener el compromiso de todos los niveles de dirección, para evitar islas tecnológicas; de entender qué objetivos buscamos con la IA y si somos capaces de explicarlos a la sociedad; de disponer de líderes transversales que gestionen equipos con un balance adecuado de talento interno y externo; de contar con product owners que conozcan los riesgos y oportunidades de los sistemas inteligentes; y por último, para los más atrevidos, de velar por disponer de una inteligencia artificial éticamente responsable.

Como se ve, la solución no es nueva. Consiste en saber gestionar y gobernar la tecnología, en este caso con sus particularidades. Quizás nos falte un nombre a esta solución para hacerla más atractiva y así explicar con palabras brillantes los viejos problemas de siempre. Karel ?apek supo encontrar ese nombre para estos autómatas seudo-inteligentes. Tengamos nombre o no, sugiero aplicar esta visión con un doble afán: conseguir valor de la inteligencia artificial y tener el valor de ser éticos.

Publicado en Digital Biz

 

Las maquinas trabajan, nosotros ociamos

Las maquinas trabajan, nosotros ociamos

Las maquinas trabajan, nosotros ociamos

¿La tecnología nos ayuda o nos suplanta?

“Si tienes el correo electrónico en tu móvil, terminarás antes de trabajar y disfrutarás de más tiempo libre”. Recuerdo con claridad aquellos primeros anuncios de la BlackBerry. Un joven risueño y placentero se sentaba en un vagón de metro camino de su oficina. En el trayecto del suburbano accedía a su correo electrónico, revisaba sus mensajes y respondía convenientemente a cada uno de ellos. Todo ello con tal rapidez y acierto que al finalizar el viaje ya había resuelto sus tareas diarias. No era necesario ir a la oficina. El joven audaz cambiaba su destino y concluía el resto de la jornada disfrutando de la paz de un ameno parque, vestido con de traje, pero liberado de su corbata.

O bien este joven tenía poco que hacer, o bien el anuncio era irreal. El tiempo nos ha descubierto que era lo segundo: el anuncio era una mentira. Actualmente disponemos de todas nuestras herramientas de trabajo en el móvil: correo electrónico, paquetes ofimáticos (‘ofimático’, ¡qué antiguo!), sistemas de comunicación, reuniones virtuales; sin embargo, no parece que nuestras jornadas de trabajo sean menores. La razón es clara: la dirección por objetivos significa que, si cumples tus objetivos, ya se encargarán de ponerte otros nuevos; si eres capaz de responder tus correos en el trayecto del metro, ven a la oficina que te daré nuevos correos.

La tecnología altera seriamente el trabajo. Esto ha ocurrido desde que se inventó la palanca o la polea y se necesitaban menos personas para mover un cubo de piedra. Ahora la situación parece más alarmante por virtud, o vicio, de la inteligencia artificial. El último informe de la OCDE sobre el futuro del trabajo indica que el 14% de los trabajos tiene riesgo de automatización, lo cual no es poco, si bien supone un porcentaje mucho menor que lo expresado por otros informes. Además, no vaticina un desempleo masivo por la automatización. El informe es alentador, pero es un análisis de la era pre-virus.

La tecnología altera seriamente el trabajo. Ahora la situación parece más alarmante por la inteligencia artificial

En estos tiempos coronados la situación ha cambiado en cuestión de meses. La reclusión hogareña y el cierre físico de los negocios ha incrementado la digitalización de la actividad. En particular se está potenciando el uso de la inteligencia artificial, ya sea para ganar eficiencia, y reducir costes, para generar negocio, principalmente con big data y machine learning, o bien, unido a la robótica, para realizar tareas en el mundo físico y evitar contagios.

Se acrecienta el temor a que la inteligencia artificial genere desempleo y se aviva el discurso de un ingreso básico universal que nos sustente. El mensaje atrae, porque es bonito y simple: que las máquinas trabajen, y así nosotros ociamos. Nuevo anuncio BlackBerry. La idea tiene sus defensores y detractores. Recientemente el cofundador de Twitter, Jack Dorsey, ha donado 3 millones de dólares para un programa de ingreso básico en 16 ciudades de Estados Unidos; en nuestro país, se ha implantado el ingreso mínimo vital, quizá no tanto movido por la inteligencia artificial. Por otro lado, Calum Chace, experto en inteligencia artificial, argumenta que el concepto ‘ingreso básico universal’ contiene tres palabras donde al menos una de ellas no es buena. En todo caso, vaticina que la inteligencia artificial cambiará la economía y eso parece indudable.

La tecnología nos cambia la vida, pero ahora la situación no se observa con perspectiva halagüeña. En el anuncio de la BlackBerry el mundo aparecía feliz por causa de la tecnología; ahora aparece vacío (de trabajadores) por su misma causa. Una misma causa, pero distinta consecuencia: en el primer caso la tecnología parece que “nos ayuda”, en el segundo, parece que “nos suplanta”. Con independencia de la validez de un ingreso básico universal, el matiz entre una consecuencia y otra no depende de las máquinas, sino de nosotros.

Publicado en Digital Biz

Una IA ética y rentable en la economía pos-viral

Una IA ética y rentable en la economía pos-viral

Una IA ética y rentable en la economía pos-viral

Una IA ética y eficiente, que nos ayude a un crecimiento sostenible

No pensemos en ‘volver’ a una normalidad, ni siquiera a una ‘nueva normalidad’. Pensemos mejor que ‘avanzamos’ hacia una nueva sociedad con una nueva economía. ¿Cómo serán esta nueva sociedad y nueva economía? Apenas puedo vislumbrarlo, pero no muy diferentes, si todo lo que hacemos es lavarnos las manos, y no cambiamos nuestra forma de pensar.

De momento, en ese camino hacia una nueva economía, nos preocupa el siguiente paso. Este virus coronado ha mandado nuestro PIB a la UCI, la actividad económica permanece en cama, las empresas ven reducidas sus expectativas de facturación y nosotros nos tenemos que hablar a dos metros de distancia. Como solución tenemos de nuevo a la tecnología y las grandes corporaciones anuncian inversiones millonarias en digitalizar su actividad para los próximos años.

¿Qué tipo de digitalización? Principalmente encaminada a dos objetivos: mejorar la eficiencia, para reducir costes y mantener un cierto beneficio; y permitir la interacción a distancia con los clientes. Para ello la inteligencia artificial (IA) y la robótica se presentan como dos poderosas aliadas.

Es posible aunar IA con eficiencia y ética. No tenemos que elegir entre uno u otro. Es factible aplicar la ética en la IA para conseguir resultados eficientes y sostenibles

Es posible aunar IA con eficiencia y ética. No tenemos que elegir entre uno u otro

La IA se está viendo como una potente herramienta para mejorar la eficiencia en distintos ámbitos y funciones de una organización. Desde aplicaciones de productividad personal que realizan actividades como leer correos en voz alta o agendar reuniones, hasta sistemas inteligentes para funciones específicas como la reducción de costes de energía, la eficiencia en procesos de reclutamiento, la automatización de tareas de contabilidad (junto con RPA) o la mejora de las operaciones de TI (IAOps).

La IA puede ser nuestro respirador artificial en los próximos años, pero sí solo pensamos en su aplicación con ánimo de eficiencia, seguiremos pensando como antes y será, como dije, nada más que lavarse las manos. Volveremos a la vieja normalidad, si bien, con las manos limpias. ¿Dónde quedarán las cuestiones éticas de la IA? ¿Las abandonaremos en favor de una eficiencia para la salud?

Se puede pensar que ahora no es tiempo de cuestiones éticas; que la ética es para tiempos de bonanza, cuando hay dinero para ‘otras cosas’. Quizá no sea así si nos fijamos en los llamados índices MSCI ESG Leaders (Environmental, Social and Governance). Esta nueva peste universal ha supuesto pérdidas en las bolsas de todo el mundo, si bien los índices MSCI ESG Leaders han resistido mejor a la crisis que sus homólogos principales en la mayoría de las geografías.

Por consiguiente, si la IA es una poderosa herramienta para ayudarnos a salir de la crisis y hacerlo éticamente permite un crecimiento más sostenible, ¿cómo logramos esto? Usando la ética aplicada.

Pensemos, por ejemplo, en un chatbot como sistema inteligente que sirve de complemento a un centro de atención al usuario. Las acciones para una ética aplicada son las siguientes:

  1. Determinar el fin específico por el que cobra sentido el sistema inteligente (chatbot). En este caso, conocer mejor al cliente para ayudarle mejor.
  2. Esclarecer los medios que usa el chatbot para conseguir tales fines. Todas las personas relacionadas con el chatbot deben entender cómo éste analiza la información y toma sus propias decisiones.
  3. Indagar qué valores debemos incorporar para alcanzar dicho fin. Este paso requiere debate. Como punto de partida podemos tomar los valores propuestos por la bioética: autonomía, beneficencia y justicia.
  4. Dejar que los afectados (organizaciones y usuarios), con la información adecuada (todo lo anterior), ponderen las consecuencias y puedan tomar decisiones. Para ello se pueden usar marcos prácticos como las Directrices para una IA Confiable de la Comisión Europea.

Es posible aunar IA con eficiencia y ética. No tenemos que elegir entre uno u otro. Es factible aplicar la ética en la IA para conseguir resultados eficientes y sostenibles. Esto nos puede llevar efectivamente hacia una nueva sociedad y una nueva economía, y no solo ‘lavarnos las manos’.

Ya sabemos que esta expresión nace de la escena en la que Pilatos evita la responsabilidad de sus actos. Significa ‘aquí está el hombre’, refiriéndose a un Jesús lacerado. La frase sigue vigente. Podemos lavarnos las manos en cuestiones éticas de la IA, pero sigue el ‘ecce homo’, es decir, nosotros.

Publicado en Expansión

 

Robots cristianos, liberales, o marxistas

Robots cristianos, liberales, o marxistas

Robots cristianos, liberales, o marxistas

El modelo de ética aplicada

“Pero, ¿qué ética?”, me quedé algo sorprendido por su espontánea y razonable pregunta. Ante mi silencio, continuó mi interlocutora. “Sí, estamos de acuerdo en que necesitamos una ética para la inteligencia artificial. Pero, insisto, ¿qué ética aplicamos? Y si encontramos una ética, ¿cómo la aplicamos?”. Mi dialogante amiga me abandonó, pues su agenda la requería en otro lugar. De pronto mi imaginación me trasladó a la Academia de Platón donde comenzaron las primeras discusiones éticas y me vi debatiendo la tesis de Protágoras sobre que toda moral es opinable, o la de Gorgias sobre que es mejor cometer una injusticia que padecerla. Una alerta de Android en mi móvil esfumó aquella imagen; necesitaba actualizar mi sistema operativo, y así hice.

Si buscamos una ética que aplicar en la inteligencia artificial lo tenemos complicado, pues desde aquellos tiempos de Platón no hemos llegado a una solución concluyente sobre una ética admitida por todos. Dado este desacuerdo, debemos acudir a lo que se llama una ética de mínimos, es decir, a unos principios morales mínimos en los que todo ser racional pueda estar de acuerdo (por ejemplo, no hacer daño o ser justo). Como tenemos que estar de acuerdo, no podemos entrar en detalles, y por ello resulta que la ética de mínimos acaba hablando de principios muy genéricos, que resultan poco útiles en la práctica y, por tanto, complicados de programar en un sistema inteligente.

Las tres leyes de la robótica de Asimov son de alguna forma una ética de mínimos, al establecer en su primera ley que un robot no podrá hacer daño a un ser humano. Desde un punto de vista conceptual se ha visto la inconsistencia de tal ley, pues un robot puede no saber que está haciendo daño a un ser humano; y desde un punto de vista práctico se ha constatado la dificultad de programar tal ley.

La ética aplicada es un modo de aplicar conceptos éticos a cuestiones concretas de la actividad humana

Como resulta complicado aplicar una ética de mínimos, deberemos pasar a una ética de máximos. En este caso entran en juego los valores particulares de cada uno, la ética se vuelve individual y es cuando cada uno se comporta según una cierta moral con nombres y apellidos particulares (por ejemplo, según la moral católica, el pensamiento liberal o el materialismo histórico). Con esta perspectiva, ¿tendremos que diseñar robots cristianos, liberales, o marxistas, a gusto de cada usuario?

Para salir de esta espiral filosófica propongo aplicar la ética en tres momentos distintos (en su diseño, su entrega en forma de servicio y su uso), y de tres formas distintas: aplicar una ética en el diseño de sistemas inteligentes; disponer de un gobierno ético en las organizaciones que entregan servicios basados en inteligencia artificial; y permitir que cada usuario pueda obrar según sus valores éticos.

En el diseño ético se pueden aplicar algunos conceptos prácticos y posibles de programar, como evitar el sesgo o facilitar la explicación de resultados. Con el gobierno ético una organización puede garantizar a sus clientes y a la sociedad que aplica mecanismos de control, como, por ejemplo, disponer de sistemas auditables, que garantizan una entrega de servicios basados en inteligencia artificial de forma ética. De forma ética en el sentido de que cada individuo pueda tomar sus decisiones de manera autónoma y según sus valores éticos.

Este modelo de ética para la inteligencia artificial pone en juego a varios actores (diseñadores, organizaciones, usuarios), por lo que solo puede funcionar bajo lo que se conoce como ética aplicada. La ética aplicada es un modo de aplicar conceptos éticos a cuestiones concretas de la actividad humana y ha mostrado su utilidad en campos como la bioética o la ética de las profesiones.

Luego para responder a la pregunta “¿qué ética aplicamos?”, debemos contestar la ética aplicada y en los tres momentos antes descritos. No es un juego de palabras, sino aplicar con un método todo lo que hemos aprendido desde los tiempos de Platón.

Publicado en Digital Biz

 

Ética a Sophia

Ética a Sophia

Ética a Sophia

Tenemos un robot peregrinando por el mundo. Se llama Sophia y en su discurrir por el mundo nos quiere mostrar sus habilidades discursivas. Es un robot humanoide, quizá una robot (¿son como los ángeles, sin sexo?) basada en inteligencia artificial (IA) que deambula de país en país, de continente en continente, ofreciendo entrevistas y respondiendo, como puede y como sabe, a las preguntas de sus interlocutores. Podemos decir que es una maravillosa máquina parlante. Puede que no la primera.
En 1845 Joseph Faber presentó en Filadelfia a Euphonia, a la que denominó maravillosa máquina parlante. Consistía en una cabeza femenina de maniquí, dispuesta en un bastidor de madera. Mediante un conjunto de teclado y pedales, accionados por el propio Faber, se hacía pasar aire por una serie de lengüetas que reproducían la voz humana a través de la cabeza del maniquí. Era capaz de hablar en cualquier idioma europeo y de cantar el himno “Dios salve a la Reina”. Al igual que Sophia, respondía a las preguntas de su público como buenamente podía; si bien, en este caso, como buenamente podía Faber.

No podemos decir que Sophia y Euphonia sean lo mismo. Euphonia no estaba basada en IA, sino más bien en inteligencia natural. Sin embargo, Sophia y Euphonia tienen algo en común; algo que caracteriza a toda IA. Sabemos que cuando Euphonia respondía, en realidad era Faber quien respondía. Si la respuesta era acertada, el mérito era de Faber; si era una locura, peligraba más bien el propio Faber. En el caso de Sophia, ¿sabemos en realidad quién responde?

Si hablamos de ética, hablamos de responsabilidad; y detrás de una IA ética hay un ser humano responsable

El sistema de reconocimiento de voz de Sophia está basado en tecnología de Alphabet, filial de Google, su sistema de procesamiento verbal en CereProc, y su sistema de IA está diseñado por Hanson Robotics. Todo esto es correcto, pero no hemos respondido a la pregunta, ¿sabemos en realidad quien responde? La ética se fundamenta en la respuesta a esta pregunta.

Si hablamos de aplicar principios éticos a la IA, debemos poder responder a esta pregunta. Porque la ética se justifica por la existencia de un ser responsable, que actúa en un sentido u otro. La ética de Euphonia es la ética de Faber; ¿de quién es la ética de Sophia? La ética en la IA no es solo una cuestión tecnológica. Si hablamos de ética, hablamos de responsabilidad; y detrás de una IA ética hay un ser humano responsable.

Publicado en Innovadores

 

Pin It on Pinterest