Los nuevos quijotes digitales

Los nuevos quijotes digitales

Los nuevos quijotes digitales

La Inteligencia Artificial y las redes sociales

«Se enfrascó tanto en su lectura, que se le pasaban las noches leyendo de claro en claro, y los días de turbio en turbio; y así, se le secó el celebro de manera que vino a perder el juicio [y] vino a dar en el más extraño pensamiento que jamás dio loco en el mundo, que fue hacerse caballero andante para el aumento de su honra».

Don Quijote perdió el juicio porque quedó atrapado en sus “redes sociales”, en su caso, las lecturas de libros de caballería, y así ocurre actualmente. Hoy en día puede que no leamos libros de caballería, pero al igual que Don Quijote, solo leemos aquello nos gusta, o lo que es peor, aquello que una cierta inteligencia artificial tonta dice que nos gusta. Y ya se está viendo el resultado: se están creando nuevos locos, nuevos quijotes digitales, que en busca del aumento de su honra en forma de “likes” se animan a realizar y publicar las más notables patochadas, como echarse agua hirviendo por encima o romper sandías con la cabeza, en una especie de combate mundial por ver quién es el campeón en disparates.

Don Alonso Quijano acabó convirtiéndose en Don Quijote porque solo leía libros de caballerías y pensaba que no había otro mundo fuera de la caballería andante. Actualmente cada uno solo lee sus particulares libros de caballería andante en forma de noticas, mensajes, tuits, vídeos o fotos creándose un nuevo universo imaginario.

Todo comienza cuando nos subscribimos a aquello que nos gusta: por ejemplo, en Pinterest, uno “pinea” aquellas fotos sobre temas de su interés; en LinkedIn, te suscribes a canales sobre contenidos afines; o en Instagram sigues a los que son como tú, o que tú quieres ser como ellos. En todos los casos, buscamos solo aquellas dimensiones de nuestro mundo en las cuales estamos conformes, llegando entonces a un mundo de una sola dimensión: solo hay caballería andante.

Se están creando nuevos locos, nuevos quijotes digitales, que en busca del aumento de su honra en forma de “likes” se animan a realizar y publicar las más notables patochadas

Pero la cuestión se complica más: se autoalimenta. Porque en base a tales suscripciones, según los “me gusta” gratuitos que ofrecemos, y atendiendo a los comentarios que hacemos, los algoritmos de tales redes sociales se toman la libertad de reducir más nuestra libertad con amables recomendaciones sobre aquello que “ellos” saben que nos gusta. Por ejemplo, si somos amantes de los gatos siameses, en Pinterest solo vemos fotos de gatos siameses; en LinkedIn nos aparecen conferencias y congresos sobre gatos siameses (seguro que existen tales conferencias); y en Instagram, recibimos vídeos sobre pequeñas aventuras de gatos siameses. Pero no termina ahí la pedagogía siamesa: si accedemos a cualquier publicación digital, nos aparece publicidad sobre alimentación para gatos siameses y si entramos en Amazon a comprar un libro sobre física cuántica, el algoritmo nos propone libros sobre el apasionante mundo de los gatos siameses cuánticos. Definitivamente, nos creamos nuestro mundo de caballería andante (en este caso con gatos siameses en su escudo de armas).

Por virtud de la inteligencia artificial y del “big data”, la situación todavía se enreda algo más. En el confuso libro “Homo Deus”, el autor, Yuval Noah Harari, nos habla de la crisis del liberalismo, entre otras razones, porque los algoritmos del futuro superarán nuestra capacidad de decisión al conocernos ellos mejor que nosotros mismos. Propone el caso de un asistente personal basado en Google al cual puedo preguntar sobre el dilema de qué chica es más conveniente para tener una cita. De esta forma el algoritmo me puede decir, que, si bien una de las candidatas ciertamente me atrae, dada mi alocada visión de la vida, aquella otra es más conveniente, debido a esa estabilidad que en lo más profundo de mi ser deseo, y que él, y sólo él, sabe, porque sabe más sobre mí que yo mismo. Y si un día me compro un perro labrador, cuando Google se entere, porque se acabará enterando, me mandará un aviso al móvil, o directamente al cerebro, diciéndome que dónde voy, si lo que me gustan son los gatos siameses. Gracias a mamá Google nuestro mundo de caballería andante permanece inalterable.

Al final de sus días, Don Quijote recobró la razón, y así lo dice en su último capítulo:
“Yo tengo juicio ya libre y claro, sin las sombras caliginosas de la ignorancia que sobre él me pusieron mi amarga y continua leyenda de los detestables libros de las caballerías. Ya conozco sus disparates, y no me pesa sino que este desengaño ha llegado tarde”.

Actualmente ya tenemos quijotes atrapados en las aspas de las redes sociales que muestran al mundo todos sus disparates via Youtube. La unión de las redes sociales más la inteligencia artificial nos puede llevar a una sociedad artificiosa, en la que creamos que todos piensan como nosotros, y en la que sólo se nos muestre aquello que unas fórmulas matemáticas dicen que nos gusta y que, además, es para nuestro bien.
Yuval Noah Harari habla de la crisis del liberalismo; más allá de esto está la crisis de la libertad. De la libertad basada en la diversidad, en la apertura a otros posibles mundos; en la posibilidad de aprender en base al error, que es la oportunidad a la creatividad. Si evitas la diversidad, tu universo se convierte en un monoverso aburrido, donde no hay espacio para la creatividad.

De nosotros depende el crear mundos de caballería, andante o no. Debemos diseñar una inteligencia artificial verdaderamente inteligente que no nos encierre en nuestro mundo de caballería basado en “likes”; corremos si no, el riesgo de convertirnos en quijotes digitales. Para ello recomiendo dos posibles acciones:

  •  Los algoritmos inteligentes que ofrezcan contenidos deben proponer opciones fuera de los supuestos intereses del usuario y fomentar la curiosidad.
  •  Los verdaderamente inteligentes debemos ser nosotros y abrirnos a otros intereses.

Don Quijote tuvo el pesar de liberarse tarde de su mundo de caballería. Que no nos pase igual, y terminemos votando a un gato siamés como presidente del gobierno.

Y por acabar al más puro estilo cervantino, me despido diciendo:
Vale.

Publicado en Computer World Red de Conocimiento

 

 

Blockchain y la ciudad perfecta de Platón

Blockchain y la ciudad perfecta de Platón

Blockchain y la ciudad perfecta de Platón

Organizaciones Autónomas Descentralizadas

 

Inteligencia, carácter y deseo: según Platón, estos son los tres elementos del alma humana, y son, por tanto, los tres elementos que deben configurar la ciudad perfecta. Una ciudad, que, a semejanza del alma, estará dividida en tres estamentos: los filósofos, los guardianes y los obreros. Cada uno de ellos deberá cultivar la virtud que más se adecua a su función: los filósofos desarrollarán la sabiduría, pues ellos deben gobernar; los guardianes, el valor, para proteger y defender la ciudad; y los obreros, la templanza, como corresponde a quienes deben trabajar para los dos estamentos superiores y obedecer las leyes.

Esta visión nos parece lejana y también superada. Recuerda a “Un mundo feliz” de Aldous Huxley, que está lejos de ser verdaderamente un mundo feliz. Pero no es una visión tan lejana. De alguna forma se encuentra en las tendencias actuales que cifran en la tecnología la solución buena a todos nuestros males, toda vez que consigamos que las personas intervengan lo menos posible y todo sea hecho mediante máquinas y algoritmos ecuánimes. Es el caso de las llamadas Organizaciones Autónomas Descentralizadas (DAO, por sus siglas en inglés), basadas en la cadena de bloques (blockchain).

Estas organizaciones se denominan “autónomas” por cuanto pueden operar sin la mediación de personas. ¿Cómo? Mediante la realización de transacciones controladas por contratos inteligentes. Son “descentralizadas” porque el control de dichas transacciones se confía en la cadena de bloques. Por tanto, los contratos inteligentes actúan a modo de procesos, o reglas que rigen la organización, mientras que el negocio en sí de tal organización es la ejecución de ciertas transacciones.

Un ejemplo de organización DAO lo tenemos en la empresa The DAO, creada en abril de 2016 sobre la plataforma Ethereum como una empresa de capital riesgo. Su objetivo era financiar proyectos de manera transparente y descentralizada. Los proyectos eran propuestos por “contratistas”, cuya identidad era validada por voluntarios llamados “comisarios” (curators), quienes publicaban los proyectos en una lista blanca, de tal forma que un inversor podía financiar un proyecto dado, según su interés. Es decir, las transacciones de DAO, consistían en la transferencia de dinero a un proyecto dado, que era regido mediante el contrato inteligente (el proceso) entre los contratistas e inversores que hemos descrito.

El futuro de la transformación digital sólo será posible si no nos empeñamos en sacar a las personas de la ecuación

Supuestamente esta organización descentralizada era perfecta por la ausencia de intermediarios, lo que garantizaba que no se desviara ningún tipo de financiación hacia manos poco claras. Un mundo feliz. Es la ciudad descrita por Platón. La inteligencia se encuentra en los contratos inteligentes, sus algoritmos son los filósofos que practican la sabiduría; los guardianes son los “comisarios”, o más en general, los mineros de blockchain que verifican las transacciones antes de incorporarlas a una cadena de bloques en un nodo particular; los obreros somos el resto, cuya capacidad no nos alcanza a entender lo complejo de este mundo digital y solo nos queda servir a quienes lo gobiernan y seguir sus leyes con templanza de ánimo.

Por desgracia, la empresa The DAO no tuvo una existencia feliz. En junio de 2016 se explotó una vulnerabilidad del código, es decir, del contrato inteligente (que no sería entonces tan inteligente) y sufrió un ataque permitiendo capturar millones de etheres (la criptomoneda de Ethereum) destinados a financiar proyectos. Los bloques de The DAO tuvieron que ser intervenidos manualmente para restaurar la situación. Parece entonces que la Organización Autónoma Descentralizada no era tan autónoma, ni nuestro mundo era tan perfecto.

El futuro de la transformación digital sólo será posible si no nos empeñamos en sacar a las personas de la ecuación. Ni la inteligencia artificial es tan inteligente, ni las DAO tan autónomas. En todos los casos es necesario tener una intervención humana. No podemos pensar que el sueño de un mundo feliz reside en apartar a las personas (supuesta fuente de imperfección) para ser gobernados por máquinas. No, por la simple razón de que esas máquinas están a su vez gobernadas por algoritmos creados por personas.

Para encontrar solución podemos recurrir de nuevo a Platón. Al final del libro IX de su obra La República, donde describe esta ciudad perfecta, reconoce, por boca de Glauco, que tal ciudad “no existe, salvo en nuestra idea”. A lo que Sócrates responde que acaso en el cielo haya un modelo que sirva de referencia a quien lo vea, para “arreglar sobre él la conducta de su alma”.

Si buscamos una ciudad perfecta, no pensemos en cambiar las personas por máquinas, sino en cambiar nosotros como personas para crear esa ciudad perfecta.

 Publicado en DigitalBiz

 

50 vueltas al sol del Sargento Pimienta

50 vueltas al sol del Sargento Pimienta

50 vueltas al sol del Sargento Pimienta

Algoritmos responsables para la Inteligencia Artificial

La idea que se encuentra detrás del famoso álbum de los Beatles “Sgt. Pepper’s Lonely Hearts Club Band” quizá no sea muy distinta de lo que vivimos hoy con la tecnología y en particular con la inteligencia artificial. Hacia finales de 1966 el aclamado grupo de Liverpool estaba cansado de las giras multitudinarias y de “hacer música ligera para gente ligera”. Querían dejar de ser los Beatles, al menos tal y como se les conocía. Se tomaron unos meses de vacaciones y a su regreso decidieron hacer una música totalmente nueva, compuesta por un grupo totalmente nuevo: ese grupo era la Banda del Club de los Corazones Solitarios del Sargento Pimienta. Una banda con unos personajes ficticios, al mando de un no menos ficticio Sargento Pimienta, que representaban lo que ahora querían ser. De ahí surgió la novedosa portada, donde los Beatles aparecen renovados (ahora diríamos, “reinventados”), vestidos en un cierto estilo pop-marcial. “Sgt. Pepper’s Lonely Hearts Club Band” es una obra maestra de la música, por su arte y su innovación, y una premonición de nuestros días.

Actualmente la tecnología también nos permite alejarnos de nuestra realidad y dejar de ser quien somos. En las redes sociales podemos vivir una vida virtual completamente ajena a nuestro día a día. Si queremos, podemos ser cualquier sargento Pimienta; basta con asignarnos dicho perfil en cualquier cuenta de Twitter, Facebook o Google+. Nadie nos va a preguntar por qué. El sueño de los Beatles de querer dejar de ser quien eres es hoy más fácil.

¿Y la Inteligencia Artificial, es quizá un deseo guiado de dejar de ser humanos? Interesante cuestión, cuya respuesta quizá escape del propósito de este artículo. No obstante, sin atender a la razón que se oculta tras nuestro ímpetu con la inteligencia artificial, sí es bueno considerar sus consecuencias.

Detrás de la inteligencia artificial, ya sea un robot, una machine learning o un chatbot, se encuentra un alter ego nuestro, un cierto Sargento Pimienta, que de una forma u otra toma decisiones en nuestro nombre. El caso más claro lo tenemos en los coches autónomos, donde un Sargento Pimenta al volante decide si atropellar a un viandante o salvar al ocupante de su vehículo en una situación de emergencia.

¿Es la inteligencia artificial un deseo guiado de dejar de ser humanos?

Cuando los Beatles publicaron su álbum de la banda del sargento Pimienta, explicaron por qué lo hacían: estaban cansados de ser los Beatles, cansados de hacer música ligera vestidos de niños bien; ahora querían experimentar con nuevos estilos, nuevos instrumentos y nuevas técnicas de grabación. Si utilizamos la inteligencia artificial también debemos explicar por qué lo hacemos y, sobre todo, cómo funciona. Debemos saber por qué un sistema toma una decisión en detrimento de otra.

Esto se conoce como “algoritmos responsables”. Consiste en la definición de una serie de principios que ayuden a los diseñadores a crear sistemas inteligentes socialmente responsables. Con buen juicio rechazan el argumento irresponsable que se excusa diciendo “el sistema decidió hacer…”; pues detrás de todo sistema (o sargento pimienta) hay una persona real que ha decidido la respuesta de su algoritmo. Para ello un conjunto de empresas relevantes en el mundo del software han creado los siguientes cinco principios para el desarrollo de algoritmos responsables:

  • Responsabilidad: para cada sistema inteligente debe existir una persona responsable del mismo, capaz de resolver incidencias (técnicas o sociales) en un tiempo adecuado. No es tanto una responsabilidad jurídica, sino una responsabilidad de actuación en tiempo y forma ante un evento con impacto social.
  • Explicación: cualquier decisión tomada por un sistema inteligente debe poder explicarla a las personas afectadas.
  • Precisión: los sistemas inteligentes cometen errores, ya sea por defecto en sus datos de entrada o por incertidumbre en su tratamiento estadístico. Un algoritmo preciso implica un exhaustivo análisis de los datos de entrada y de la lógica subyacente, hasta entender la naturaleza de cualquier error.
  • Auditable: cualquier algoritmo debe poder ser auditado por terceras partes con el propósito de probar y revisar su comportamiento esperado.
  • Imparcialidad: los sistemas inteligentes toman decisiones en base a datos históricos, los cuales pueden estar sesgados por comportamientos inapropiados. Cualquier decisión tomada por un algoritmo responsable debe estar libre de todo tipo de discriminación y sus criterios de decisión en este sentido deben ser públicos.

Poner esto en práctica no es solo cuestión de un grupo técnico de desarrolladores. Estos principios de responsabilidad algorítmica sólo se sustentan con un sistema de gestión que asigne las responsabilidades debidas y establezca los procesos adecuados. Por ejemplo, determinando quién es ese responsable último de la respuesta de un sistema inteligente y cómo soluciona en un tiempo adecuado si dicho sistema presenta un comportamiento inadecuado; o bien cómo se puede auditar un algoritmo, por quién y con qué consecuencias; o finalmente, quién y cómo explica el comportamiento de nuestro Sargento Pimienta cuando éste parece tomar ciertas decisiones.

Los Beatles publicaron el disco “Sgt. Pepper’s Lonely Hearts Club Band” en 1967, es decir, hace 50 años. Se da la circunstancia, menos memorable, que ese mismo año nací yo. Desde entonces he dado 50 vueltas al sol, viendo cómo la tecnología juega con una naturaleza humana que siempre busca lo mismo. Ahora tenemos el reto de la inteligencia artificial: reto más social y de gestión que tecnológico. En ello estaremos las próximas 50 vueltas y más.

Publicado en Computer World Red de Conocimiento

Ver la Gracia en la Inteligencia Artificial

Ver la Gracia en la Inteligencia Artificial

Ver la Gracia en la Inteligencia Artificial

Blockchain y el algoritmo de rudimentos éticos

El pintor holandés de principios del siglo XX Theo van Doesburg tiene una obra titulada “Composición VII (Las Tres Gracias)”. La obra consiste en una serie de franjas blancas, rojas, azules y beis dispuestas en distintas posiciones sobre un fondo negro. Por tanto, si uno intenta buscar a las tres Gracias, al estilo del famoso cuadro de Rubens, no encuentra nada. Esto es lo que hace interesante la pintura de Doesburg; y esto es la grandeza del proceso creativo, el cual forma parte de la inteligencia:

Nuestro pensamiento toma como referencia una obra anterior, la reelabora y crea algo diferente.

Así funciona la inteligencia artificial, pero expresado de otro modo y en formato pobre. Existe un algoritmo (el equivalente a mente) que toma como entrada un dato existente (una obra anterior), lo procesa mediante un algoritmo (lo reelabora) y da como resultado un nuevo dato. Lo que para nosotros es creatividad, en la inteligencia artificial se llama retroalimentación. Este proceso ha hecho que recientemente un sistema inteligente de etiquetado de fotos creado en la Universidad de Virginia se volviera sexista. En aquellas fotos en las que aparecía un hombre en una cocina, etiquetaba a la persona con sexo femenino. Algo similar le ocurrió a un sistema de Google que etiquetó a personas de color como gorilas; o es famoso Tay, el robot-charlatán (chatbot) de Microsoft, que acabó escribiendo Twits alabando el buen hacer de Hitler. La inteligencia artificial puede convertirse en una obra que no podamos llegar a reconocer, como las tres gracias de Doesburg, pero sin la iluminación de un espíritu artístico. ¿Cómo podemos evitar esto?

Quizá la tecnología de cadena de bloques (block chain) nos pueda ayudar. Uno de los aspectos que se discuten hoy en día sobre la ética en la inteligencia artificial (IA) es cómo dotar a la misma de un comportamiento ético aceptable. Es decir, cómo dotar a la IA de algún tipo de algoritmo que le lleve a distinguir lo que está bien de lo que está mal. Ésa es la manzana del Jardín del Edén y por ello mi intuición me dice que ese comportamiento no es posible programarlo en un algoritmo (si fuera posible, no existiría la ética, sino una cierta fórmula matemática). No obstante, sí puede ser posible disponer un algoritmo que establezca algunos límites de comportamiento y unas directrices de actuación para los sistemas de IA: llamémoslo algoritmo de rudimentos éticos. La siguiente cuestión sería cómo garantizar que todo sistema de IA dispone de dicho algoritmo en su diseño y que éste no es modificado, o es modificado por consenso. Es aquí donde la cadena de bloques nos puede ayudar. La esencia de la cadena de bloques es la descentralización y la eliminación de intermediarios. Entre sus distintas utilidades, más allá de las transacciones monetarias, se encuentran los llamados contratos inteligentes o la computación distribuida. Un contrato inteligente es una acción que se ejecuta cuando se cumple una condición. La computación distribuida es la ejecución de algoritmos en las máquinas de los llamados mineros, que son los que garantizan la veracidad de una transacción. Ese algoritmo de rudimentos éticos puede estar distribuido en una cadena de bloques, de tal forma que nadie de manera individual pueda modificarlo (descentralización).

Además, todo sistema IA debe conectarse a él mediante contratos inteligentes, en una especie de certificación, de tal forma que se pueda producir una acción (por ejemplo, el apagado del sistema AI), si se produce un resultado no deseable de dicho sistema. En esencia, los posibles riesgos de la inteligencia artificial los tendremos que resolver entre todos y ésa es la naturaleza de la cadena bloques: el trabajo de todos, la conciencia colectiva. Quizás al ver el cuadro de Doesburg no identificamos ninguna de las tres Gracia, pero sí sentimos que estamos ante algo nuevo, sublime. En nuestra mano está que al hablar de inteligencia artificial también tengamos la sensación de estar ante algo sublime, y no sólo ante un conjunto de algoritmos que nos quitan puestos de trabajo.

Esa conciencia colectiva de la cadena de bloques puede ser un primer paso

Publicado en Digital Biz, Homo Digitalis

IA: Intencionalidad Artificial

IA: Intencionalidad Artificial

IA: Intencionalidad Artificial

La Plaza del Campidoglio se halla en lo alto de una de las siete colinas de Roma, la Colina Capitolina. Durante la Edad Media esta plaza fue el centro político y civil, que se alzaba como continuación del Foro Romano. Con el tiempo fue perdiendo relevancia y acabó convertida en lugar de pasto para las cabras. En 1537 el papa Pablo III encargó a Miguel Ángel la remodelación de la plaza, ante su estado arrumbado y por ser el escenario previsto para el desfile triunfal de bienvenida al emperador Carlos V. Miguel Ángel, con su genio nato, creó una obra maestra de la arquitectura, no sólo por ordenar geométricamente un espacio asilvestrado, sino por su visión innovadora.

La notoria innovación de Miguel Ángel fue abrir la nueva plaza hacia la Basílica de San Pedro del Vaticano, en construcción por entonces, al ser el renovado centro de poder de toda Europa y dar la espalda al Foro Romano, antiguo poder civil. Aquello supuso un cambio manifiesto, cargado de intención, y con un mensaje claro en apoyo hacia el poder papal. Hoy puede que no nos demos cuenta, pero en aquel momento fue reconocido por todos, pues la única vista desde la plaza eran los dominios papales. Todo, hasta una plaza, es susceptible de ser el vehículo de ideas o valores de las personas.

Podemos pensar que afortunadamente hoy no ocurre tal, pues vivimos en un mundo rodeado de tecnología. Un espacio libre de ideas, ajeno a pasiones, que tan solo nos ofrece información de forma neutral para que nosotros podamos tomar decisiones sin injerencias de terceros. Falso.

Podemos pensar que la tecnología es un espacio libre de ideas, ajeno a pasiones, que tan solo nos ofrece información de forma neutral para que nosotros podamos tomar decisiones sin injerencias de terceros. Falso.

Pensamos que la tecnología no tiene valores. Que está ahí. Decimos que esto o aquello “aparece en Internet”, como si eso fuera garante de libertad o, lo que es peor, aval de la verdad. O bien utilizamos frases tales como “el sistema dice…” o “la aplicación recomienda”, en una forma irreflexiva e irresponsable de zanjar una cuestión al subyugar nuestra voluntad a un ente tecnológico supuestamente ecuánime, libre y justo.

Pero la información que recibimos de la tecnología no está libre de intención. Cuando un “sistema dice” algo, en realidad significa que un algoritmo (conjunto de operaciones matemáticas) ha ejecutado una serie de operaciones totalmente definidas por una persona. Luego en lugar de “el sistema dice”, más bien debiéramos pensar “alguien dice”; o “alguien ha decidido”, pues en realidad no sabemos quién es el que decide.

Esta situación la podemos ver claramente en los mensajes de error que aparecen en las aplicaciones. Hace unos años cuando una aplicación fallaba aparecía la frase “error del sistema”, como si “el sistema” se hubiera equivocado. Hoy sin embargo es más común leer algo similar a “Ups, hemos debido hacer algo mal” ante un funcionamiento erróneo de una aplicación. Esto es un avance en el reconocimiento propio de la responsabilidad de los diseñadores, pero quizá no suficiente.

La falsa sensación de autonomía de la tecnología puede tener una repercusión más importante si hablamos de inteligencia artificial o robótica. La inteligencia artificial y los robots no están libres de la intencionalidad humana.

La falsa sensación de autonomía de la tecnología es más peligrosa en la inteligencia artificial y la robótica. La inteligencia artificial y los robots no están libres de la intencionalidad humana

En el caso de la inteligencia artificial se une un elemento más en favor de la incorporación de valores a la tecnología: la aplicación (el algoritmo) “aprende”. La inteligencia artificial se sustenta en algoritmos que son capaces de modificar sus operaciones, y por tanto sus resultados, en base a los sucesivos datos de entrada. Y estos datos dependen de nuestras intenciones.

El caso más simple lo podemos ver en las noticias que nos aparecen en las páginas de redes sociales: estas noticias dependen de las noticias que hemos visto previamente. O bien los resultados de búsqueda que nos aparecen en Google dependen de los resultados que hemos pinchado en búsquedas anteriores. Parece que dichas aplicaciones “aprenden” de tu comportamiento y “toman decisiones” en tu favor, pero tan sólo ejecutan un algoritmo variable que alguien ha programado. Alguien que, probablemente, no sepamos quién es.

Esta percepción se complica cuando hablamos de inteligencia artificial algo más sofisticada o si pensamos en robots. Según los fabricantes del famoso robot Pepper, éste es capaz de interpretar tus emociones y quiere hacerte feliz. La primera cuestión puede ser cierta, en el sentido de que tomando como entrada tus rasgos faciales, por ejemplo, tu boca arqueada hacia arriba, pueda dar como resultado una salida una frase como “te veo feliz”; la segunda afirmación no es cierta: un robot no “quiere” nada, tan solo actúa según ha sido programado. Más bien, alguien (el diseñador del robot) quiere algo sobre ti. Alguien que, probablemente, no sepamos quién es.

Detrás de una respuesta compleja de un robot, tan solo hay un algoritmo complejo y alguien que ha diseñado tal algoritmo

De manera similar ocurre con Jibo, un robot, esta vez no humanoide como Pepper, sino un pequeño dispositivo de sobremesa con una especie de ojo único y capaz de contonearse; con pocos elementos muestra un reducido pero eficaz conjunto de emociones. Se dice que es un nuevo tipo de robot, y que nunca deja de aprender. Esto último es cierto, pero sólo modifica sus respuestas según se le ha programado que debe hacer.

En ambos casos, los dos robots actúan según sus creadores, es decir, según sus programadores, o las organizaciones tras dichos programadores. Debemos tener presente que, a pesar de sus respuestas complejas, no tienen independencia, sino que siguen la intencionalidad de sus creadores. Detrás de una respuesta compleja sólo hay un algoritmo complejo. Pepper no sonríe, sino que alguien ha decidido que cuando tú sonríes, el robot haga unos determinados movimientos. Estos ejemplos no ofrecen peligro aparente, pues están diseñados para ser amables, pero en algún momento esto puede que no sea así.

La Plaza del Campidoglio la hizo Miguel Ángel y ofrece una intencionalidad de su verdadero dueño, el Papa Pablo III. Parece imposible, pues sólo hablamos de una plaza, alejada de toda connotación política o social. Lo mismo ocurre con la inteligencia artificial, aparentemente libre de toda intencionalidad. Pero no es así. Cualquier hecho creado por el ser humano, está condicionado por el ser humano, como la plaza de Campidoglio, como los robots. Nada nuestro está libre de intención. En el caso de la inteligencia artificial el riesgo radica en que desconocemos la intención del diseñador y al mismo diseñador.

Pero la obra de Miguel Ángel tiene una diferencia con la inteligencia artificial. No pensemos que Miguel Ángel fue como un robot en manos del Papa. Primero porque Miguel Ángel pudo decir que no al Papa, y aun diciendo que sí, se diferencia en que creó algo nuevo. ¿Puede un robot crear?

 

Pin It on Pinterest