Sacerdotes ChactGPT

Sacerdotes ChactGPT

Sacerdotes ChactGPT

ChatGPT parece nuestra nueva pitonisa que dice la verdad. Gran riesgo

 

En la antigua Grecia se acudía al oráculo de Delfos para tener respuesta a cualquier pregunta. Hoy tenemos a ChatGPT. El oráculo de Delfos era respetado como infalible y sus respuestas eran muy bien valoradas. Se entendía que la pitonisa, sentada en su trípode en la zona sagrada del templo de Apolo, entraba en conexión directa con las divinidades y sus palabras solo podían ser verdad. Verdad. Eso es lo que podemos llegar a pensar de ChatGPT. Ése es el riesgo.

ChatGPT es un chatbot basado en GPT-3, que es lo que se llama un LLM (Large Language Models), es decir, un modelo de lenguaje grande. Google tiene otro, llamado LaMDA, del cual un ingeniero aseguró que tenía sentimientos, dada la afectividad con la que respondía a sus preguntas. Pensó que su pitonisa era de este mundo y fue despedido. Una pitonisa no es mundana. Bloomberg ha creado BloomberGPT como LLM especializado en temas financieros.  La consultoría financiera tiembla en su trípode, pues le ha salido competencia.

Adiós, mentes pensantes

Si eres peluquero, ebanista o reponedor en lineales de supermercados, puedes estar tranquilo. Pero si eres analista financiero, matemático o poeta, debes empezar a preocuparte. Así lo revela un estudio sobre el impacto de los LLM en el trabajo. Concluye que el 19% de los trabajadores pueden ver impactada su actividad en un 50%; y algunos oficios, como los anteriores, impactados en un 100%.

Esto sin duda supone un riesgo para ciertos empleos. Pero como daño colateral surge otro riesgo aún mayor, que afectaría a toda la sociedad. Consiste en pensar que cualquier LLM dice la verdad. No sé si la pitonisa tenía conexión con la divinidad y si sus declaraciones eran ciertas. Pero sí sé que los LLM están conectados con una forma particular de ver el mundo, la cual no tiene por qué ser la verdadera.

El futuro de los empleos radicará en saber preguntar, pero también en saber entender el porqué de una respuesta

La palabra clave en un LLM está en la M de “modelo”. Un LLM es un modelo de lenguaje. Es una simulación de una forma particular de hablar y de crear mensajes. ¿Cuál? La que hayan decidido sus creadores. Por ejemplo, OpenIA, hacedores de ChatGPT, dicen abiertamente que han entrenado su sistema para elaborar textos largos porque así las respuestas parecen más completas. Además, ha sido entrenado mediante unas personas que le han dicho lo que es una buena respuesta y lo que no. ChatGPT es una pitonisa conectada con la divinidad terrena OpenIA. ¿Coincidirá su visión sobre lo que está bien o no con la mía? No necesariamente.

Nuevos sacerdotes

No todo está perdido. Se dice que la pitonisa, una vez recibida la consulta, y tras haber entrado en trance, respondía a un sacerdote, el cual interpretaba sus palabras y las escribía en verso para entregarlas al peticionario. ¡Esa es nuestra salvación, convertirnos en sacerdotes de ChatGPT!

La caída de unos trabajos trae el auge de otros. El futuro de los empleos en la economía del conocimiento, amenazados por estos LLM, radicará en saber preguntar y en saber entender el porqué de una respuesta. Quizás no bastará con hacer una sola pregunta a un LLM para entender una situación, sino en hacerle varias, de distintas formas para extraer la respuesta final analizando sus respuestas particulares. Un conocimiento que implica saber cómo funciona una red neuronal, de la misma forma que sabemos cómo funciona una enciclopedia y qué entradas hay que consultar hasta tener la respuesta definitiva.

Se dice que Alejandro Magno fue a Delfos a preguntar si vencería en sus batallas. La pitonisa rechazó contestarle en ese momento. Alejandro, enfurecido, agarró al oráculo por los cabellos y la arrastró fuera del santuario hasta que ésta gritó: ¡Eres irresistible! Alejandro entendió que esa era la respuesta y conquistó el mundo. Saber entender las respuestas es clave.

Publicado en DigitalBiz

Metaverso: el nuevo mito de la caverna

Metaverso: el nuevo mito de la caverna

Metaverso: el nuevo mito de la caverna

El metaverso nos promete un mundo maravillo. Pero puede ser una falsa promesa

 

Todos conocemos el mito de la caverna de Platón. Unos hombres encadenados en una caverna solo pueden ver las sombras de una realidad que existe más allá. Hay otra realidad, un mundo más perfecto, más completo, al que no pueden acceder y del que solo son capaces de tener una visión reducida en forma de sombras. El metaverso acabará con esta injusticia.

El metaverso nos promete ese mundo más perfecto y completo. ¿Por qué vivir de forma sombría en un mundo lleno de problemas, cuando existe otro donde puedes hacer y ser lo que quieras? El metaverso va a romper las cadenas que nos mantienen atados a una realidad formada únicamente por sombras. ¡Por fin veremos la luz!

Esto será gracias a la inteligencia artificial (IA). Mark Zuckerberg lo anunció a finales de febrero. El metaverso estará potenciado por la IA para ofrecer, de momento, dos grandes facilidades que harán la vida en ese nuevo mundo mucho más placentera.

Nada nos tiene que hacer suponer que el metaverso será mejor que nuestra realidad

Todo metaversanio de pleno derecho podrá crear cualquier paraíso con solo describirlo en unas líneas de texto. Si escribes “quiero estar en una isla tropical leyendo a Platón” (cada uno puede pedir lo que quiera), la todopoderosa IA generará unos gráficos adecuados que te transportarán al lugar elegido.

¡Genial!, pero ¿en qué idioma se lo digo?, ¿en inglés? ¡No, en tu propio idioma! Esa es la segunda maravilla de la IA en el metaverso. No habrá barreras lingüísticas. La maldición de la torre de Babel se habrá terminado. Podrás escribir en tu idioma y la todo-traductora IA te entenderá. ¿También en bable? No sé, habrá que ver si el señor Zuckerberg lo considera adecuado en su metaverso paradisíaco.

No tan paraíso

El metaverso se nos aparece como un mundo ideal en el que refugiarnos de este mundo miserable. Pero la realidad de esta realidad virtual no es tan maravillosa. En este año 1 del metaverso ya se han detectado comportamientos abusivos contra las mujeres. Se han denunciado casos en los que las usuarias se han visto rodeadas de repente de avatares masculinos que han actuado de forma intimidatoria. O bien comportamientos individuales de acoso verbal y obsceno de metaversianos masculinos hacia sus conciudadanas virtuales. Parece que este metaverso también tiene sombras.

Esto puede ser solo el comienzo. Lo cierto es que todo aquello que hemos visto en las redes sociales es susceptible de ocurrir en el meta-maravillerso. Existe el riesgo de que también se propaguen noticias falsas; de que se fomenten las rivalidades y se propague el discurso del odio; o de que se comercie con toda la información que se genera con la actividad de un avatar, tras el cual hay una persona de carne y hueso. Si además entran en escena las criptomonedas y la posibilidad de disponer de activos mediante NFT, los amigos de la estafa estarán por medio.

Un metaverso como el nuestro

Nada nos tiene que hacer suponer que el metaverso será mejor que nuestra realidad. Nada, mientras no cambiemos nuestra realidad, es decir, mientras no cambiemos nuestra condición humana. Allí donde vayamos llevaremos lo que somos. Toda innovación viene alentada por atractivas promesas, pero no nos engañemos: el metaverso será como nuestro mundo, una mezcla de drama y comedia.

El gran guionista Zuckerberg promete una IA responsable y un metaverso transparente. ¿Habrá que creer en su buena voluntad? Quizás sea mejor disponer de mecanismos de auditoría y control suficientes para este viejo nuevo-mundo. El poder no puede recaer en una sola persona, ni en el mundo real, ni en el virtual. Allá donde construyamos una realidad deberá haber supervisión.

Para desgracia de Zuckerberg, su anuncio de fantasía de la IA se vio ensombrecido por la barbarie en Ucrania. El mundo real eclipsó el mundo virtual. La salvación de la caverna no es crear un supuesto mundo ideal, sino liberarnos de las cadenas que nos atan a nuestra condición.

Publicado en DigitalBiz

 

Algoritmos humanos en un mundo digital humano

Algoritmos humanos en un mundo digital humano

Algoritmos humanos en un mundo digital humano

¿Es posible crear algoritmos humanos? ¿Cómo deberían ser?

Una masa de gelatina transparente

Con la invención del teléfono se pensó que acabaríamos con la esencia humana. A medida que se iban conectando los hogares por cables telefónicos, fue asomando el miedo a la pérdida de la privacidad. La intimidad iba a desaparecer por completo. En algunos editoriales de la época aparecían textos terroríficos que se preguntaban qué sería de la santidad del hogar doméstico. Los miedos siempre vienen precedidos de gran pompa y circunstancia.

Este miedo a la pérdida de la privacidad derivó en la alerta a perder, nada más y nada menos, que nuestra esencia humana. Se creía que el teléfono iba a romper nuestra esfera privada y eso terminaría con lo más profundo del ser humano.

Siempre nos hemos preguntado por la esencia de lo humano. Por aquello que indiscutiblemente nos distingue de cualquier otro ser vivo, especialmente de los animales (espero que al menos tengamos claro aquello que nos distingue de una tomatera, antes de que nazca un colectivo pro derechos tomatales). En aquella época del teléfono naciente se juzgaba que un elemento de la esencia del ser humano era la privacidad. Esta visión tiene su fundamento, pues no sabe que, por ejemplo, las vacas tengan vida privada (aunque quizás la tengan, y ésta sea tan privada, que no la conocemos). La vida privada corresponde a ese ámbito de nuestra existencia sobre la cual no queremos dar cuenta públicamente y que nos identifica como individuos en lo más profundo. Esa individualidad es parte de nuestra humanidad, porque nos convierte en seres únicos.

Se empezó a hablar de la sociedad como una masa de gelatina transparente. Un todo uniforme en el cual no se distingue la singularidad de cada uno. La frase es interesante porque, quizás por primera vez, se habla de “transparencia” relacionado con la tecnología. Una transparencia que nos convierte en una masa de gelatina que cualquiera puede moldear. En aquel entonces, a finales del siglo XIX, existía el temor de que la tecnología del teléfono nos hiciera transparentes y moldeables. ¿Qué pensar hoy en día con tanta tecnología en forma de apps en nuestros móviles?

Actualmente no tenemos la sensación de perder nuestra esencia humana si hablamos por teléfono. Posiblemente no sepamos exactamente qué es lo humano, pero no nos sentimos deshumanizados por hablar por teléfono. Hoy los miedos vienen por otro lado. Pensamos que esa esencia humana se puede ver atacada por toda la tecnología que nos rodea, por los macrodatos (Big Data) o en particular por la inteligencia artificial. Existe parte de razón en ello.

En un enjambre digital

La tecnología no es ni buena ni mala, pero tampoco es neutral. Transmite valores. Cuando recibes un whatsapp recibes dos mensajes: uno, lo que diga su contenido (que en la mayoría de los casos será trivial), y el otro, lo transmite la propia naturaleza de la aplicación y dice “esto es inmediato”. Un whatsapp transmite el valor de la inmediatez, y nos sentimos abocados a responder de manera inmediata. De hecho, si tardamos unos minutos en responder, podemos obtener un nuevo mensaje reproche de quien nos escribió: “hola???” (cuantos más interrogantes, más reprimenda).

Las redes sociales son una concentración casual de personas que no forman una masa

El mensaje es el medio. Así lo expresó Marshall McLuhan en 1964, cuando publicó su famosa obra Understanding Media: The Extensions of Man (Comprender los medios de comunicación: Las extensiones del ser humano). Todo medio de comunicación es en sí mismo un mensaje. Así ocurre con las redes sociales que nos enredan. Lo explicó muy bien Reid Hoffman, co-fundador de LinkedIn, cuando hace unos años habló de los pecados capitales que transmitían las redes sociales. Por ejemplo, LinkedIn transmite la codicia o Facebook, la vanidad. Hoy en día Instagram lucha por esa misma vanidad, y no es casualidad que sea propiedad de Meta, antes Facebook hasta hace unos meses.

Nos encontramos en un enjambre digital. Ésta es la expresión que utiliza el filósofo surcoreano y profesor en la Universidad de las Artes de Berlín, Byung-Chul Han. Según este autor, la tecnología, y en particular el mundo digital en el que vivimos, cambia nuestra conducta. Somos distintos desde que tenemos tecnología. El siglo XX fue el siglo de la revolución de las masas, pero ahora, la masa ha cambiado. No podemos hablar tanto de una masa, sino de un enjambre: la nueva masa es el enjambre digital.

Este enjambre digital consta de individuos aislados. Le falta un alma, un nosotros. Las redes sociales son una concentración casual de personas que no forman una masa. Particularmente lo veo cada vez que entro en Twitter (solo estoy en LinkedIn y Twitter; peco lo justo). Observo perfiles con nombres simpáticos que retuitean, responden o indican que algo les gustó. Uniones causales y temporales. No hay una voz, solo ruido.

Lo digital es ahora el medio de la información. Cabe suponer que cuantos más medios digitales tengamos, cuantas más redes sociales, dispondremos de más información y podremos tomar decisiones más acertadas. No es cierto. Así lo expresa también Byung-Chul Han: “más información no conduce necesariamente a decisiones más acertadas […]. El conjunto de información por sí solo no engendra ninguna verdad […]. En un determinado punto, la información ya no es informativa, sino deformativa”. Por eso hoy en día hay gente que piensa que la Tierra es plana.

El opio del pueblo

La tecnología digital nos ha llevado a un imperio global en el que no existe un orden dominante. Aquí cada uno se explota a sí mismo, y lo hace feliz porque se cree que lo hace libremente. Cada minuto en Internet se visualizan 167 millones de vídeos en Tiktok, se publican 575 mil tuits, 65 mil fotos en Instagram, o 240 mil en Facebook. ¡En un minuto! Creo que nunca antes ha existido una productividad semejante. Para ello, no es necesario obligar a nadie, basta con prometer un paraíso lleno de “likes” o impresiones y soltar de vez en cuando un eslogan sonriente del tipo “sal de tu zona de confort”.

Byung-Chul Han lo llama explotación sin dominación. Estamos, quizás, ante esa masa de gelatina transparente que cualquiera puede moldear. Diego Hidalgo dice que estamos anestesiados. El mundo digital nos ha dormido, nos ha dejado insensibles ante nuestra consciencia.

Hace unos años la tecnología era “sólida”. Teníamos ese teléfono de mesa, con auricular y micrófono formando un asa y que requería deslizar un disco con números del 1 al 9 para llamar a tu contertulio. Realmente tecnología sólida. Menos problemática porque sabemos cuándo la usamos y cuándo no.

La tecnología digital nos ha llevado a un imperio en el que cada uno se explota a sí mismo, y lo hace feliz porque se cree que lo hace libremente

Actualmente la tecnología, según Diego Hidalgo, es “líquida” o incluso “gaseosa”. Ya no la vemos venir. Ahora no sabemos dónde está, cuándo la usamos o si ella nos usa a nosotros. Tenemos relojes que se conectan con el móvil, o asistentes inteligentes que te marcan el número de teléfono a la orden de tu voz. Es una tecnología ubicua, cada vez más invasiva y más autónoma. Su incremento de autonomía es nuestra disminución de soberanía. Las máquinas actúan y piensan por nosotros. Google nos puede llevar de un sitio a otro, sin tener nosotros que pensar la ruta. Esto hace que estemos adormilados.

La tecnología digital se ha convertido en el opio del pueblo, parafraseando a Karl Max. De vez en cuando en las noticias vemos narcopisos con plantaciones de marihuana alimentadas bajo potentes focos de luz. De una manera más sutil, en nuestras casas disponemos de plantaciones de adormideras, en forma de múltiples dispositivos móviles, que nos iluminan a nosotros con la tenue luz azul de sus pantallas. ¿Quién alimenta este opio digital? La inteligencia artificial.

Algoritmos humanos

La inteligencia artificial es muy buena reconociendo patrones de comportamiento. Mediante la inteligencia artificial se puede identificar fácilmente qué es lo nos gusta o nos disgusta. Basta con analizar nuestra actividad en las redes sociales. Esto permite a las organizaciones hacernos amables sugerencias sobre qué comprar o qué contenido seleccionar. Esta idea partió con un fin bueno: el objetivo era conocer al usuario para que éste tuviera una mejor experiencia de cliente. En un principio, parecía que lo hacían por nuestro bien. Pero algo se debió torcer en el camino.

La inteligencia artificial puede, y debe, servir para aumentar nuestras capacidades e incluso nuestra condición humana

La inteligencia artificial se puede utilizar para mantenernos activos en las redes sociales el mayor tiempo posible. Así lo denuncia el reportaje The Social Dilema, producido por distintos ex directivos de empresas de redes sociales. No importa si ese continuo de actividad puede llevar a la adicción. No importa que el usuario pueda llegar a perder su autonomía. La inteligencia artificial puede ser muy buena como adormidera de nuestra consciencia. Opio digital del bueno.

Se impone la necesidad de ajustar la acción de la inteligencia artificial. Ésta puede, y debe, servir para aumentar nuestras capacidades e incluso nuestra condición humana. Para ello es necesario crear lo que Flynn Coleman llama algoritmos humanos. Consiste en dotar a la inteligencia artificial de valores éticos humanos. La idea es buena, pero no está exenta de complejidad, como el mismo autor reconoce.

Un primer punto es determinar qué valores éticos humanos. Posiblemente no podamos llegar a un acuerdo sobre valores éticos comunes, dado que estos dependen de nuestra cultura y de nuestros valores personales y propios. La idea de qué está bien y qué está mal no es la misma en Europa que en Oriente Medio o en Asia, por citar unos ejemplos y sin entrar a juzgarlas. Simplemente son distintas.

Pero quizás, con algo de optimismo, podríamos llegar a un mínimo de acuerdo sobre aquello que representa los valores humanos. A finales del siglo XIX, con la llegada del teléfono, se creía en la intimidad como un valor humano. Hoy en día hemos evolucionado esta visión. No hablamos tanto de esencia humana, sino de cultivo de la virtud como base para una sociedad que podamos denominar como “humana”. Son lo que se llaman las virtudes públicas, entre las cuales se encuentran la solidaridad, la responsabilidad o la tolerancia. Imposible negar estas virtudes o estos valores humanos. Los podemos considerar (casi) universales. Vale, pero ¿cómo los programamos en un algoritmo?

Ésa es la segunda cuestión de complejidad. Cómo podemos cuantificar, por ejemplo, la solidaridad, para programarla en un algoritmo. Cómo definimos la tolerancia, para pasarla a fórmulas matemáticas. Dónde ponemos matemáticamente el umbral de la tolerancia. Una posible solución es utilizar el mismo conocimiento que la inteligencia artificial tiene de nosotros. Toda esa información analizada sobre nuestros gustos y disgustos puede servir para tener una idea de nuestra esencia como seres humanos. Esencia que al estar ya digitalizada puede servir para entrenar a la propia inteligencia artificial. Pero existe un riesgo: la inteligencia artificial podría aprender nuestras fortalezas y bondades, pero también nuestras debilidades y maldades. Porque la esencia humana es el juego de ambos.

Por fortuna la solución depende de nosotros. De cada uno de nosotros cuando usamos la tecnología que nos rodea. Podemos decidir apagar el móvil, a pesar de recibir una notificación; podemos decidir escribir un tuit con uno u otro fin; o decidir publicar una foto para gloria de nuestra vanidad o no; podemos decidir crear una inteligencia artificial de reconocimiento de imágenes para detectar enfermedades con más antelación, o bien para identificar etnias y reprimirlas. Todas estas acciones comienzan con el verbo decidir en acción de primera persona, porque depende de nosotros. Y solo decide el que está despierto. Esto exige despertar de la dormidera del opio digital.

Publicado en esglobal

 

La supervisión humana de la IA

La supervisión humana de la IA

La supervisión humana de la IA

Cuando un algoritmo ofrece un resultado, es necesario estar seguro que es correcto y saber el porqué de tal resultado

 

“Que eso no se dice, que eso no se hace, que eso no se toca”. Esto es la supervisión humana que el Reino Unido ha sugerido que podría eliminar en la toma de decisiones de sistemas basados en inteligencia artificial (IA). Los versos corresponden a una vieja canción de Joan Manuel Serrat, titulada ‘Esos locos bajitos’. Hace referencia a los niños que, con mejor o peor fortuna, son educados por sus padres. Todos, en algún momento, hemos recibido esas palabras. Técnicamente hablando era la supervisión de nuestros padres en nuestros actos.

Esta misma idea de supervisión es un elemento fundamental en el uso de los sistemas inteligentes. Hay ciertas decisiones que nos afectan directamente y que pueden estar tomadas por un algoritmo de IA. Puede ser el caso de la aprobación de una hipoteca o ser contratado en una empresa. El año pasado, debido a la suspensión de los colegios por la pandemia de Covid-19, las notas de los alumnos en Reino Unido fueron asignadas por un algoritmo de IA basado en el rendimiento medio del alumno y de su instituto.

No existen decisiones automatizadas. Detrás de un algoritmo siempre hay una persona o una institución

En septiembre el Reino Unido anunció que este tipo de decisiones no tendrían por qué estar verificadas por un ser humano. Una inteligencia artificial se basta sola para saber a quién dar una hipoteca, a quién contratar o qué nota académica poner.

En contra de la UE

Este planteamiento va en contra del Reglamento General de Protección de Datos (RGPD) de la UE. En particular respecto a su artículo 22 sobre decisiones automatizadas, que establece que tenemos derecho a no ser objeto de una decisión automatizada, que tenga efectos jurídicos o nos afecte significativamente.

Una IA puede determinar que no recibamos una hipoteca. No obstante, este resultado debe ser supervisado por una persona, quien, en un momento dado, puede decirle con cariño a la IA, que eso no se dice o eso no se hace, y finalmente otorgar la hipoteca al merecido solicitante.

Eliminar esta supervisión humana significa falta de transparencia en el uso de la IA y eso no va a favorecer su desarrollo.

Dividendo del dato

¿Qué se encuentra detrás de esta eliminación de la supervisión humana en la IA? El llamado dividendo del dato. El dato es el petróleo del futuro y se quiere hacer mucho dinero con él. Como decir ‘hacer dinero’ es muy grosero, se utiliza la expresión amable ‘dividendo del dato’.

Para hacer dinero, lo mejor es no tener impedimentos. El argumento en contra de la supervisión humana es que ésta resulta complicada y poco práctica. Sin embargo, tal supervisión es posible y es necesaria.

Perder la supervisión humana de la IA es perder control de la democracia

Es posible porque para entender el resultado de una IA no es necesario investigar en las tripas del algoritmo y leer líneas y líneas de código. Tenemos tecnologías que son capaces de explicar la decisión de un algoritmo inteligente en función de sus datos de entrada.

Además, es necesaria porque todo ciudadano tiene derecho a conocer quién toma una decisión y por qué la toma. Un algoritmo nunca toma una decisión. No existen decisiones automatizadas. Detrás de un algoritmo siempre hay una persona o una institución que toma una decisión a través de un algoritmo. Si eliminamos la supervisión humana, esto llevará a la toma de decisiones por personas o grupos de interés desconocidos. Una sociedad moderna y democrática no puede abandonar su responsabilidad en la toma de decisiones que afectan a sus ciudadanos.

Existe una esperanza. El mismo gobierno del Reino Unido ha comunicado que la solución final sobre la supervisión humana no debe ir en contra de los acuerdos que tiene el país con la UE. Esto afecta a ese artículo 22 del RGPD.

Esperemos que así sea. El estribillo de la canción de Serrat también dice: “niño, deja ya de joder con la pelota”. Esperemos no quitar la supervisión humana de la IA para no acabar con tan gruesas palabras hacia un sistema inteligente.

Publicado en DigitalBiz

 

Despotismo digital

Despotismo digital

Despotismo digital

Todo para el usuario, pero sin el usuario

¡Es para mejorar la experiencia de usuario! Ésta es la frase cierrabocas que llevada al extremo defiende cualquier tipo de acción que afecta a los usuarios. Ha sido sacralizada por virtud de tanto aforismo vacuo, escrito entrecomillado junto a fotos de rostros sonrientes y alegres. Me pregunto: ¿por qué se ríe esta gente que solo habla por eslóganes? Parece que les sacan la foto después de contar un chiste, el cual nosotros siempre nos perdemos. La chanza se encuentra en hablar de la experiencia de usuario, pero sin el usuario. Es el nuevo tipo de despotismo ilustrado: todo para el usuario, pero sin el usuario. Nueva letanía que ilustra lo que más bien podemos llamar despotismo digital.

La investigación de mercado siempre ha existido con el sano objetivo de entender lo que quieren y no quieren nuestros clientes, para así ofrecerles productos o servicios acordes a sus necesidades. Lo que ha cambiado es el método de investigación. Ya no nos piden rellenar encuestas: es tedioso y además podemos mentir. Es mejor pedir que grabes un vídeo breve con tu opinión (mejora la experiencia de usuario frente a los cuestionarios), o bien analizar los clics que haces por las páginas web que vistas. Después esta información se le pasa a la inteligencia artificial, que es el nuevo valido de este despotismo digital.

La inteligencia artificial ve lo que no se ve

La inteligencia artificial es muy buena haciendo lo que se le pide, y en este caso, es insuperable en averiguar aquello que realmente queremos, y que nosotros quizá no sabemos o queremos ocultar. Basta con analizar esas emociones ocultas en los micro gestos imperceptibles que dejamos en la grabación de vídeo, y que solo la inteligencia artificial es capaz de descubrir. O bien examinar el tiempo que has estado en un enlace de contenido trivial.

Puestos a saber sobre mí, propongo que primero averigüen si deseo ser investigado

Para ello se utiliza el denominado Modelo de los Cinco Factores, el cual fija la personalidad en cinco variables: apertura a la experiencia, en qué medida se es curioso o cauteloso; meticulosidad, si se es organizado o descuidado; extraversión, cómo se es de sociable o reservado; simpatía, o capacidad de ser amigable, compasivo o bien ser insensible; y neurosis, en qué medida se tiene inestabilidad emocional.

Por ejemplo, las personas extravertidas tienen más probabilidad de publicar fotos. Aquellas con altos valores en meticulosidad utilizan menos las redes sociales, actualizan menos su estado y tienen menos probabilidad a tener adicción a la tecnología. Todo esto se puede saber del usuario, pero sin el usuario. Ahora bien, no debemos preocuparnos si analizan nuestra personalidad hasta lo más incógnito, pues es por el noble propósito de mejorar nuestra experiencia de usuario.

¿Y si cuentan con nosotros?

Puestos a saber sobe mí, propongo que primero averigüen si deseo ser investigado por el meritorio propósito de ofrecerme incluso aquello que ignoro que me gusta. Con preguntármelo bastaría, y quizás con ello acabaría este despotismo digital y empezaríamos a pensar en el usuario, con el usuario.

De alguna manera los mensajes avisando de la existencia de cookies al cargar una página web van encaminados a ello. Pero algunos están escritos en un lenguaje tan optimista que uno piensa que si los rechaza se va a convertir en el ser más desgraciado de la historia: ¡no vas a tener los anuncios que te gustan, ni la misma música que escuchas siempre!

De vez en cuando, recomiendo hacer algo distinto en el mundo digital: despistarás a la máquina y puede que descubras algo nuevo

Salir de este despotismo digital es cosa de dos. Por un lado, aquellas organizaciones tan preocupadas por la experiencia de usuario deben contar con el usuario. Para ello, deben informar sobre qué información recopilan, si será tratada con inteligencia artificial y no hacerte sentir desventurado si dices no. Por nuestra parte, recomiendo dedicar unos segundos a los mensajes de las cookies, que nos pueden parecer impertinente por las ganas que tenemos de acceder al contenido, pero que merecen la pena atender; después, de vez en cuando, hacer algo distinto en el mundo digital: despistarás a la máquina inteligente y puede que descubras algo nuevo.

Publicado en DigitalBiz

 

Ser éticos con la inteligencia artificial

Ser éticos con la inteligencia artificial

Ser éticos con la inteligencia artificial

¿Es la inteligencia artificial la que tiene que ser ética o el ser humano cuando la utiliza? He aquí las claves para entender el uso ético de la IA

 
 
Una inteligencia artificial ni tan buena ni tan mala

En 1889 el periódico inglés Spectator alertaba sobre los dañinos efectos intelectuales de la electricidad, y, en particular, del telégrafo. Declaraba que el telégrafo era un invento que claramente iba a afectar al cerebro y al comportamiento humano. Debido a este nuevo medio de comunicación, la población no paraba de recibir información de modo continuo y con muy poco tiempo para la reflexión. El resultado llevaría a debilitar y finalmente paralizar el poder reflexivo.

Nicholas Carr se preguntó algo similar respecto a Google. Ciertamente, viendo las patochadas que a veces se publican en las redes sociales, uno pudiera pensar que tal debilidad de reflexión ya ha se ha hecho realidad. Sin embargo, de ser verdad, no sería justo atribuirlo al desarrollo de la electricidad, sino más bien a la propia naturaleza de los hacedores de tales despropósitos.

La inteligencia artificial es excelente identificando patrones. La cuestión radica a qué dedicamos dicha excelencia.

Pero no todo iban a ser desgracias. El telégrafo también estaba llamado a traer la paz al mundo, al más puro deseo de un certamen de belleza. El telégrafo podía transmitir la información a la velocidad del rayo. Esto iba a permitir favorecer la comunicación entre toda la humanidad de forma instantánea, lo cual nos llevaría a una conciencia universal que acabaría con la barbarie. No parece que haya sido así. Hoy gozamos de una capacidad de comunicación inmediata sin precedentes, que permite compartir sin tardanza las imágenes de tu noticiable desayuno. Sin embargo, la barbarie sigue siendo nuestra compañera en la historia.

Algo similar sucede hoy en día con la inteligencia artificial: ni tan buena, ni tan mala. La inteligencia artificial trabaja principalmente identificando patrones y en esto es verdaderamente excelente. La cuestión radica a qué dedicamos dicha excelencia.

Esta identificación de patrones, permite, por ejemplo, identificar síntomas de Covid-19 en personas asintomáticas, evitando así la extensión de la enfermedad; también puede reconocer y clasifica leopardos por las manchas de su pelaje, favoreciendo su seguimiento y disminuir el riesgo de extinción; o bien reconocer trazos en la escritura de textos antiguos y determinar su número de autores. Es la cara amable y deseada de la inteligencia artificial que nos ayuda a mejorar la salud, el medioambiente y la ciencia.

Esta misma grandeza en reconocer patrones es la que permite a la inteligencia artificial clasificarnos (encasillarnos), por nuestra actividad en el uso de aplicaciones móviles o en redes sociales, para predecir nuestro comportamiento e incitarnos a comprar productos sin apenas ser conscientes. Nos puede recomendar aquello que realmente sabe que nos gusta o que necesitamos. La inteligencia artificial sabe más de nuestra intimidad que nosotros mismos. Este conocimiento sobre nuestra forma de ser es el que permite también generar notificaciones, cuidadosamente pensadas para mantenernos activos en dichas redes sociales, llegando a la adicción, tal y como denuncia el reportaje The Social Dilema.

Es un conocimiento matemático sobre nuestra personalidad que niega a la libertad una opción de existir. El año pasado, durante los meses más duros de la pandemia que suspendieron las clases docentes y la celebración de exámenes, en el Reino Unido se decidió utilizar un sistema de inteligencia artificial para determinar la evaluación académica de ese curso, en función de las calificaciones obtenidas en años anteriores. ¿Acaso no puedo ser distinto este año respecto al anterior y ahora estudiar más? ¿No es posible que mis actos futuros sean diferentes a mis patrones de comportamiento del pasado? ¿No aceptas que soy libre? Para la inteligencia artificial, la respuesta a todas estas preguntas es “no, no puedes, así lo dice mi algoritmo”.

Éticas para una inteligencia artificial

Estas preguntas en el fondo nos están hablando sobre la moral, aunque este término nos parezca algo “viejuno” (neologismo despectivo instagramer para decir antiguo, bien distinto, dicho sea de paso, de “vintage”, concepto elogioso de la misma antigüedad). Así es, porque la moral nos interpela sobre cómo actuar y sobre cómo responder, ante nosotros y ante la sociedad, sobre tales actos. Al hablar de actuar podemos pensar en nuestras actuaciones directas, o en aquellas a través de una herramienta como es la inteligencia artificial. Y si queremos pensar sobre la moral, debemos recurrir a la ética, que es la parte de la filosofía que se ocupa de la misma. ¡Quién nos iba a decir que la filosofía podía servir para algo práctico en nuestra vida! Pues sí, detrás de nuestra forma de pensar y de proponer soluciones se encuentran propuestas filosóficas.

Las Tres Leyes de Asimov se alimentan de Kant. Decidir que está bien según la mayoría, es ser utilitarista. La filosofía nos influye aunque no lo veamos 

Ese lado no tan amable de la inteligencia artificial que acabamos de ver es materia de preocupación. Como solución a ello existen ciertas propuestas que en el fondo se alimentan de propuestas filosóficas.

Una de las primeras soluciones a los dilemas éticos de la inteligencia artificial son las famosas Tres Leyes de la Robótica de Asimov. Constituyen tres principios éticos que supuestamente se deberían programar en un sistema inteligente. La primera de ellas, por ejemplo, dice que un robot no hará daño a un ser humano o, por inacción, permitirá que un ser humano sufra daño. Detrás de esta solución práctica se encuentra una visión de la ética de Kant, según la cual debemos actuar por un principio categórico, no condicionado por nada más. Tales leyes de la robótica serían esos principios categóricos de los sistemas inteligentes. Pero, como buena ética kantiana, tiene sus dificultades prácticas.

El primer problema surge de tratar con conceptos abstractos, tales como “hacer daño”. Matar es claramente hacer daño; poner una vacuna también causa dolor. ¿Hasta dónde llega el daño? El segundo problema viene de la evaluación del posible daño y de tener que evitar éste a todo ser humano. Si un sistema inteligente se encuentra con dos personas con la misma probabilidad de daño, no sabrá a quien atender y puede ocurrir que se acabe bloqueando.

Otra solución al comportamiento ético de la inteligencia artificial podría ser recurrir a una visión de la mayoría. Sí, ha leído bien: la mayoría decide qué está bien y qué está mal. Por ejemplo, supongamos que tenemos que decidir qué debe hacer un vehículo de conducción autónoma en el supuesto de accidente inmediato e irreversible que implica a viandantes: ¿salvamos a los ocupantes o a los viandantes? El MIT propone su Moral Machine para analizar estas posibles decisiones. Esta solución se ampara en la llamada ética utilitarista de Bentham según la cual una acción es buena si proporciona la mayor felicidad para el mayor número.

Este tipo de soluciones éticas se preocupan por las consecuencias de las acciones y no tanto por los principios que las inspiran, siendo la felicidad una de las principales consecuencias deseadas. Desde esta perspectiva utilitarista, las recomendaciones en redes sociales para ver nuevos contenidos serían éticamente aceptable. El sistema simplemente nos recomienda lo que más le satisface a la mayoría, aquello que más “like” ha conseguido. ¿Y si tanta recomendación me causa adicción, como hemos visto? Eso ya es responsabilidad de cada uno, se podría argumentar, pero el fin es bueno: las recomendaciones buscan mejorar la experiencia del usuario.

Principios, consecuencias y responsabilidad

En la última frase del párrafo anterior se encuentra la tercera variable de la solución ética a la inteligencia artificial: es responsabilidad de cada uno. Hemos visto que la moral consiste en la toma de decisiones y en cómo respondemos, ante nosotros y la sociedad, de dichas decisiones. El comportamiento ético de un sistema inteligente siempre debe concluir en la responsabilidad de una persona (o institución): de la persona responsable de la conducción de un vehículo autónomo; de la persona que determina una sentencia ayudado por un sistema inteligente; o de la persona que contrata en función de recomendaciones de machine learning. Esta responsabilidad es una dimensión más de una inteligencia artificial ética, pero no la única.

Existen además aquellas otras dos dimensiones que hemos visto en los ejemplos de posibles éticas a aplicar. Hemos hablado de una ética de principios (por ejemplo, Kant) y de una ética de consecuencias (por ejemplo, el utilitarismo). La solución ética a los sistemas inteligentes consiste en tres elementos: (1) determinar los principios que rigen dicho sistema, (2) evaluar sus consecuencias y (3) permitir que las personas afectadas puedan tomar decisiones.

Marco europeo para una inteligencia artificial fiable

Ésta es la idea que inspira a las propuestas de la Unión Europea en dos de sus textos principales para una inteligencia artificial fiable. En el documento Directrices Éticas para una Inteligencia Artificial Fiable establece el concepto de inteligencia artificial fiable como aquella que es lícita (que cumple con la normativa vigente), robusta (sin fallos para no causar daños) y ética (que asegure el cumplimiento de valores éticos). Sobre esta visión se construyen las tres dimensiones que comentamos.

Para que una inteligencia artificial sea fiable ésta debe partir de unos principios, que para la UE son: prevención del daño, equidad, explicación y autonomía humana, siendo este último el que garantiza esa capacidad de decisión. La inteligencia artificial no puede subordinar, coaccionar, engañar, manipular, condicionar o dirigir a las personas de manera injustificada. Al contrario, la inteligencia artificial debe potenciar las aptitudes cognitivas, sociales y culturales de las personas. Ésta es la dimensión de responsabilidad.

Permitir que las personas puedan tomar decisiones es un elemento ético principal

Para ayudar al cumplimiento de estos principios y garantizar esta responsabilidad, el marco de directrices establece una serie de requisitos claves a evaluar en cada sistema inteligente, tales como la acción y supervisión humana, la solidez técnica, la privacidad, la transparencia o la no discriminación. Estos requisitos clave se orientan a prevenir esas posibles consecuencias.

Para que todo esto no se queden en palabras bonitas, al albur de la buena fe y dado que la mejor forma de animar a dicha buena fe es la aplicación de medios coercitivos, la Comisión Europea ha propuesto una legislación con medidas concretas y sanciones sobre el uso de sistemas inteligentes. Esta normativa prohíbe ciertos usos de la inteligencia artificial, como, por ejemplo, aquellos que manipulan el comportamiento para eludir la voluntad de los usuarios o sistemas que permitan la «puntuación social» por parte de los Gobiernos. Otros usos de la inteligencia artificial, tales como su aplicación en procesos legales, control de migraciones, usos educativos o gestión de trabajadores, son considerados como de alto riesgo y deben tener un proceso previo de auditoría para su evaluación de conformidad antes de ser introducidos en el mercado. Este tipo de auditorías es demandado por distintas organizaciones, como We The Humans, think tank orientado hacia una inteligencia artificial ética.

El telégrafo no parece que nos haya hecho más tontos, ni ha eliminado la barbarie. Es un error pensar que una tecnología por sí sola va a resolver, o va a ser la causa de todos nuestros problemas. Todo depende del uso que hagamos de ella. Depende de nosotros, de nuestra responsabilidad, que la inteligencia artificial tenga un uso ético. La pregunta no es cómo hacer que la inteligencia artificial sea ética, sino cómo hacer que nosotros seamos éticos usando la inteligencia artificial.

Publicado en esglobal

 

Pin It on Pinterest