El nuevo ascensor asesino

El nuevo ascensor asesino

El nuevo ascensor asesino

Se dice que el programa Q* es una nueva amenaza para la humanidad

En el interior de un edificio de oficinas una niña se encuentra frente a un ascensor. El ascensor abre y cierra las puertas repetidamente, incitando a la niña a entrar en la cabina. Si lo hace, morirá. El ascensor se ha convertido en una máquina asesina.

Esta secuencia pertenece a El Ascensor, película de terror, quizás algo desconocida, en la cual un ascensor se transmuta en asesino un buen día y de forma inopinada. La causa radica en que fue programado con una tecnología prohibida, que tenía la capacidad de reprogramarse, siendo una amenaza para la sociedad.

Hace unas semanas, hemos vivido una miniserie donde Sam Altman era despedido y después readmitido, para terminar destituido parte del comité de dirección. No se sabe muy bien qué ha ocurrido, pero en una precuela no oficial de esta serie se atisba que quizás la razón se encuentre en un proyecto llamado Q* (Q star). Aseguran que este proyecto ha revelado una capacidad de ChatGPT que podría suponer un paso más hacia la inteligencia artificial general (AGI). Una inteligencia que supera en todo al ser humano y, por ello, con consecuencias desconocidas para la humanidad. ¿Habrán dado con la polea inicial de un posible ascensor asesino?

Ya hemos tenido miedos

En mi libro Estupidez artificial planteo otras innovaciones que en su momento generaron alarma en la sociedad. A mediados del siglo XIX, con el nacimiento del telégrafo, se dijo que acabaría nuestra capacidad de pensar. Posteriormente, se vio que el teléfono vulneraba la privacidad personal y se alarmó con desintegrar la esencia humana. Hoy en día seguimos siendo seres humanos con capacidad de pensar (si pensamos menos es porque estamos dormidos con la fantasía de las redes sociales).

Q* representa un avance hacia la AGI porque unifica dos capacidades: aprendizaje y planificación

No es necesario irse tan lejos en el tiempo. En 2016 el programa AlphaGo venció a Lee Sedol, mejor jugador del mundo, en un campeonato de Go. Sedol solo pudo ganar una partida de cinco. Se dijo entonces que esa victoria suponía un nuevo paso para la inteligencia artificial y una nueva amenaza porque podría terminar fuera de control.

Meter miedo sale gratis. Con el tiempo nadie te pide cuentas. Esto tampoco nos debe llevar a una visión ingenua de la inteligencia artificial. Esta tecnología tiene riesgos; negarlo es inconsciencia o engaño. Lo que debemos hacer es conocer estos riesgos, sin alarmismos, con templanza y sabiendo cómo actuar ante una posible emergencia. El tráfico de vehículos en las ciudades tiene riesgos, pero no por ello nos quedamos en casa.

Pensando templadamente en esos riesgos, la pregunta inquietante quizás sea: ¿supone la AGI un riesgo existencial para la humanidad?

A conciencia

Se dice que Q* representa un avance hacia la AGI porque unifica dos capacidades: aprendizaje y planificación. Pensando de forma distópica, eso nos lleva a pensar en un sistema inteligente que aprende cómo acabar con la humanidad y además planifica cómo hacerlo. Ya tenemos a nuestro ascensor asesino.

¿Es posible? Sí. ¿Es probable? Poco. Para llegar a esa situación hace falta una condición previa, que es la existencia de una conciencia. Alguien que quiera acabar con la humanidad. Se supone que el ascensor de la película en un momento dado decide acabar con cualquier incauto que entre en su cabina. Esa decisión es materia de una conciencia, capacidad no garantizada en la AGI. Sin esa consciencia, tan solo cabría temer que por azar, por mera casualidad, el sistema inteligente alcanzara como objetivo acabar con nosotros. En ese caso, dado que conocemos este riesgo, es de pacatos quedarse en casa. Debemos salir a la calle con las precauciones para que eso no suceda. Pongamos límites a esa futura AGI.

Queda además una última solución. En la película El Ascensor, los protagonistas acaban destruyendo el sistema central asesino del elevador. No obstante, por si acaso, terminan bajando por las escaleras. No perdamos nunca ese mundo natural.

Publicado en DigitalBiz

El peligro de los ‘deepfakes’ de clonación de voz

El peligro de los ‘deepfakes’ de clonación de voz

El peligro de los ‘deepfakes’ de clonación de voz

Nuevas herramientas de Inteligencia Artificial permiten reproducir una voz en diversos idiomas, lo que puede llevar a que cibercriminales suplanten la identidad a través de llamadas falsas

 

En las películas de Misión Imposible vemos cómo mimetizan la voz de cualquier persona. Luego Ethan Hunt (Tom Cruise) se pone una máscara con la cara de la víctima. Llega al lugar de encuentro, habla de forma natural con la voz del suplantado y así se hace pasar por él. Parece misión imposible, pero hoy en día estamos más cerca gracias a la inteligencia artificial (IA). Al menos en lo que respecta a copiar la voz. Hay una diferencia. No siempre copiamos la voz con el noble objetivo de luchar contra el mal, como en las películas. A veces es para engañar de viva voz. Son las deepfake de clonación de voz.

La clonación de la voz con fines delictivos viene sucediendo desde hace unos años. Últimamente es más preocupante porque resulta más fácil y nadie está a salvo.

Desde inversores a humildes abuelos

En enero de 2020 un director de una sucursal de una empresa japonesa en Hong Kong sufrió una estafa de clonación voz. Recibió una llamada telefónica, aparentemente normal, de quien decía ser el director de la compañía. El director de la sucursal no lo dudó, pues la voz le resultaba totalmente familiar y no tuvo reparo en seguir todas las instrucciones que le dieron, hasta transferir 35 millones de dólares a los estafadores.

En la primavera de este año, el inversor de Florida Clive Kabatznik fue víctima de un intento similar y en Canadá unos abuelos recibieron una llamada supuestamente de su nieto, alarmándoles de que se encontraba en la cárcel y necesitaba efectivo para pagar la fianza. Afortunadamente en ambos casos los intentos fueron detectados y no se pudo consumar la estafa. Pero el riesgo existe y no es complejo de realizar.

Háblame durante 3 segundos

Actualmente la técnica de clonación de voz no es exactamente como en las películas de Misión Imposible. Más que transformar la voz de una persona en la de otra, lo que se hace es la generación de una voz particular a partir de un texto. Es lo que se conoce como síntesis de texto a discurso (test-to-speech, o TTS). Su funcionamiento se basa en identificar patrones de voz. Todos hablamos de una forma particular, y por ello reconocemos las voces de cada persona. Tenemos un cierto tono, un timbre y una cadencia particular. Una red neuronal para la clonación de voz ha sido entrenada para reconocer estos patrones identificativos de cada voz y luego reproducirlos en la lectura de cualquier texto.

Antes de usar este tipo de aplicaciones, es recomendable leer las condiciones legales, a pesar de no estar escritas en un lenguaje amigable

Un ejemplo significativo de IA de clonado de voz es VALL-E, elaborado por Microsoft. Su red neuronal ha sido entrenada por una librería de voces en inglés con más de 60.000 horas de audio y de 7000 personas diferentes. Su potencia radica en que, para entender los patrones de una voz, le basta con 3 segundos de grabación. Por el momento, Microsoft no facilita esta IA de forma abierta y en su página web solo se pueden ver ejemplos demostrativos de su capacidad.

Sin embargo, sí existen muchas aplicaciones en Internet que permiten clonar una voz de forma sencilla. Basta con 30 segundos de grabación o leer un texto corto que proporciona la propia aplicación. Estas aplicaciones no nacen con el propósito de estafar voces. Su objetivo es ofrecer voces particulares, o tu propia voz, para actividades como animar vídeos, dar voz a avatares en videojuegos, creación de parodias o acciones de marketing. También se puede aplicar con fines sociales, como la lectura de textos para personas con dislexia. Clonar la voz no es un hecho delictivo en sí mismo, sino que depende de la bondad o maldad de cada uno.

Cómo evitar ser estafado de viva voz

En todos los casos estas aplicaciones avisan de posibles usos fraudulentos, delegando en el usuario toda la responsabilidad de un uso inapropiado. Antes de usar este tipo de aplicaciones, es recomendable leer las condiciones legales, a pesar de no estar escritas en un lenguaje amigable, porque determinan cuáles son las responsabilidades y concesiones de los usuarios. Hay que vigilar qué datos recopila la aplicación, junto con el registro de tu voz, y con qué fines se pueden utilizar. Además, lo que se publica puede ser accesible a terceras partes, quedando fuera de la política de privacidad de la propia aplicación.

Otro punto de atención es utilizar una voz ajena sin permiso de su dueño. Algo similar ya ha ocurrido, en el caso de utilización de imágenes. La empresa Clearview AI utilizó 30.000 millones de imágenes tomadas de redes sociales, sin consentimiento de sus dueños, para entrenar su sistema de reconociendo facial. Esto significa que cualquier voz subida a redes sociales puede ser utilizada, bien como entrenamiento, o bien para ser clonada.

Por desgracia no somos buenos identificando voces clonadas. Una forma de identificar si una voz ha sido clonada con IA es utilizar la propia IA. Existen aplicaciones, basadas en IA, que permiten identificar la clonación de voz. Pero es posible que no siempre tengamos acceso a esta tecnología. Otras opciones, más al alcance de la mano, se basan en la natural intuición ante una estafa: por ejemplo, verificar con terceras personas si una grabación sospechosa puede ser de su dueño no; ponerse en contacto por otra vía con la persona supuestamente suplantada; o hacer alguna pregunta o comentario al interlocutor sospechoso sobre algo que solamente la verdadera persona conoce. Hay que recordar que clonan la voz, pero no la persona (todavía).

Publicado en The Conversation

 

Sacerdotes ChactGPT

Sacerdotes ChactGPT

Sacerdotes ChactGPT

ChatGPT parece nuestra nueva pitonisa que dice la verdad. Gran riesgo

 

En la antigua Grecia se acudía al oráculo de Delfos para tener respuesta a cualquier pregunta. Hoy tenemos a ChatGPT. El oráculo de Delfos era respetado como infalible y sus respuestas eran muy bien valoradas. Se entendía que la pitonisa, sentada en su trípode en la zona sagrada del templo de Apolo, entraba en conexión directa con las divinidades y sus palabras solo podían ser verdad. Verdad. Eso es lo que podemos llegar a pensar de ChatGPT. Ése es el riesgo.

ChatGPT es un chatbot basado en GPT-3, que es lo que se llama un LLM (Large Language Models), es decir, un modelo de lenguaje grande. Google tiene otro, llamado LaMDA, del cual un ingeniero aseguró que tenía sentimientos, dada la afectividad con la que respondía a sus preguntas. Pensó que su pitonisa era de este mundo y fue despedido. Una pitonisa no es mundana. Bloomberg ha creado BloomberGPT como LLM especializado en temas financieros.  La consultoría financiera tiembla en su trípode, pues le ha salido competencia.

Adiós, mentes pensantes

Si eres peluquero, ebanista o reponedor en lineales de supermercados, puedes estar tranquilo. Pero si eres analista financiero, matemático o poeta, debes empezar a preocuparte. Así lo revela un estudio sobre el impacto de los LLM en el trabajo. Concluye que el 19% de los trabajadores pueden ver impactada su actividad en un 50%; y algunos oficios, como los anteriores, impactados en un 100%.

Esto sin duda supone un riesgo para ciertos empleos. Pero como daño colateral surge otro riesgo aún mayor, que afectaría a toda la sociedad. Consiste en pensar que cualquier LLM dice la verdad. No sé si la pitonisa tenía conexión con la divinidad y si sus declaraciones eran ciertas. Pero sí sé que los LLM están conectados con una forma particular de ver el mundo, la cual no tiene por qué ser la verdadera.

El futuro de los empleos radicará en saber preguntar, pero también en saber entender el porqué de una respuesta

La palabra clave en un LLM está en la M de “modelo”. Un LLM es un modelo de lenguaje. Es una simulación de una forma particular de hablar y de crear mensajes. ¿Cuál? La que hayan decidido sus creadores. Por ejemplo, OpenIA, hacedores de ChatGPT, dicen abiertamente que han entrenado su sistema para elaborar textos largos porque así las respuestas parecen más completas. Además, ha sido entrenado mediante unas personas que le han dicho lo que es una buena respuesta y lo que no. ChatGPT es una pitonisa conectada con la divinidad terrena OpenIA. ¿Coincidirá su visión sobre lo que está bien o no con la mía? No necesariamente.

Nuevos sacerdotes

No todo está perdido. Se dice que la pitonisa, una vez recibida la consulta, y tras haber entrado en trance, respondía a un sacerdote, el cual interpretaba sus palabras y las escribía en verso para entregarlas al peticionario. ¡Esa es nuestra salvación, convertirnos en sacerdotes de ChatGPT!

La caída de unos trabajos trae el auge de otros. El futuro de los empleos en la economía del conocimiento, amenazados por estos LLM, radicará en saber preguntar y en saber entender el porqué de una respuesta. Quizás no bastará con hacer una sola pregunta a un LLM para entender una situación, sino en hacerle varias, de distintas formas para extraer la respuesta final analizando sus respuestas particulares. Un conocimiento que implica saber cómo funciona una red neuronal, de la misma forma que sabemos cómo funciona una enciclopedia y qué entradas hay que consultar hasta tener la respuesta definitiva.

Se dice que Alejandro Magno fue a Delfos a preguntar si vencería en sus batallas. La pitonisa rechazó contestarle en ese momento. Alejandro, enfurecido, agarró al oráculo por los cabellos y la arrastró fuera del santuario hasta que ésta gritó: ¡Eres irresistible! Alejandro entendió que esa era la respuesta y conquistó el mundo. Saber entender las respuestas es clave.

Publicado en DigitalBiz

Gran tablón de corcho digital

Gran tablón de corcho digital

Gran tablón de corcho digital

Las grandes plataformas en Internet son tablones de corcho, pero con responsabilidad sobre su contenido

 

Siempre han existido los tablones de corcho colgados en las paredes. Recuerdo que en la Universidad había uno donde cualquiera podía pinchar lo que quisiera. Fácilmente podías encontrar desde noticias sobre el Rectorado a la venta de completos apuntes o a maravillosas hierbas “aromáticas”.

Luego podía resultar que la noticia sobre el Rectorado, anunciada como completamente dañina para los estudiantes, no era verdad; o que aquellos apuntes no eran tan completos; o bien esas hierbas no eran en realidad aromáticas, sino de otra naturaleza más animosa (según me dijeron, yo nunca lo supe). En estos casos, ¿a quién reclamar? No se podía responsabilizar al dueño del tablón de corcho. Primero porque se desconocía su dueño, y luego, porque su disculpa sería que él sólo había dispuesto un corcho enmarcado sobre la pared, y no era responsable de lo que allí se pinchara.

Así ha ocurrido con las grandes plataformas digitales en Internet. Se han considerado ellas mismas como ese tablón de corcho donde cualquiera puede publicar lo que quiera, sin responsabilidad alguna sobre su contenido.

Cuestión de tamaño

“Con el tamaño viene la responsabilidad”. Así piensa Margrethe Vestager, Vicepresidenta de la Comisión Europea de Una Europa Adaptada a la Era Digital, quien añade que “hay cosas que las grandes plataformas deben hacer y otras que no pueden hacer”. Tiene razón, es una cuestión de principios y de consecuencias, que cobra relevancia por el tamaño. No es lo mismo un tablón de corcho que afecta a unos cientos de estudiantes, a una plataforma digital que afecta al menos a 45 millones de usuarios. Y no es lo mismo colgar un tablón y marchar, a colgar un tablón y hacer dinero con su contenido.

No hay nada fuera del mundo real. El mundo digital también es real y sujeto a sus leyes

Con esta filosofía el Parlamento Europeo ha adoptado la Ley de Servicios Digitales (DSA) y la Ley de Mercados Digitales (DMA). En breve serán publicadas en el Diario Oficial de la Unión Europea, y tendrán aplicación directa en todos los Estados miembros, sin necesidad de normas de transposición.

Lo que es ilegal, es ilegal

Mediante la DSA las plataformas tendrán que poner medidas para evitar la difusión de contenidos ilegales o falsos en Internet. También deberán abrir sus algoritmos a efectos de auditoría para conocer su funcionamiento en temas, por ejemplo, de promoción de información o publicidad. Sabremos porqué una noticia aparece antes que otra.

Gracias a la DMA, ninguna plataforma de venta por Internet tendrá la tentación de dar  preferencia a sus propios artículos. O bien, podrás comprar cualquier aplicación para móvil en cualquier plataforma autorizada, y no solo en la del fabricante. Más claro: podrás comprar aplicaciones de Apple fuera de Apple.

El principio de actuación de estas dos leyes es muy claro: lo que es ilegal en el mundo real, es ilegal en el mundo digital. Es un principio básico, pero a veces olvidado. Se ha transmitido la idea de que el mundo digital es ajeno al real, o que las grandes plataformas son simples puertas y ventanas que dan acceso a un mundo digital, del cual no son responsables. Ambas ideas son falsas.

No hay nada fuera del mundo real. El mundo digital también es real y sujeto a sus leyes. Y las grandes plataformas no son inocentes tableros de corcho que muestran una realidad digital. Ellas mismas son y configuran esa realidad digital. No son ojos digitales, son mirada.

¿Conseguiremos esa responsabilidad de las grandes plataformas? Cuando en la Universidad me acercaba a un tablón de corcho siempre me decía “¿será verdad?, voy a comprobarlo”. La DSA y DMA nos ayudan, pero no todo es regulación. Nosotros nunca debemos perder ese espíritu crítico y de verificación.

Publicado en DigitalBiz

 

Algoritmos humanos en un mundo digital humano

Algoritmos humanos en un mundo digital humano

Algoritmos humanos en un mundo digital humano

¿Es posible crear algoritmos humanos? ¿Cómo deberían ser?

Una masa de gelatina transparente

Con la invención del teléfono se pensó que acabaríamos con la esencia humana. A medida que se iban conectando los hogares por cables telefónicos, fue asomando el miedo a la pérdida de la privacidad. La intimidad iba a desaparecer por completo. En algunos editoriales de la época aparecían textos terroríficos que se preguntaban qué sería de la santidad del hogar doméstico. Los miedos siempre vienen precedidos de gran pompa y circunstancia.

Este miedo a la pérdida de la privacidad derivó en la alerta a perder, nada más y nada menos, que nuestra esencia humana. Se creía que el teléfono iba a romper nuestra esfera privada y eso terminaría con lo más profundo del ser humano.

Siempre nos hemos preguntado por la esencia de lo humano. Por aquello que indiscutiblemente nos distingue de cualquier otro ser vivo, especialmente de los animales (espero que al menos tengamos claro aquello que nos distingue de una tomatera, antes de que nazca un colectivo pro derechos tomatales). En aquella época del teléfono naciente se juzgaba que un elemento de la esencia del ser humano era la privacidad. Esta visión tiene su fundamento, pues no sabe que, por ejemplo, las vacas tengan vida privada (aunque quizás la tengan, y ésta sea tan privada, que no la conocemos). La vida privada corresponde a ese ámbito de nuestra existencia sobre la cual no queremos dar cuenta públicamente y que nos identifica como individuos en lo más profundo. Esa individualidad es parte de nuestra humanidad, porque nos convierte en seres únicos.

Se empezó a hablar de la sociedad como una masa de gelatina transparente. Un todo uniforme en el cual no se distingue la singularidad de cada uno. La frase es interesante porque, quizás por primera vez, se habla de “transparencia” relacionado con la tecnología. Una transparencia que nos convierte en una masa de gelatina que cualquiera puede moldear. En aquel entonces, a finales del siglo XIX, existía el temor de que la tecnología del teléfono nos hiciera transparentes y moldeables. ¿Qué pensar hoy en día con tanta tecnología en forma de apps en nuestros móviles?

Actualmente no tenemos la sensación de perder nuestra esencia humana si hablamos por teléfono. Posiblemente no sepamos exactamente qué es lo humano, pero no nos sentimos deshumanizados por hablar por teléfono. Hoy los miedos vienen por otro lado. Pensamos que esa esencia humana se puede ver atacada por toda la tecnología que nos rodea, por los macrodatos (Big Data) o en particular por la inteligencia artificial. Existe parte de razón en ello.

En un enjambre digital

La tecnología no es ni buena ni mala, pero tampoco es neutral. Transmite valores. Cuando recibes un whatsapp recibes dos mensajes: uno, lo que diga su contenido (que en la mayoría de los casos será trivial), y el otro, lo transmite la propia naturaleza de la aplicación y dice “esto es inmediato”. Un whatsapp transmite el valor de la inmediatez, y nos sentimos abocados a responder de manera inmediata. De hecho, si tardamos unos minutos en responder, podemos obtener un nuevo mensaje reproche de quien nos escribió: “hola???” (cuantos más interrogantes, más reprimenda).

Las redes sociales son una concentración casual de personas que no forman una masa

El mensaje es el medio. Así lo expresó Marshall McLuhan en 1964, cuando publicó su famosa obra Understanding Media: The Extensions of Man (Comprender los medios de comunicación: Las extensiones del ser humano). Todo medio de comunicación es en sí mismo un mensaje. Así ocurre con las redes sociales que nos enredan. Lo explicó muy bien Reid Hoffman, co-fundador de LinkedIn, cuando hace unos años habló de los pecados capitales que transmitían las redes sociales. Por ejemplo, LinkedIn transmite la codicia o Facebook, la vanidad. Hoy en día Instagram lucha por esa misma vanidad, y no es casualidad que sea propiedad de Meta, antes Facebook hasta hace unos meses.

Nos encontramos en un enjambre digital. Ésta es la expresión que utiliza el filósofo surcoreano y profesor en la Universidad de las Artes de Berlín, Byung-Chul Han. Según este autor, la tecnología, y en particular el mundo digital en el que vivimos, cambia nuestra conducta. Somos distintos desde que tenemos tecnología. El siglo XX fue el siglo de la revolución de las masas, pero ahora, la masa ha cambiado. No podemos hablar tanto de una masa, sino de un enjambre: la nueva masa es el enjambre digital.

Este enjambre digital consta de individuos aislados. Le falta un alma, un nosotros. Las redes sociales son una concentración casual de personas que no forman una masa. Particularmente lo veo cada vez que entro en Twitter (solo estoy en LinkedIn y Twitter; peco lo justo). Observo perfiles con nombres simpáticos que retuitean, responden o indican que algo les gustó. Uniones causales y temporales. No hay una voz, solo ruido.

Lo digital es ahora el medio de la información. Cabe suponer que cuantos más medios digitales tengamos, cuantas más redes sociales, dispondremos de más información y podremos tomar decisiones más acertadas. No es cierto. Así lo expresa también Byung-Chul Han: “más información no conduce necesariamente a decisiones más acertadas […]. El conjunto de información por sí solo no engendra ninguna verdad […]. En un determinado punto, la información ya no es informativa, sino deformativa”. Por eso hoy en día hay gente que piensa que la Tierra es plana.

El opio del pueblo

La tecnología digital nos ha llevado a un imperio global en el que no existe un orden dominante. Aquí cada uno se explota a sí mismo, y lo hace feliz porque se cree que lo hace libremente. Cada minuto en Internet se visualizan 167 millones de vídeos en Tiktok, se publican 575 mil tuits, 65 mil fotos en Instagram, o 240 mil en Facebook. ¡En un minuto! Creo que nunca antes ha existido una productividad semejante. Para ello, no es necesario obligar a nadie, basta con prometer un paraíso lleno de “likes” o impresiones y soltar de vez en cuando un eslogan sonriente del tipo “sal de tu zona de confort”.

Byung-Chul Han lo llama explotación sin dominación. Estamos, quizás, ante esa masa de gelatina transparente que cualquiera puede moldear. Diego Hidalgo dice que estamos anestesiados. El mundo digital nos ha dormido, nos ha dejado insensibles ante nuestra consciencia.

Hace unos años la tecnología era “sólida”. Teníamos ese teléfono de mesa, con auricular y micrófono formando un asa y que requería deslizar un disco con números del 1 al 9 para llamar a tu contertulio. Realmente tecnología sólida. Menos problemática porque sabemos cuándo la usamos y cuándo no.

La tecnología digital nos ha llevado a un imperio en el que cada uno se explota a sí mismo, y lo hace feliz porque se cree que lo hace libremente

Actualmente la tecnología, según Diego Hidalgo, es “líquida” o incluso “gaseosa”. Ya no la vemos venir. Ahora no sabemos dónde está, cuándo la usamos o si ella nos usa a nosotros. Tenemos relojes que se conectan con el móvil, o asistentes inteligentes que te marcan el número de teléfono a la orden de tu voz. Es una tecnología ubicua, cada vez más invasiva y más autónoma. Su incremento de autonomía es nuestra disminución de soberanía. Las máquinas actúan y piensan por nosotros. Google nos puede llevar de un sitio a otro, sin tener nosotros que pensar la ruta. Esto hace que estemos adormilados.

La tecnología digital se ha convertido en el opio del pueblo, parafraseando a Karl Max. De vez en cuando en las noticias vemos narcopisos con plantaciones de marihuana alimentadas bajo potentes focos de luz. De una manera más sutil, en nuestras casas disponemos de plantaciones de adormideras, en forma de múltiples dispositivos móviles, que nos iluminan a nosotros con la tenue luz azul de sus pantallas. ¿Quién alimenta este opio digital? La inteligencia artificial.

Algoritmos humanos

La inteligencia artificial es muy buena reconociendo patrones de comportamiento. Mediante la inteligencia artificial se puede identificar fácilmente qué es lo nos gusta o nos disgusta. Basta con analizar nuestra actividad en las redes sociales. Esto permite a las organizaciones hacernos amables sugerencias sobre qué comprar o qué contenido seleccionar. Esta idea partió con un fin bueno: el objetivo era conocer al usuario para que éste tuviera una mejor experiencia de cliente. En un principio, parecía que lo hacían por nuestro bien. Pero algo se debió torcer en el camino.

La inteligencia artificial puede, y debe, servir para aumentar nuestras capacidades e incluso nuestra condición humana

La inteligencia artificial se puede utilizar para mantenernos activos en las redes sociales el mayor tiempo posible. Así lo denuncia el reportaje The Social Dilema, producido por distintos ex directivos de empresas de redes sociales. No importa si ese continuo de actividad puede llevar a la adicción. No importa que el usuario pueda llegar a perder su autonomía. La inteligencia artificial puede ser muy buena como adormidera de nuestra consciencia. Opio digital del bueno.

Se impone la necesidad de ajustar la acción de la inteligencia artificial. Ésta puede, y debe, servir para aumentar nuestras capacidades e incluso nuestra condición humana. Para ello es necesario crear lo que Flynn Coleman llama algoritmos humanos. Consiste en dotar a la inteligencia artificial de valores éticos humanos. La idea es buena, pero no está exenta de complejidad, como el mismo autor reconoce.

Un primer punto es determinar qué valores éticos humanos. Posiblemente no podamos llegar a un acuerdo sobre valores éticos comunes, dado que estos dependen de nuestra cultura y de nuestros valores personales y propios. La idea de qué está bien y qué está mal no es la misma en Europa que en Oriente Medio o en Asia, por citar unos ejemplos y sin entrar a juzgarlas. Simplemente son distintas.

Pero quizás, con algo de optimismo, podríamos llegar a un mínimo de acuerdo sobre aquello que representa los valores humanos. A finales del siglo XIX, con la llegada del teléfono, se creía en la intimidad como un valor humano. Hoy en día hemos evolucionado esta visión. No hablamos tanto de esencia humana, sino de cultivo de la virtud como base para una sociedad que podamos denominar como “humana”. Son lo que se llaman las virtudes públicas, entre las cuales se encuentran la solidaridad, la responsabilidad o la tolerancia. Imposible negar estas virtudes o estos valores humanos. Los podemos considerar (casi) universales. Vale, pero ¿cómo los programamos en un algoritmo?

Ésa es la segunda cuestión de complejidad. Cómo podemos cuantificar, por ejemplo, la solidaridad, para programarla en un algoritmo. Cómo definimos la tolerancia, para pasarla a fórmulas matemáticas. Dónde ponemos matemáticamente el umbral de la tolerancia. Una posible solución es utilizar el mismo conocimiento que la inteligencia artificial tiene de nosotros. Toda esa información analizada sobre nuestros gustos y disgustos puede servir para tener una idea de nuestra esencia como seres humanos. Esencia que al estar ya digitalizada puede servir para entrenar a la propia inteligencia artificial. Pero existe un riesgo: la inteligencia artificial podría aprender nuestras fortalezas y bondades, pero también nuestras debilidades y maldades. Porque la esencia humana es el juego de ambos.

Por fortuna la solución depende de nosotros. De cada uno de nosotros cuando usamos la tecnología que nos rodea. Podemos decidir apagar el móvil, a pesar de recibir una notificación; podemos decidir escribir un tuit con uno u otro fin; o decidir publicar una foto para gloria de nuestra vanidad o no; podemos decidir crear una inteligencia artificial de reconocimiento de imágenes para detectar enfermedades con más antelación, o bien para identificar etnias y reprimirlas. Todas estas acciones comienzan con el verbo decidir en acción de primera persona, porque depende de nosotros. Y solo decide el que está despierto. Esto exige despertar de la dormidera del opio digital.

Publicado en esglobal

 

La supervisión humana de la IA

La supervisión humana de la IA

La supervisión humana de la IA

Cuando un algoritmo ofrece un resultado, es necesario estar seguro que es correcto y saber el porqué de tal resultado

 

“Que eso no se dice, que eso no se hace, que eso no se toca”. Esto es la supervisión humana que el Reino Unido ha sugerido que podría eliminar en la toma de decisiones de sistemas basados en inteligencia artificial (IA). Los versos corresponden a una vieja canción de Joan Manuel Serrat, titulada ‘Esos locos bajitos’. Hace referencia a los niños que, con mejor o peor fortuna, son educados por sus padres. Todos, en algún momento, hemos recibido esas palabras. Técnicamente hablando era la supervisión de nuestros padres en nuestros actos.

Esta misma idea de supervisión es un elemento fundamental en el uso de los sistemas inteligentes. Hay ciertas decisiones que nos afectan directamente y que pueden estar tomadas por un algoritmo de IA. Puede ser el caso de la aprobación de una hipoteca o ser contratado en una empresa. El año pasado, debido a la suspensión de los colegios por la pandemia de Covid-19, las notas de los alumnos en Reino Unido fueron asignadas por un algoritmo de IA basado en el rendimiento medio del alumno y de su instituto.

No existen decisiones automatizadas. Detrás de un algoritmo siempre hay una persona o una institución

En septiembre el Reino Unido anunció que este tipo de decisiones no tendrían por qué estar verificadas por un ser humano. Una inteligencia artificial se basta sola para saber a quién dar una hipoteca, a quién contratar o qué nota académica poner.

En contra de la UE

Este planteamiento va en contra del Reglamento General de Protección de Datos (RGPD) de la UE. En particular respecto a su artículo 22 sobre decisiones automatizadas, que establece que tenemos derecho a no ser objeto de una decisión automatizada, que tenga efectos jurídicos o nos afecte significativamente.

Una IA puede determinar que no recibamos una hipoteca. No obstante, este resultado debe ser supervisado por una persona, quien, en un momento dado, puede decirle con cariño a la IA, que eso no se dice o eso no se hace, y finalmente otorgar la hipoteca al merecido solicitante.

Eliminar esta supervisión humana significa falta de transparencia en el uso de la IA y eso no va a favorecer su desarrollo.

Dividendo del dato

¿Qué se encuentra detrás de esta eliminación de la supervisión humana en la IA? El llamado dividendo del dato. El dato es el petróleo del futuro y se quiere hacer mucho dinero con él. Como decir ‘hacer dinero’ es muy grosero, se utiliza la expresión amable ‘dividendo del dato’.

Para hacer dinero, lo mejor es no tener impedimentos. El argumento en contra de la supervisión humana es que ésta resulta complicada y poco práctica. Sin embargo, tal supervisión es posible y es necesaria.

Perder la supervisión humana de la IA es perder control de la democracia

Es posible porque para entender el resultado de una IA no es necesario investigar en las tripas del algoritmo y leer líneas y líneas de código. Tenemos tecnologías que son capaces de explicar la decisión de un algoritmo inteligente en función de sus datos de entrada.

Además, es necesaria porque todo ciudadano tiene derecho a conocer quién toma una decisión y por qué la toma. Un algoritmo nunca toma una decisión. No existen decisiones automatizadas. Detrás de un algoritmo siempre hay una persona o una institución que toma una decisión a través de un algoritmo. Si eliminamos la supervisión humana, esto llevará a la toma de decisiones por personas o grupos de interés desconocidos. Una sociedad moderna y democrática no puede abandonar su responsabilidad en la toma de decisiones que afectan a sus ciudadanos.

Existe una esperanza. El mismo gobierno del Reino Unido ha comunicado que la solución final sobre la supervisión humana no debe ir en contra de los acuerdos que tiene el país con la UE. Esto afecta a ese artículo 22 del RGPD.

Esperemos que así sea. El estribillo de la canción de Serrat también dice: “niño, deja ya de joder con la pelota”. Esperemos no quitar la supervisión humana de la IA para no acabar con tan gruesas palabras hacia un sistema inteligente.

Publicado en DigitalBiz

 

Pin It on Pinterest