El nuevo ascensor asesino

El nuevo ascensor asesino

El nuevo ascensor asesino

Se dice que el programa Q* es una nueva amenaza para la humanidad

En el interior de un edificio de oficinas una niña se encuentra frente a un ascensor. El ascensor abre y cierra las puertas repetidamente, incitando a la niña a entrar en la cabina. Si lo hace, morirá. El ascensor se ha convertido en una máquina asesina.

Esta secuencia pertenece a El Ascensor, película de terror, quizás algo desconocida, en la cual un ascensor se transmuta en asesino un buen día y de forma inopinada. La causa radica en que fue programado con una tecnología prohibida, que tenía la capacidad de reprogramarse, siendo una amenaza para la sociedad.

Hace unas semanas, hemos vivido una miniserie donde Sam Altman era despedido y después readmitido, para terminar destituido parte del comité de dirección. No se sabe muy bien qué ha ocurrido, pero en una precuela no oficial de esta serie se atisba que quizás la razón se encuentre en un proyecto llamado Q* (Q star). Aseguran que este proyecto ha revelado una capacidad de ChatGPT que podría suponer un paso más hacia la inteligencia artificial general (AGI). Una inteligencia que supera en todo al ser humano y, por ello, con consecuencias desconocidas para la humanidad. ¿Habrán dado con la polea inicial de un posible ascensor asesino?

Ya hemos tenido miedos

En mi libro Estupidez artificial planteo otras innovaciones que en su momento generaron alarma en la sociedad. A mediados del siglo XIX, con el nacimiento del telégrafo, se dijo que acabaría nuestra capacidad de pensar. Posteriormente, se vio que el teléfono vulneraba la privacidad personal y se alarmó con desintegrar la esencia humana. Hoy en día seguimos siendo seres humanos con capacidad de pensar (si pensamos menos es porque estamos dormidos con la fantasía de las redes sociales).

Q* representa un avance hacia la AGI porque unifica dos capacidades: aprendizaje y planificación

No es necesario irse tan lejos en el tiempo. En 2016 el programa AlphaGo venció a Lee Sedol, mejor jugador del mundo, en un campeonato de Go. Sedol solo pudo ganar una partida de cinco. Se dijo entonces que esa victoria suponía un nuevo paso para la inteligencia artificial y una nueva amenaza porque podría terminar fuera de control.

Meter miedo sale gratis. Con el tiempo nadie te pide cuentas. Esto tampoco nos debe llevar a una visión ingenua de la inteligencia artificial. Esta tecnología tiene riesgos; negarlo es inconsciencia o engaño. Lo que debemos hacer es conocer estos riesgos, sin alarmismos, con templanza y sabiendo cómo actuar ante una posible emergencia. El tráfico de vehículos en las ciudades tiene riesgos, pero no por ello nos quedamos en casa.

Pensando templadamente en esos riesgos, la pregunta inquietante quizás sea: ¿supone la AGI un riesgo existencial para la humanidad?

A conciencia

Se dice que Q* representa un avance hacia la AGI porque unifica dos capacidades: aprendizaje y planificación. Pensando de forma distópica, eso nos lleva a pensar en un sistema inteligente que aprende cómo acabar con la humanidad y además planifica cómo hacerlo. Ya tenemos a nuestro ascensor asesino.

¿Es posible? Sí. ¿Es probable? Poco. Para llegar a esa situación hace falta una condición previa, que es la existencia de una conciencia. Alguien que quiera acabar con la humanidad. Se supone que el ascensor de la película en un momento dado decide acabar con cualquier incauto que entre en su cabina. Esa decisión es materia de una conciencia, capacidad no garantizada en la AGI. Sin esa consciencia, tan solo cabría temer que por azar, por mera casualidad, el sistema inteligente alcanzara como objetivo acabar con nosotros. En ese caso, dado que conocemos este riesgo, es de pacatos quedarse en casa. Debemos salir a la calle con las precauciones para que eso no suceda. Pongamos límites a esa futura AGI.

Queda además una última solución. En la película El Ascensor, los protagonistas acaban destruyendo el sistema central asesino del elevador. No obstante, por si acaso, terminan bajando por las escaleras. No perdamos nunca ese mundo natural.

Publicado en DigitalBiz

Sacerdotes ChactGPT

Sacerdotes ChactGPT

Sacerdotes ChactGPT

ChatGPT parece nuestra nueva pitonisa que dice la verdad. Gran riesgo

 

En la antigua Grecia se acudía al oráculo de Delfos para tener respuesta a cualquier pregunta. Hoy tenemos a ChatGPT. El oráculo de Delfos era respetado como infalible y sus respuestas eran muy bien valoradas. Se entendía que la pitonisa, sentada en su trípode en la zona sagrada del templo de Apolo, entraba en conexión directa con las divinidades y sus palabras solo podían ser verdad. Verdad. Eso es lo que podemos llegar a pensar de ChatGPT. Ése es el riesgo.

ChatGPT es un chatbot basado en GPT-3, que es lo que se llama un LLM (Large Language Models), es decir, un modelo de lenguaje grande. Google tiene otro, llamado LaMDA, del cual un ingeniero aseguró que tenía sentimientos, dada la afectividad con la que respondía a sus preguntas. Pensó que su pitonisa era de este mundo y fue despedido. Una pitonisa no es mundana. Bloomberg ha creado BloomberGPT como LLM especializado en temas financieros.  La consultoría financiera tiembla en su trípode, pues le ha salido competencia.

Adiós, mentes pensantes

Si eres peluquero, ebanista o reponedor en lineales de supermercados, puedes estar tranquilo. Pero si eres analista financiero, matemático o poeta, debes empezar a preocuparte. Así lo revela un estudio sobre el impacto de los LLM en el trabajo. Concluye que el 19% de los trabajadores pueden ver impactada su actividad en un 50%; y algunos oficios, como los anteriores, impactados en un 100%.

Esto sin duda supone un riesgo para ciertos empleos. Pero como daño colateral surge otro riesgo aún mayor, que afectaría a toda la sociedad. Consiste en pensar que cualquier LLM dice la verdad. No sé si la pitonisa tenía conexión con la divinidad y si sus declaraciones eran ciertas. Pero sí sé que los LLM están conectados con una forma particular de ver el mundo, la cual no tiene por qué ser la verdadera.

El futuro de los empleos radicará en saber preguntar, pero también en saber entender el porqué de una respuesta

La palabra clave en un LLM está en la M de “modelo”. Un LLM es un modelo de lenguaje. Es una simulación de una forma particular de hablar y de crear mensajes. ¿Cuál? La que hayan decidido sus creadores. Por ejemplo, OpenIA, hacedores de ChatGPT, dicen abiertamente que han entrenado su sistema para elaborar textos largos porque así las respuestas parecen más completas. Además, ha sido entrenado mediante unas personas que le han dicho lo que es una buena respuesta y lo que no. ChatGPT es una pitonisa conectada con la divinidad terrena OpenIA. ¿Coincidirá su visión sobre lo que está bien o no con la mía? No necesariamente.

Nuevos sacerdotes

No todo está perdido. Se dice que la pitonisa, una vez recibida la consulta, y tras haber entrado en trance, respondía a un sacerdote, el cual interpretaba sus palabras y las escribía en verso para entregarlas al peticionario. ¡Esa es nuestra salvación, convertirnos en sacerdotes de ChatGPT!

La caída de unos trabajos trae el auge de otros. El futuro de los empleos en la economía del conocimiento, amenazados por estos LLM, radicará en saber preguntar y en saber entender el porqué de una respuesta. Quizás no bastará con hacer una sola pregunta a un LLM para entender una situación, sino en hacerle varias, de distintas formas para extraer la respuesta final analizando sus respuestas particulares. Un conocimiento que implica saber cómo funciona una red neuronal, de la misma forma que sabemos cómo funciona una enciclopedia y qué entradas hay que consultar hasta tener la respuesta definitiva.

Se dice que Alejandro Magno fue a Delfos a preguntar si vencería en sus batallas. La pitonisa rechazó contestarle en ese momento. Alejandro, enfurecido, agarró al oráculo por los cabellos y la arrastró fuera del santuario hasta que ésta gritó: ¡Eres irresistible! Alejandro entendió que esa era la respuesta y conquistó el mundo. Saber entender las respuestas es clave.

Publicado en DigitalBiz

Ser éticos con la inteligencia artificial

Ser éticos con la inteligencia artificial

Ser éticos con la inteligencia artificial

¿Es la inteligencia artificial la que tiene que ser ética o el ser humano cuando la utiliza? He aquí las claves para entender el uso ético de la IA

 
 
Una inteligencia artificial ni tan buena ni tan mala

En 1889 el periódico inglés Spectator alertaba sobre los dañinos efectos intelectuales de la electricidad, y, en particular, del telégrafo. Declaraba que el telégrafo era un invento que claramente iba a afectar al cerebro y al comportamiento humano. Debido a este nuevo medio de comunicación, la población no paraba de recibir información de modo continuo y con muy poco tiempo para la reflexión. El resultado llevaría a debilitar y finalmente paralizar el poder reflexivo.

Nicholas Carr se preguntó algo similar respecto a Google. Ciertamente, viendo las patochadas que a veces se publican en las redes sociales, uno pudiera pensar que tal debilidad de reflexión ya ha se ha hecho realidad. Sin embargo, de ser verdad, no sería justo atribuirlo al desarrollo de la electricidad, sino más bien a la propia naturaleza de los hacedores de tales despropósitos.

La inteligencia artificial es excelente identificando patrones. La cuestión radica a qué dedicamos dicha excelencia.

Pero no todo iban a ser desgracias. El telégrafo también estaba llamado a traer la paz al mundo, al más puro deseo de un certamen de belleza. El telégrafo podía transmitir la información a la velocidad del rayo. Esto iba a permitir favorecer la comunicación entre toda la humanidad de forma instantánea, lo cual nos llevaría a una conciencia universal que acabaría con la barbarie. No parece que haya sido así. Hoy gozamos de una capacidad de comunicación inmediata sin precedentes, que permite compartir sin tardanza las imágenes de tu noticiable desayuno. Sin embargo, la barbarie sigue siendo nuestra compañera en la historia.

Algo similar sucede hoy en día con la inteligencia artificial: ni tan buena, ni tan mala. La inteligencia artificial trabaja principalmente identificando patrones y en esto es verdaderamente excelente. La cuestión radica a qué dedicamos dicha excelencia.

Esta identificación de patrones, permite, por ejemplo, identificar síntomas de Covid-19 en personas asintomáticas, evitando así la extensión de la enfermedad; también puede reconocer y clasifica leopardos por las manchas de su pelaje, favoreciendo su seguimiento y disminuir el riesgo de extinción; o bien reconocer trazos en la escritura de textos antiguos y determinar su número de autores. Es la cara amable y deseada de la inteligencia artificial que nos ayuda a mejorar la salud, el medioambiente y la ciencia.

Esta misma grandeza en reconocer patrones es la que permite a la inteligencia artificial clasificarnos (encasillarnos), por nuestra actividad en el uso de aplicaciones móviles o en redes sociales, para predecir nuestro comportamiento e incitarnos a comprar productos sin apenas ser conscientes. Nos puede recomendar aquello que realmente sabe que nos gusta o que necesitamos. La inteligencia artificial sabe más de nuestra intimidad que nosotros mismos. Este conocimiento sobre nuestra forma de ser es el que permite también generar notificaciones, cuidadosamente pensadas para mantenernos activos en dichas redes sociales, llegando a la adicción, tal y como denuncia el reportaje The Social Dilema.

Es un conocimiento matemático sobre nuestra personalidad que niega a la libertad una opción de existir. El año pasado, durante los meses más duros de la pandemia que suspendieron las clases docentes y la celebración de exámenes, en el Reino Unido se decidió utilizar un sistema de inteligencia artificial para determinar la evaluación académica de ese curso, en función de las calificaciones obtenidas en años anteriores. ¿Acaso no puedo ser distinto este año respecto al anterior y ahora estudiar más? ¿No es posible que mis actos futuros sean diferentes a mis patrones de comportamiento del pasado? ¿No aceptas que soy libre? Para la inteligencia artificial, la respuesta a todas estas preguntas es “no, no puedes, así lo dice mi algoritmo”.

Éticas para una inteligencia artificial

Estas preguntas en el fondo nos están hablando sobre la moral, aunque este término nos parezca algo “viejuno” (neologismo despectivo instagramer para decir antiguo, bien distinto, dicho sea de paso, de “vintage”, concepto elogioso de la misma antigüedad). Así es, porque la moral nos interpela sobre cómo actuar y sobre cómo responder, ante nosotros y ante la sociedad, sobre tales actos. Al hablar de actuar podemos pensar en nuestras actuaciones directas, o en aquellas a través de una herramienta como es la inteligencia artificial. Y si queremos pensar sobre la moral, debemos recurrir a la ética, que es la parte de la filosofía que se ocupa de la misma. ¡Quién nos iba a decir que la filosofía podía servir para algo práctico en nuestra vida! Pues sí, detrás de nuestra forma de pensar y de proponer soluciones se encuentran propuestas filosóficas.

Las Tres Leyes de Asimov se alimentan de Kant. Decidir que está bien según la mayoría, es ser utilitarista. La filosofía nos influye aunque no lo veamos 

Ese lado no tan amable de la inteligencia artificial que acabamos de ver es materia de preocupación. Como solución a ello existen ciertas propuestas que en el fondo se alimentan de propuestas filosóficas.

Una de las primeras soluciones a los dilemas éticos de la inteligencia artificial son las famosas Tres Leyes de la Robótica de Asimov. Constituyen tres principios éticos que supuestamente se deberían programar en un sistema inteligente. La primera de ellas, por ejemplo, dice que un robot no hará daño a un ser humano o, por inacción, permitirá que un ser humano sufra daño. Detrás de esta solución práctica se encuentra una visión de la ética de Kant, según la cual debemos actuar por un principio categórico, no condicionado por nada más. Tales leyes de la robótica serían esos principios categóricos de los sistemas inteligentes. Pero, como buena ética kantiana, tiene sus dificultades prácticas.

El primer problema surge de tratar con conceptos abstractos, tales como “hacer daño”. Matar es claramente hacer daño; poner una vacuna también causa dolor. ¿Hasta dónde llega el daño? El segundo problema viene de la evaluación del posible daño y de tener que evitar éste a todo ser humano. Si un sistema inteligente se encuentra con dos personas con la misma probabilidad de daño, no sabrá a quien atender y puede ocurrir que se acabe bloqueando.

Otra solución al comportamiento ético de la inteligencia artificial podría ser recurrir a una visión de la mayoría. Sí, ha leído bien: la mayoría decide qué está bien y qué está mal. Por ejemplo, supongamos que tenemos que decidir qué debe hacer un vehículo de conducción autónoma en el supuesto de accidente inmediato e irreversible que implica a viandantes: ¿salvamos a los ocupantes o a los viandantes? El MIT propone su Moral Machine para analizar estas posibles decisiones. Esta solución se ampara en la llamada ética utilitarista de Bentham según la cual una acción es buena si proporciona la mayor felicidad para el mayor número.

Este tipo de soluciones éticas se preocupan por las consecuencias de las acciones y no tanto por los principios que las inspiran, siendo la felicidad una de las principales consecuencias deseadas. Desde esta perspectiva utilitarista, las recomendaciones en redes sociales para ver nuevos contenidos serían éticamente aceptable. El sistema simplemente nos recomienda lo que más le satisface a la mayoría, aquello que más “like” ha conseguido. ¿Y si tanta recomendación me causa adicción, como hemos visto? Eso ya es responsabilidad de cada uno, se podría argumentar, pero el fin es bueno: las recomendaciones buscan mejorar la experiencia del usuario.

Principios, consecuencias y responsabilidad

En la última frase del párrafo anterior se encuentra la tercera variable de la solución ética a la inteligencia artificial: es responsabilidad de cada uno. Hemos visto que la moral consiste en la toma de decisiones y en cómo respondemos, ante nosotros y la sociedad, de dichas decisiones. El comportamiento ético de un sistema inteligente siempre debe concluir en la responsabilidad de una persona (o institución): de la persona responsable de la conducción de un vehículo autónomo; de la persona que determina una sentencia ayudado por un sistema inteligente; o de la persona que contrata en función de recomendaciones de machine learning. Esta responsabilidad es una dimensión más de una inteligencia artificial ética, pero no la única.

Existen además aquellas otras dos dimensiones que hemos visto en los ejemplos de posibles éticas a aplicar. Hemos hablado de una ética de principios (por ejemplo, Kant) y de una ética de consecuencias (por ejemplo, el utilitarismo). La solución ética a los sistemas inteligentes consiste en tres elementos: (1) determinar los principios que rigen dicho sistema, (2) evaluar sus consecuencias y (3) permitir que las personas afectadas puedan tomar decisiones.

Marco europeo para una inteligencia artificial fiable

Ésta es la idea que inspira a las propuestas de la Unión Europea en dos de sus textos principales para una inteligencia artificial fiable. En el documento Directrices Éticas para una Inteligencia Artificial Fiable establece el concepto de inteligencia artificial fiable como aquella que es lícita (que cumple con la normativa vigente), robusta (sin fallos para no causar daños) y ética (que asegure el cumplimiento de valores éticos). Sobre esta visión se construyen las tres dimensiones que comentamos.

Para que una inteligencia artificial sea fiable ésta debe partir de unos principios, que para la UE son: prevención del daño, equidad, explicación y autonomía humana, siendo este último el que garantiza esa capacidad de decisión. La inteligencia artificial no puede subordinar, coaccionar, engañar, manipular, condicionar o dirigir a las personas de manera injustificada. Al contrario, la inteligencia artificial debe potenciar las aptitudes cognitivas, sociales y culturales de las personas. Ésta es la dimensión de responsabilidad.

Permitir que las personas puedan tomar decisiones es un elemento ético principal

Para ayudar al cumplimiento de estos principios y garantizar esta responsabilidad, el marco de directrices establece una serie de requisitos claves a evaluar en cada sistema inteligente, tales como la acción y supervisión humana, la solidez técnica, la privacidad, la transparencia o la no discriminación. Estos requisitos clave se orientan a prevenir esas posibles consecuencias.

Para que todo esto no se queden en palabras bonitas, al albur de la buena fe y dado que la mejor forma de animar a dicha buena fe es la aplicación de medios coercitivos, la Comisión Europea ha propuesto una legislación con medidas concretas y sanciones sobre el uso de sistemas inteligentes. Esta normativa prohíbe ciertos usos de la inteligencia artificial, como, por ejemplo, aquellos que manipulan el comportamiento para eludir la voluntad de los usuarios o sistemas que permitan la «puntuación social» por parte de los Gobiernos. Otros usos de la inteligencia artificial, tales como su aplicación en procesos legales, control de migraciones, usos educativos o gestión de trabajadores, son considerados como de alto riesgo y deben tener un proceso previo de auditoría para su evaluación de conformidad antes de ser introducidos en el mercado. Este tipo de auditorías es demandado por distintas organizaciones, como We The Humans, think tank orientado hacia una inteligencia artificial ética.

El telégrafo no parece que nos haya hecho más tontos, ni ha eliminado la barbarie. Es un error pensar que una tecnología por sí sola va a resolver, o va a ser la causa de todos nuestros problemas. Todo depende del uso que hagamos de ella. Depende de nosotros, de nuestra responsabilidad, que la inteligencia artificial tenga un uso ético. La pregunta no es cómo hacer que la inteligencia artificial sea ética, sino cómo hacer que nosotros seamos éticos usando la inteligencia artificial.

Publicado en esglobal

 

Acabaremos con la barbarie

Acabaremos con la barbarie

Acabaremos con la barbarie

Promesas y temores morales de la tecnología

El establecimiento de la primera línea de telégrafo en 1844 trajo grandes esperanzas para la humanidad. Por primera vez el mensaje iba más rápido que el mensajero. Por primera vez el pensamiento podía volar a cualquier punto del mundo, y eso generó una gran ilusión. Se creó el concepto de “comunicación universal”, como aquel medio por el cual se podría unir la mente de todos los hombres en una especie de conciencia común mundial. Con el telégrafo se podría unificar a todos los pueblos para compartir los principios más elevados del humanismo. Por fin la barbarie estaba llamada a su fin. Era imposible que los viejos prejuicios y las hostilidades existieran por más tiempo, dado que se había creado un instrumento que permitía llevar el pensamiento a cualquier lugar de la tierra. El telégrafo prometía grandes avances morales en la humanidad.

No sé si finalmente ha sido así. Hemos conseguido una comunicación global, pero creo que no tanto esa “comunicación universal”, en el sentido de una conciencia común y una unidad en lo humano. La razón es clara: una supuesta conciencia universal no depende tanto del telégrafo, sino de los mensajes que transmitamos por dicha herramienta. No por tener una herramienta con capacidad para la comunicación universal, vamos a tener una cultura humana universal. Lo importante es el contenido (los mensajes) y menos el continente (el telégrafo). Así ocurrió que un telegrama fue el casus belli para el estallido de la guerra Franco-Prusiana en 1870, con lo que se conoce como el Telegrama de Ems.

No por tener una herramienta con capacidad para la comunicación universal, vamos a tener una cultura humana universal

El periódico inglés Spectator publicó en 1889 un editorial titulado “Los efectos intelectuales de la electricidad” donde se alertaba de los daños que podía causar el telégrafo en nuestra mente. Según el periódico, el telégrafo era un invento que no debía de ser, es decir, era moralmente inadecuado, pues su uso iba a afectar al cerebro y al comportamiento humano. El telégrafo estaba basado en comunicaciones breves, inmediatas y con frases reducidas. Esto hacía que el telégrafo forzara a los hombres a pensar de manera apresurada, sin apenas reflexión y sobre la base de información fragmentada. El resultado era una precipitación universal y una confusión de juicio, una disposición a decidir demasiado rápidamente y agitados por emociones. El telégrafo acabaría por dañar la consciencia y la inteligencia, para finalmente debilitar y paralizar el poder reflexivo. Me gustaría saber qué pensaría hoy el Spectator del WhatsApp.

Del telégrafo al WhatsApp. Tras casi doscientos años de “comunicación universal” me temo que no hemos acabado con la barbarie, y nos seguimos alimentando de la comunicación breve, con textos de 280 caracteres y vídeos de 30 segundos. ¿Tenemos ahora más humanismo que hace doscientos años? ¿Cabe suponer que nuestro poder reflexivo se viene debilitando desde el siglo XIX? Son preguntas para no acabar con el poder de reflexión.

Publicado en Digital Biz

 

Bombas de agua en una aldea africana

Bombas de agua en una aldea africana

Bombas de agua en una aldea africana

De la comunidad a la individualidad

 

Durante mi largo periodo universitario pasé un corto periodo de tiempo en la ONG Ingenieros Sin Fronteras, actualmente ONGAWA, y allí me contaron una historia que me hizo reflexionar sobre el impacto de la tecnología en la sociedad. Hace ya mucho tiempo de aquello y no recuerdo el lugar exacto, por ello, parafraseando a Cervantes, me atrevo a comenzar diciendo:

En un lugar de África de cuyo nombre no puedo acordarme, existía una pequeña comunidad cuya vida se vio alterada cuando les instalaron una bomba de agua en medio de la aldea. Antes de la llegada de dicha bomba, para disponer del agua de consumo diario las mujeres jóvenes de cada casa caminaban hasta el pozo más cercano unos tres kilómetros con el cántaro de barro sobre su cabeza. Aquel recorrido, que solía ser solitario y tranquilo, era aprovechado por los mozos del lugar para intentar acercarse a ellas y comenzar así un cortejo romántico. En cualquier recodo del camino, o quizás tras el grueso tronco de un baobab, un joven podía hacerse el encontradizo con aquella chica, que, en busca del agua diaria, recorría el camino hacia el pozo. La joven quizá recibía aquel encuentro, forzadamente casual, con soleada gratitud, y al final, en el brocal del pozo, el agua del amor podía correr con soltura.

Gracias a aquellos caminos hacia el pozo, el desarrollo familiar se mantenía con un ritmo sano de matrimonios y nacimientos, o nacimientos y matrimonios pues todo viaje al pozo tenía cierto punto de incertidumbre. Pero aquella tranquila aldea fue objeto del plan de “Viabilidad del Agua Y Acequias” (plan VAYA) que acabó con aquella natalidad sólida de que gozaban. En mitad de la aldea instalaron una moderna y tecnológica bomba de agua, que, a través de apropiadas y seguras tuberías, traía el agua del remoto pozo hasta el centro de la aldea. Con satisfacción y pompa se anunció tan importante mejora a la comunidad internacional. Hubo inauguración oficial con grandes personalidades de organismos internacionales, y la foto de algún que otro cantante de moda bienintencionado rodeado de niños jugando con el agua a presión que salía de la bomba.

Debemos usar la tecnología para el desarrollo de la sociedad, haciendo a la vez que las personas no pierdan su integración cultural de la comunidad en la que viven

Al final del día, cuando el sol rodaba por el filo de la sabana, se marcharon los negros coches oficiales, y allí quedó la bomba soltando agua en la explanada central de la aldea. Con ello se acabaron los paseos a por agua con el cántaro en la cabeza, las sorpresas previstas de encuentros imprevistos, el goteo de risas recostados en el pretil del pozo, y todo aquello que el amor desbordado pudiera llevar. A falta de encuentros amorosos camino del pozo, la aldea se fue quedando poco a poco sin niños, pero siempre con agua.
Esta historia, quizá algo novelada, pero con un poso de realidad, nos puede hacer pensar en cómo la tecnología y las medidas de desarrollo afectan a la cultura de la sociedad. En particular, y atendiendo a la moraleja de esta historia, cómo la tecnología nos puede llevar de la comunidad a la individualidad.

Ahora ya no instalamos bombas de agua en las plazas de las aldeas, pues esa necesidad ya está cubierta, pero sí instalamos “bombas de información”, sistemas que nos bombean (o bombardean) información: las redes sociales, los chatbots que saltan en cuanto entramos en una página web, o cualquier aplicación basada en el big data. Todas ellas nacen con la idea de traernos esa información que necesitamos, sin tener que caminar tres kilómetros.

Resulta paradójico que estas bombas de información a veces, si no las usamos convenientemente, fomentan más nuestra individualidad que nuestra vida en común. Evitan que nos encontremos, persona a persona, por el camino. Ya no hace falta llamar a nadie para tener información, ya no es necesario ir a ningún sitio: la información viene a ti, como el agua a la plaza del pueblo.

Jacques Ellul, filósofo del siglo XX, hablaba de la “liberación” de la tecnología, no en el sentido de rechazarla, imposible por otro lado, sino en la idea de tomar conciencia de cómo actuar con ella como sujetos (personas) y no como objetos (usuarios). Ésa debe ser la actitud para conseguir que la tecnología no nos lleve de la comunidad a la individualidad. Debemos usar la tecnología para el desarrollo de la sociedad, haciendo a la vez que las personas no pierdan su integración cultural de la comunidad en la que viven.

En otra ocasión, espero que pronto, desarrollaré esta idea con un ejemplo basado en una actuación que está llevando a cabo en Nigeria para limpiar el delta del río Níger basado en el blockchain (a través de la organización Sustainability International). Por el momento me permito terminar con dos citas, una de Hans Jonas y otra de Spiderman. Hans Jonas, en su principio de responsabilidad, nos decía que teníamos que obrar de tal modo que los efectos de nuestra acción fueran compatibles con la permanencia de una vida humana auténtica en la Tierra; es decir, debemos instalar bombas de agua y además hacer que la sociedad continúe con sus costumbres. Porque con la tecnología tenemos un gran poder de actuación, y, como decía el tío de Spiderman (aquí está la segunda cita), “un gran poder conlleva una gran responsabilidad”: la responsabilidad de conseguir que la tecnología no nos aleje de la individualidad«.

Publicado en: Icarus

 

 

La vida en tuit-pildoras

La vida en tuit-pildoras

La vida en tuit-pildoras

Los nuevos valores de la tecnología

 

En preguntar lo que sabes

el tiempo no has de perder…

Y a preguntas sin respuesta

¿quién te podrá responder?

Estos son versos de Machado, peo hoy día se considerarían un tuit: porque ocupan menos de 280 caracteres y porque lanzan un mensaje más o menos contundente. Si Machado viviera hoy, quizá habría escrito este cantar en formato tuit, seguido de una hermosa foto prefabricada, con paisaje de ensueño, sacada de un banco de imágenes. O quizá habría convertido el texto en una imagen de Instragram con palabras escritas en distintos formatos y colores, algunas de ellas sobre un recuadro, y sobre fondo de color pastel.

Vivimos la vida a píldoras. A píldoras de tuits, de instantáneas en Instagram o de llamativos titulares en alimentadores de noticias. Twitter es un microblog que nos ofrece la vida en micro-realidades pasajeras. Lo importante es el número de “impresiones”, es decir, las veces que se ha visto un tuit, aunque sea de manera fugaz, y sin causar apenas ninguna impresión. Porque la vida a píldoras no impresiona, sino que reconforta. Vivimos rodeados de frases breves, de aforismos lapidarios que intentan arreglar cualquier situación en 280 caracteres.

Vivimos la vida a píldoras. A píldoras de tuits, de instantáneas en Instagram

Estos mismos tuits remiten a artículos que exponen la realidad siempre en un número reducido de pautas: “Los cinco pasos para una transformación eficaz”, “Las tres cosas que debes saber sobre el blockhacin”, “Siete pequeñas acciones diarias que te harán ser feliz”. Hay que simplificar la realidad.

Lo mismo ocurre en cierta literatura actual. Asistimos a microlecturas de historias, o a recetarios vitales, que para poderlos convertir en libros se escriben con letras de tamaño 18 puntos y sin escatimar espacios en blanco. De nuevo se busca la pauta mágica que lo solucione todo, o la historia breve que permita cambiar de asunto sin dejarme huella.

Eficacia y rapidez: quiero solucionar mis problemas y lo quiero de forma rápida.

Este pensamiento, este valor ético, se traslada también al ámbito profesional. Lo experimento cada vez que un cliente me pide empezar un proyecto la semana que viene, como si no hubiera más vida en dos semanas; y obtener lo antes posible “quick wins”, porque “arriba” quieren ver resultados lo antes posible. “Quick wins”, esto es, tuit-soluciones en 280 caracteres. Eficacia y rapidez.

Si quieres escribir buenos tuits, lee poesía

Son los valores culturales que nos transmite la tecnología. Durante años se viene discutiendo si la ciencia y la tecnología son asépticas en lo que respecta a valores morales. Existen argumentos en ambos sentidos. La cuestión radica cuando trasvasamos elementos de la esfera científica o tecnológica al ámbito de lo social y de lo humano: véase la teoría de Darwin, para el caso de la ciencia, o la inmediatez, para la tecnología.

La comunicación por el móvil a través de Twitter o WhatsApp puede ser inmediata, y puede ser breve, porque el móvil no se ha hecho para escribir “Cien años de soledad”. Pero ¿nuestra percepción de la realidad debe ser breve e inmediata? La tecnología es eficacia y rapidez; ¿debemos ser nosotros siempre eficaces y rápidos?

Volviendo a Machado, no sé si estoy preguntando lo que ya sé o bien estoy haciendo preguntas sin respuesta. En todo caso nuestra labor es tener esa consciencia de qué valores nos creamos en virtud de la tecnología.

Si quieres escribir buenos tuits, lee poesía (esto mismo podría ser un tuit). Por ello, dado el tema, termino con otros versos apropiados del gran Antonio Machado:

Tras el vivir y el soñar,

está lo que más importa:

despertar.

Publicado en Digital Biz

 

Pin It on Pinterest