IA generativa. Del esplendor a la desilusión

IA generativa. Del esplendor a la desilusión

IA generativa. Del esplendor a la desilusión

La IA generativa crea ilusiones y preocupaciones

Del salón en el ángulo oscuro,

de su dueño tal vez olvidada,

silenciosa y cubierta del polvo

veíase Chat GPT.

 

Estos versos parafrasean esa famosa rima de Bécquer que nos habla de un arpa, que quizás algún día fue el centro de atención y hoy se encuentra ignorada. Con menos poesía Gartner nos avisa de un riesgo similar respecto a la IA (inteligencia artificial) generativa en su reciente publicación del Hype Cycle for Emerging Technologies 2023. Según la consultora la IA generativa se encuentra en su pico de esplendor, con posibilidades de transformar los negocios en un plazo de 2 a 5 años. Pero antes de ello debe pasar por el abismo de la desilusión. Su periodo de arpa dormida se encuentra cerca. ¿Cuáles son los riesgos para una desilusión? ¿Cómo conseguir arrancar las mejores melodías del arpa de la IA generativa?

La IA generativa ya se toca

A finales de agosto Walmart anunció el lanzamiento del servicio Mi Asistente basado en IA generativa. Con esta implantación no buscan tanto la reducción de costes, sino impulsar la transformación de la empresa favoreciendo la creatividad e innovación. Para ello, la aplicación se ha instalado de forma masiva, accesible de salida para los 50.000 empleados de EE. UU.

La herramienta pretende reducir el tiempo de tareas repetitivas, tales como la redacción o el resumen de ciertos documentos, con el objetivo de que ese tiempo liberado se dedique a la innovación. En su comunicado, Walmart pone especial énfasis en destacar las limitaciones de la IA, respecto a carecer de criterio, tener una comprensión limitada del contexto o depender de los datos de entrenamiento, para destacar el valor de las personas, con su pensamiento innovador. Tienen claro que el arpa siempre lo tocarán las personas, y no será al revés.

Walmart no explica cómo ha implantado su herramienta de IA generativa: si parte de una herramienta de mercado o es un desarrollo propio. PwC también toca el arpa de la IA generativa y además dice cómo lo hace. En el mes de agosto ha lanzado ChatPwC, basado en ChatGPT, como un asistente conversacional para la resolución de cuestiones relacionadas con regulación fiscal. De momento el arpa solo la tocarán unos 1.000 empleados, pero se espera un gran concierto de IA generativa, pues la iniciativa se enmarca en un plan de inversión de 1.000 millones a 3 años. Su estrategia es el desarrollo de soluciones basadas en GPT-4 de OpenAI y en los servicios de Azure OpenAI de Microsoft. Para qué ponerse a fabricar un arpa, si ya hay famosos arpistas que lo hacen. Sólo hay que afinarlo. ¿Cómo? Con datos propios. Pero eso lleva tiempo.

La IA generativa pretende reducir el tiempo de tareas repetitivas, tales como la redacción o el resumen de ciertos documentos

Así lo indica la inmobiliaria JLL, quien ha lanzado JLL GPTTM como asistente de IA generativa para sus empleados. Mediante dicha herramienta podrán, por ejemplo, generar cuadros de mando con distintas gráficas según se vayan pidiendo en modo conversación con el asistente inteligente. JLL destaca que su solución solo ha sido posible gracias a haber invertido durante años en disponer de información sobre el mercado inmobiliario, con datos limpios y bien gobernados. La buena música solo se consigue con años de práctica.

Con este elenco de éxitos, ¿dónde están las posibles desilusiones?

El arpa puede no sonar tan bien

McKinsey anuncia que la IA generativa puede aumentar la productividad un 38% en temas relacionados con operaciones de clientes (por ejemplo, en atención al cliente). Por otro lado, el Worl Economic Forum pone una nota de atención y dice que tenemos que ser realistas respecto al impacto de la IA generativa, entre otras razones, porque en el pasado hemos predicho maravillas en el ámbito tecnológico que luego no se han cumplido.

Una de las causas de desilusión está relacionada con el acierto o no en el tipo de implantación que se decida. Existen tres estrategias con sus repercusiones en coste y seguridad: uso directo de una herramienta de mercado (por ejemplo, preguntar directamente a la versión de Internet de ChatGPT), que es la solución más barata, pero la más insegura respecto a compartir información sensible o temas de propiedad intelectual (algunas empresas han prohibido este uso); realizar un desarrollo propio, solución más segura, pero también más cara; o partir de una herramienta de mercado y adaptarla a las necesidades de la organización con la ayuda del fabricante de la herramienta. Ésta última es la solución más habitual (casos de PwC o JLL), si bien requiere de unos datos bien organizados y limpios. Malos datos nos pueden llevar a sesgos, errores o alucinaciones.

Una de las causas de desilusión está relacionada con el acierto o no en el tipo de implantación que se decida.

Sí, la IA generativa puede sufrir alucinaciones. Se entiende como tal cuando la herramienta genera una respuesta bien elaborada, que aparentemente es correcta, pero que no responde a los datos con los que ha sido entrenada. La IA generativa alucina cuando dice, por ejemplo, que existen evidencias de que los dinosaurios crearon una civilización y desarrollaron herramientas, o bien que comer cristales machacados es una práctica saludable pues aporta silicio, calcio, magnesio y potasio. En estos casos claramente la melodía del arpa chirría, y no nos cabe duda de que la IA alucina. Pero pueden existir otros casos menos evidentes. Podemos pedir a la IA generativa un informe económico y quizás no sepamos si alucina. No quisiera estar en la piel de alguien que manda un informe económico erróneo al CEO de una organización.

Cómo conseguir Buena melodía con la IA generativa

La famosa rima de Bécquer continúa diciendo:

¡Cuánta nota dormía en sus cuerdas,

como el pájaro duerme en las ramas,

esperando la mano de nieve

que sabe arrancarlas!

Podemos evitar el riesgo de desilusión y abandono de la IA generativa. Podemos arrancar buenas notas de esta arpa inteligente. Para esto último es bueno seguir las siguientes directrices.

Decide si comprar instrumentos o construirlos. La primera decisión es determinar si partiremos de un desarrollo de cero o de una herramienta de mercado que adaptaremos. Lo más habitual es lo segundo, si bien depende del objetivo que busquemos con la IA generativa.

Empieza con música de cámara en tu casa. Un primer paso es comenzar con sistemas acotados y de uso interno, que no estén dirigidos a los clientes. Los casos de Walmart, PwC y JLL son de IA generativa para proceso de apoyo a los empleados.

Haz primero pequeños conciertos para amigos. PwC ha comenzado con 1.000 empleados. Un despliegue por fases te permite detectar y abordar las alucinaciones antes de que sean dañinas para el negocio.

Que tu música no la escuche otro. Si te basas en una herramienta de mercado, vigila qué ocurre con tus datos de entrenamiento y con tus resultados generados, en el sentido de si son usados en otras organizaciones.

No toques cualquier partitura. Establece directrices éticas, ponte límites sobre lo que se puede hacer y no hacer con la IA generativa. Sé que apetece tocar todo tipo de melodía, pero los empleados y los clientes agradecen la buena música.

Publicado en Dirigentes Digial

 

Algoritmos humanos en un mundo digital humano

Algoritmos humanos en un mundo digital humano

Algoritmos humanos en un mundo digital humano

¿Es posible crear algoritmos humanos? ¿Cómo deberían ser?

Una masa de gelatina transparente

Con la invención del teléfono se pensó que acabaríamos con la esencia humana. A medida que se iban conectando los hogares por cables telefónicos, fue asomando el miedo a la pérdida de la privacidad. La intimidad iba a desaparecer por completo. En algunos editoriales de la época aparecían textos terroríficos que se preguntaban qué sería de la santidad del hogar doméstico. Los miedos siempre vienen precedidos de gran pompa y circunstancia.

Este miedo a la pérdida de la privacidad derivó en la alerta a perder, nada más y nada menos, que nuestra esencia humana. Se creía que el teléfono iba a romper nuestra esfera privada y eso terminaría con lo más profundo del ser humano.

Siempre nos hemos preguntado por la esencia de lo humano. Por aquello que indiscutiblemente nos distingue de cualquier otro ser vivo, especialmente de los animales (espero que al menos tengamos claro aquello que nos distingue de una tomatera, antes de que nazca un colectivo pro derechos tomatales). En aquella época del teléfono naciente se juzgaba que un elemento de la esencia del ser humano era la privacidad. Esta visión tiene su fundamento, pues no sabe que, por ejemplo, las vacas tengan vida privada (aunque quizás la tengan, y ésta sea tan privada, que no la conocemos). La vida privada corresponde a ese ámbito de nuestra existencia sobre la cual no queremos dar cuenta públicamente y que nos identifica como individuos en lo más profundo. Esa individualidad es parte de nuestra humanidad, porque nos convierte en seres únicos.

Se empezó a hablar de la sociedad como una masa de gelatina transparente. Un todo uniforme en el cual no se distingue la singularidad de cada uno. La frase es interesante porque, quizás por primera vez, se habla de “transparencia” relacionado con la tecnología. Una transparencia que nos convierte en una masa de gelatina que cualquiera puede moldear. En aquel entonces, a finales del siglo XIX, existía el temor de que la tecnología del teléfono nos hiciera transparentes y moldeables. ¿Qué pensar hoy en día con tanta tecnología en forma de apps en nuestros móviles?

Actualmente no tenemos la sensación de perder nuestra esencia humana si hablamos por teléfono. Posiblemente no sepamos exactamente qué es lo humano, pero no nos sentimos deshumanizados por hablar por teléfono. Hoy los miedos vienen por otro lado. Pensamos que esa esencia humana se puede ver atacada por toda la tecnología que nos rodea, por los macrodatos (Big Data) o en particular por la inteligencia artificial. Existe parte de razón en ello.

En un enjambre digital

La tecnología no es ni buena ni mala, pero tampoco es neutral. Transmite valores. Cuando recibes un whatsapp recibes dos mensajes: uno, lo que diga su contenido (que en la mayoría de los casos será trivial), y el otro, lo transmite la propia naturaleza de la aplicación y dice “esto es inmediato”. Un whatsapp transmite el valor de la inmediatez, y nos sentimos abocados a responder de manera inmediata. De hecho, si tardamos unos minutos en responder, podemos obtener un nuevo mensaje reproche de quien nos escribió: “hola???” (cuantos más interrogantes, más reprimenda).

Las redes sociales son una concentración casual de personas que no forman una masa

El mensaje es el medio. Así lo expresó Marshall McLuhan en 1964, cuando publicó su famosa obra Understanding Media: The Extensions of Man (Comprender los medios de comunicación: Las extensiones del ser humano). Todo medio de comunicación es en sí mismo un mensaje. Así ocurre con las redes sociales que nos enredan. Lo explicó muy bien Reid Hoffman, co-fundador de LinkedIn, cuando hace unos años habló de los pecados capitales que transmitían las redes sociales. Por ejemplo, LinkedIn transmite la codicia o Facebook, la vanidad. Hoy en día Instagram lucha por esa misma vanidad, y no es casualidad que sea propiedad de Meta, antes Facebook hasta hace unos meses.

Nos encontramos en un enjambre digital. Ésta es la expresión que utiliza el filósofo surcoreano y profesor en la Universidad de las Artes de Berlín, Byung-Chul Han. Según este autor, la tecnología, y en particular el mundo digital en el que vivimos, cambia nuestra conducta. Somos distintos desde que tenemos tecnología. El siglo XX fue el siglo de la revolución de las masas, pero ahora, la masa ha cambiado. No podemos hablar tanto de una masa, sino de un enjambre: la nueva masa es el enjambre digital.

Este enjambre digital consta de individuos aislados. Le falta un alma, un nosotros. Las redes sociales son una concentración casual de personas que no forman una masa. Particularmente lo veo cada vez que entro en Twitter (solo estoy en LinkedIn y Twitter; peco lo justo). Observo perfiles con nombres simpáticos que retuitean, responden o indican que algo les gustó. Uniones causales y temporales. No hay una voz, solo ruido.

Lo digital es ahora el medio de la información. Cabe suponer que cuantos más medios digitales tengamos, cuantas más redes sociales, dispondremos de más información y podremos tomar decisiones más acertadas. No es cierto. Así lo expresa también Byung-Chul Han: “más información no conduce necesariamente a decisiones más acertadas […]. El conjunto de información por sí solo no engendra ninguna verdad […]. En un determinado punto, la información ya no es informativa, sino deformativa”. Por eso hoy en día hay gente que piensa que la Tierra es plana.

El opio del pueblo

La tecnología digital nos ha llevado a un imperio global en el que no existe un orden dominante. Aquí cada uno se explota a sí mismo, y lo hace feliz porque se cree que lo hace libremente. Cada minuto en Internet se visualizan 167 millones de vídeos en Tiktok, se publican 575 mil tuits, 65 mil fotos en Instagram, o 240 mil en Facebook. ¡En un minuto! Creo que nunca antes ha existido una productividad semejante. Para ello, no es necesario obligar a nadie, basta con prometer un paraíso lleno de “likes” o impresiones y soltar de vez en cuando un eslogan sonriente del tipo “sal de tu zona de confort”.

Byung-Chul Han lo llama explotación sin dominación. Estamos, quizás, ante esa masa de gelatina transparente que cualquiera puede moldear. Diego Hidalgo dice que estamos anestesiados. El mundo digital nos ha dormido, nos ha dejado insensibles ante nuestra consciencia.

Hace unos años la tecnología era “sólida”. Teníamos ese teléfono de mesa, con auricular y micrófono formando un asa y que requería deslizar un disco con números del 1 al 9 para llamar a tu contertulio. Realmente tecnología sólida. Menos problemática porque sabemos cuándo la usamos y cuándo no.

La tecnología digital nos ha llevado a un imperio en el que cada uno se explota a sí mismo, y lo hace feliz porque se cree que lo hace libremente

Actualmente la tecnología, según Diego Hidalgo, es “líquida” o incluso “gaseosa”. Ya no la vemos venir. Ahora no sabemos dónde está, cuándo la usamos o si ella nos usa a nosotros. Tenemos relojes que se conectan con el móvil, o asistentes inteligentes que te marcan el número de teléfono a la orden de tu voz. Es una tecnología ubicua, cada vez más invasiva y más autónoma. Su incremento de autonomía es nuestra disminución de soberanía. Las máquinas actúan y piensan por nosotros. Google nos puede llevar de un sitio a otro, sin tener nosotros que pensar la ruta. Esto hace que estemos adormilados.

La tecnología digital se ha convertido en el opio del pueblo, parafraseando a Karl Max. De vez en cuando en las noticias vemos narcopisos con plantaciones de marihuana alimentadas bajo potentes focos de luz. De una manera más sutil, en nuestras casas disponemos de plantaciones de adormideras, en forma de múltiples dispositivos móviles, que nos iluminan a nosotros con la tenue luz azul de sus pantallas. ¿Quién alimenta este opio digital? La inteligencia artificial.

Algoritmos humanos

La inteligencia artificial es muy buena reconociendo patrones de comportamiento. Mediante la inteligencia artificial se puede identificar fácilmente qué es lo nos gusta o nos disgusta. Basta con analizar nuestra actividad en las redes sociales. Esto permite a las organizaciones hacernos amables sugerencias sobre qué comprar o qué contenido seleccionar. Esta idea partió con un fin bueno: el objetivo era conocer al usuario para que éste tuviera una mejor experiencia de cliente. En un principio, parecía que lo hacían por nuestro bien. Pero algo se debió torcer en el camino.

La inteligencia artificial puede, y debe, servir para aumentar nuestras capacidades e incluso nuestra condición humana

La inteligencia artificial se puede utilizar para mantenernos activos en las redes sociales el mayor tiempo posible. Así lo denuncia el reportaje The Social Dilema, producido por distintos ex directivos de empresas de redes sociales. No importa si ese continuo de actividad puede llevar a la adicción. No importa que el usuario pueda llegar a perder su autonomía. La inteligencia artificial puede ser muy buena como adormidera de nuestra consciencia. Opio digital del bueno.

Se impone la necesidad de ajustar la acción de la inteligencia artificial. Ésta puede, y debe, servir para aumentar nuestras capacidades e incluso nuestra condición humana. Para ello es necesario crear lo que Flynn Coleman llama algoritmos humanos. Consiste en dotar a la inteligencia artificial de valores éticos humanos. La idea es buena, pero no está exenta de complejidad, como el mismo autor reconoce.

Un primer punto es determinar qué valores éticos humanos. Posiblemente no podamos llegar a un acuerdo sobre valores éticos comunes, dado que estos dependen de nuestra cultura y de nuestros valores personales y propios. La idea de qué está bien y qué está mal no es la misma en Europa que en Oriente Medio o en Asia, por citar unos ejemplos y sin entrar a juzgarlas. Simplemente son distintas.

Pero quizás, con algo de optimismo, podríamos llegar a un mínimo de acuerdo sobre aquello que representa los valores humanos. A finales del siglo XIX, con la llegada del teléfono, se creía en la intimidad como un valor humano. Hoy en día hemos evolucionado esta visión. No hablamos tanto de esencia humana, sino de cultivo de la virtud como base para una sociedad que podamos denominar como “humana”. Son lo que se llaman las virtudes públicas, entre las cuales se encuentran la solidaridad, la responsabilidad o la tolerancia. Imposible negar estas virtudes o estos valores humanos. Los podemos considerar (casi) universales. Vale, pero ¿cómo los programamos en un algoritmo?

Ésa es la segunda cuestión de complejidad. Cómo podemos cuantificar, por ejemplo, la solidaridad, para programarla en un algoritmo. Cómo definimos la tolerancia, para pasarla a fórmulas matemáticas. Dónde ponemos matemáticamente el umbral de la tolerancia. Una posible solución es utilizar el mismo conocimiento que la inteligencia artificial tiene de nosotros. Toda esa información analizada sobre nuestros gustos y disgustos puede servir para tener una idea de nuestra esencia como seres humanos. Esencia que al estar ya digitalizada puede servir para entrenar a la propia inteligencia artificial. Pero existe un riesgo: la inteligencia artificial podría aprender nuestras fortalezas y bondades, pero también nuestras debilidades y maldades. Porque la esencia humana es el juego de ambos.

Por fortuna la solución depende de nosotros. De cada uno de nosotros cuando usamos la tecnología que nos rodea. Podemos decidir apagar el móvil, a pesar de recibir una notificación; podemos decidir escribir un tuit con uno u otro fin; o decidir publicar una foto para gloria de nuestra vanidad o no; podemos decidir crear una inteligencia artificial de reconocimiento de imágenes para detectar enfermedades con más antelación, o bien para identificar etnias y reprimirlas. Todas estas acciones comienzan con el verbo decidir en acción de primera persona, porque depende de nosotros. Y solo decide el que está despierto. Esto exige despertar de la dormidera del opio digital.

Publicado en esglobal

 

La supervisión humana de la IA

La supervisión humana de la IA

La supervisión humana de la IA

Cuando un algoritmo ofrece un resultado, es necesario estar seguro que es correcto y saber el porqué de tal resultado

 

“Que eso no se dice, que eso no se hace, que eso no se toca”. Esto es la supervisión humana que el Reino Unido ha sugerido que podría eliminar en la toma de decisiones de sistemas basados en inteligencia artificial (IA). Los versos corresponden a una vieja canción de Joan Manuel Serrat, titulada ‘Esos locos bajitos’. Hace referencia a los niños que, con mejor o peor fortuna, son educados por sus padres. Todos, en algún momento, hemos recibido esas palabras. Técnicamente hablando era la supervisión de nuestros padres en nuestros actos.

Esta misma idea de supervisión es un elemento fundamental en el uso de los sistemas inteligentes. Hay ciertas decisiones que nos afectan directamente y que pueden estar tomadas por un algoritmo de IA. Puede ser el caso de la aprobación de una hipoteca o ser contratado en una empresa. El año pasado, debido a la suspensión de los colegios por la pandemia de Covid-19, las notas de los alumnos en Reino Unido fueron asignadas por un algoritmo de IA basado en el rendimiento medio del alumno y de su instituto.

No existen decisiones automatizadas. Detrás de un algoritmo siempre hay una persona o una institución

En septiembre el Reino Unido anunció que este tipo de decisiones no tendrían por qué estar verificadas por un ser humano. Una inteligencia artificial se basta sola para saber a quién dar una hipoteca, a quién contratar o qué nota académica poner.

En contra de la UE

Este planteamiento va en contra del Reglamento General de Protección de Datos (RGPD) de la UE. En particular respecto a su artículo 22 sobre decisiones automatizadas, que establece que tenemos derecho a no ser objeto de una decisión automatizada, que tenga efectos jurídicos o nos afecte significativamente.

Una IA puede determinar que no recibamos una hipoteca. No obstante, este resultado debe ser supervisado por una persona, quien, en un momento dado, puede decirle con cariño a la IA, que eso no se dice o eso no se hace, y finalmente otorgar la hipoteca al merecido solicitante.

Eliminar esta supervisión humana significa falta de transparencia en el uso de la IA y eso no va a favorecer su desarrollo.

Dividendo del dato

¿Qué se encuentra detrás de esta eliminación de la supervisión humana en la IA? El llamado dividendo del dato. El dato es el petróleo del futuro y se quiere hacer mucho dinero con él. Como decir ‘hacer dinero’ es muy grosero, se utiliza la expresión amable ‘dividendo del dato’.

Para hacer dinero, lo mejor es no tener impedimentos. El argumento en contra de la supervisión humana es que ésta resulta complicada y poco práctica. Sin embargo, tal supervisión es posible y es necesaria.

Perder la supervisión humana de la IA es perder control de la democracia

Es posible porque para entender el resultado de una IA no es necesario investigar en las tripas del algoritmo y leer líneas y líneas de código. Tenemos tecnologías que son capaces de explicar la decisión de un algoritmo inteligente en función de sus datos de entrada.

Además, es necesaria porque todo ciudadano tiene derecho a conocer quién toma una decisión y por qué la toma. Un algoritmo nunca toma una decisión. No existen decisiones automatizadas. Detrás de un algoritmo siempre hay una persona o una institución que toma una decisión a través de un algoritmo. Si eliminamos la supervisión humana, esto llevará a la toma de decisiones por personas o grupos de interés desconocidos. Una sociedad moderna y democrática no puede abandonar su responsabilidad en la toma de decisiones que afectan a sus ciudadanos.

Existe una esperanza. El mismo gobierno del Reino Unido ha comunicado que la solución final sobre la supervisión humana no debe ir en contra de los acuerdos que tiene el país con la UE. Esto afecta a ese artículo 22 del RGPD.

Esperemos que así sea. El estribillo de la canción de Serrat también dice: “niño, deja ya de joder con la pelota”. Esperemos no quitar la supervisión humana de la IA para no acabar con tan gruesas palabras hacia un sistema inteligente.

Publicado en DigitalBiz

 

Despotismo digital

Despotismo digital

Despotismo digital

Todo para el usuario, pero sin el usuario

¡Es para mejorar la experiencia de usuario! Ésta es la frase cierrabocas que llevada al extremo defiende cualquier tipo de acción que afecta a los usuarios. Ha sido sacralizada por virtud de tanto aforismo vacuo, escrito entrecomillado junto a fotos de rostros sonrientes y alegres. Me pregunto: ¿por qué se ríe esta gente que solo habla por eslóganes? Parece que les sacan la foto después de contar un chiste, el cual nosotros siempre nos perdemos. La chanza se encuentra en hablar de la experiencia de usuario, pero sin el usuario. Es el nuevo tipo de despotismo ilustrado: todo para el usuario, pero sin el usuario. Nueva letanía que ilustra lo que más bien podemos llamar despotismo digital.

La investigación de mercado siempre ha existido con el sano objetivo de entender lo que quieren y no quieren nuestros clientes, para así ofrecerles productos o servicios acordes a sus necesidades. Lo que ha cambiado es el método de investigación. Ya no nos piden rellenar encuestas: es tedioso y además podemos mentir. Es mejor pedir que grabes un vídeo breve con tu opinión (mejora la experiencia de usuario frente a los cuestionarios), o bien analizar los clics que haces por las páginas web que vistas. Después esta información se le pasa a la inteligencia artificial, que es el nuevo valido de este despotismo digital.

La inteligencia artificial ve lo que no se ve

La inteligencia artificial es muy buena haciendo lo que se le pide, y en este caso, es insuperable en averiguar aquello que realmente queremos, y que nosotros quizá no sabemos o queremos ocultar. Basta con analizar esas emociones ocultas en los micro gestos imperceptibles que dejamos en la grabación de vídeo, y que solo la inteligencia artificial es capaz de descubrir. O bien examinar el tiempo que has estado en un enlace de contenido trivial.

Puestos a saber sobre mí, propongo que primero averigüen si deseo ser investigado

Para ello se utiliza el denominado Modelo de los Cinco Factores, el cual fija la personalidad en cinco variables: apertura a la experiencia, en qué medida se es curioso o cauteloso; meticulosidad, si se es organizado o descuidado; extraversión, cómo se es de sociable o reservado; simpatía, o capacidad de ser amigable, compasivo o bien ser insensible; y neurosis, en qué medida se tiene inestabilidad emocional.

Por ejemplo, las personas extravertidas tienen más probabilidad de publicar fotos. Aquellas con altos valores en meticulosidad utilizan menos las redes sociales, actualizan menos su estado y tienen menos probabilidad a tener adicción a la tecnología. Todo esto se puede saber del usuario, pero sin el usuario. Ahora bien, no debemos preocuparnos si analizan nuestra personalidad hasta lo más incógnito, pues es por el noble propósito de mejorar nuestra experiencia de usuario.

¿Y si cuentan con nosotros?

Puestos a saber sobe mí, propongo que primero averigüen si deseo ser investigado por el meritorio propósito de ofrecerme incluso aquello que ignoro que me gusta. Con preguntármelo bastaría, y quizás con ello acabaría este despotismo digital y empezaríamos a pensar en el usuario, con el usuario.

De alguna manera los mensajes avisando de la existencia de cookies al cargar una página web van encaminados a ello. Pero algunos están escritos en un lenguaje tan optimista que uno piensa que si los rechaza se va a convertir en el ser más desgraciado de la historia: ¡no vas a tener los anuncios que te gustan, ni la misma música que escuchas siempre!

De vez en cuando, recomiendo hacer algo distinto en el mundo digital: despistarás a la máquina y puede que descubras algo nuevo

Salir de este despotismo digital es cosa de dos. Por un lado, aquellas organizaciones tan preocupadas por la experiencia de usuario deben contar con el usuario. Para ello, deben informar sobre qué información recopilan, si será tratada con inteligencia artificial y no hacerte sentir desventurado si dices no. Por nuestra parte, recomiendo dedicar unos segundos a los mensajes de las cookies, que nos pueden parecer impertinente por las ganas que tenemos de acceder al contenido, pero que merecen la pena atender; después, de vez en cuando, hacer algo distinto en el mundo digital: despistarás a la máquina inteligente y puede que descubras algo nuevo.

Publicado en DigitalBiz

 

Bombas de agua en una aldea africana

Bombas de agua en una aldea africana

Bombas de agua en una aldea africana

De la comunidad a la individualidad

 

Durante mi largo periodo universitario pasé un corto periodo de tiempo en la ONG Ingenieros Sin Fronteras, actualmente ONGAWA, y allí me contaron una historia que me hizo reflexionar sobre el impacto de la tecnología en la sociedad. Hace ya mucho tiempo de aquello y no recuerdo el lugar exacto, por ello, parafraseando a Cervantes, me atrevo a comenzar diciendo:

En un lugar de África de cuyo nombre no puedo acordarme, existía una pequeña comunidad cuya vida se vio alterada cuando les instalaron una bomba de agua en medio de la aldea. Antes de la llegada de dicha bomba, para disponer del agua de consumo diario las mujeres jóvenes de cada casa caminaban hasta el pozo más cercano unos tres kilómetros con el cántaro de barro sobre su cabeza. Aquel recorrido, que solía ser solitario y tranquilo, era aprovechado por los mozos del lugar para intentar acercarse a ellas y comenzar así un cortejo romántico. En cualquier recodo del camino, o quizás tras el grueso tronco de un baobab, un joven podía hacerse el encontradizo con aquella chica, que, en busca del agua diaria, recorría el camino hacia el pozo. La joven quizá recibía aquel encuentro, forzadamente casual, con soleada gratitud, y al final, en el brocal del pozo, el agua del amor podía correr con soltura.

Gracias a aquellos caminos hacia el pozo, el desarrollo familiar se mantenía con un ritmo sano de matrimonios y nacimientos, o nacimientos y matrimonios pues todo viaje al pozo tenía cierto punto de incertidumbre. Pero aquella tranquila aldea fue objeto del plan de “Viabilidad del Agua Y Acequias” (plan VAYA) que acabó con aquella natalidad sólida de que gozaban. En mitad de la aldea instalaron una moderna y tecnológica bomba de agua, que, a través de apropiadas y seguras tuberías, traía el agua del remoto pozo hasta el centro de la aldea. Con satisfacción y pompa se anunció tan importante mejora a la comunidad internacional. Hubo inauguración oficial con grandes personalidades de organismos internacionales, y la foto de algún que otro cantante de moda bienintencionado rodeado de niños jugando con el agua a presión que salía de la bomba.

Debemos usar la tecnología para el desarrollo de la sociedad, haciendo a la vez que las personas no pierdan su integración cultural de la comunidad en la que viven

Al final del día, cuando el sol rodaba por el filo de la sabana, se marcharon los negros coches oficiales, y allí quedó la bomba soltando agua en la explanada central de la aldea. Con ello se acabaron los paseos a por agua con el cántaro en la cabeza, las sorpresas previstas de encuentros imprevistos, el goteo de risas recostados en el pretil del pozo, y todo aquello que el amor desbordado pudiera llevar. A falta de encuentros amorosos camino del pozo, la aldea se fue quedando poco a poco sin niños, pero siempre con agua.
Esta historia, quizá algo novelada, pero con un poso de realidad, nos puede hacer pensar en cómo la tecnología y las medidas de desarrollo afectan a la cultura de la sociedad. En particular, y atendiendo a la moraleja de esta historia, cómo la tecnología nos puede llevar de la comunidad a la individualidad.

Ahora ya no instalamos bombas de agua en las plazas de las aldeas, pues esa necesidad ya está cubierta, pero sí instalamos “bombas de información”, sistemas que nos bombean (o bombardean) información: las redes sociales, los chatbots que saltan en cuanto entramos en una página web, o cualquier aplicación basada en el big data. Todas ellas nacen con la idea de traernos esa información que necesitamos, sin tener que caminar tres kilómetros.

Resulta paradójico que estas bombas de información a veces, si no las usamos convenientemente, fomentan más nuestra individualidad que nuestra vida en común. Evitan que nos encontremos, persona a persona, por el camino. Ya no hace falta llamar a nadie para tener información, ya no es necesario ir a ningún sitio: la información viene a ti, como el agua a la plaza del pueblo.

Jacques Ellul, filósofo del siglo XX, hablaba de la “liberación” de la tecnología, no en el sentido de rechazarla, imposible por otro lado, sino en la idea de tomar conciencia de cómo actuar con ella como sujetos (personas) y no como objetos (usuarios). Ésa debe ser la actitud para conseguir que la tecnología no nos lleve de la comunidad a la individualidad. Debemos usar la tecnología para el desarrollo de la sociedad, haciendo a la vez que las personas no pierdan su integración cultural de la comunidad en la que viven.

En otra ocasión, espero que pronto, desarrollaré esta idea con un ejemplo basado en una actuación que está llevando a cabo en Nigeria para limpiar el delta del río Níger basado en el blockchain (a través de la organización Sustainability International). Por el momento me permito terminar con dos citas, una de Hans Jonas y otra de Spiderman. Hans Jonas, en su principio de responsabilidad, nos decía que teníamos que obrar de tal modo que los efectos de nuestra acción fueran compatibles con la permanencia de una vida humana auténtica en la Tierra; es decir, debemos instalar bombas de agua y además hacer que la sociedad continúe con sus costumbres. Porque con la tecnología tenemos un gran poder de actuación, y, como decía el tío de Spiderman (aquí está la segunda cita), “un gran poder conlleva una gran responsabilidad”: la responsabilidad de conseguir que la tecnología no nos aleje de la individualidad«.

Publicado en: Icarus

 

 

Aires de mala gestión que dispersan la nube

Aires de mala gestión que dispersan la nube

Aires de mala gestión que dispersan la nube

Decía Ovidio que “veo lo que es bueno y lo apruebo, pero hago lo peor” y así parece que ocurre cuando migramos servicios a la nube. Y no por ir a la nube, sino por la forma en la que vamos. La tecnología es siempre el menor de los problemas; eso lo sabemos. Como también sabemos que en todo cambio tecnológico lo relevante son los aspectos de gestión; lo sabemos, lo aprobamos, pero no lo terminamos de hacer.

Según un informe sobre el mercado del Cloud Computing en España elaborado por Quint, actualmente la satisfacción con los servicios en la nube es aceptable. No obstante, existe una cierta desilusión al no haber alcanzado los ahorros que se habían previsto. En muchos casos, la nube no ha resultado tan barata como vaticinaban los casos de negocio. La razón de este desacuerdo, entre lo esperado y lo real en la cuestión económica, se encuentra en la gestión, y en particular, en el paso a un modelo de pago por uso.

Resulta una cuestión muy evidente a la par que problemática: en el pago por uso, pagas por lo que usas; luego si usas mucho, pagas mucho. Financieramente no hay problema si ese pago elevado proviene de una actividad de negocio elevada: por ejemplo, a más clientes, más consumo de almacenamiento y, por lo tanto, más pago por unidad de memoria. Hay más coste, pero relacionado con más ingresos.

En la migración al Cloud no se obtienen los ahorros esperados

El desasosiego económico proviene cuando ese pago elevado proviene, por ejemplo, de los buzones de correo electrónico, que doblan o triplican al número de empleados, significando un coste no ligado necesariamente a ingresos. Es el resultado de una gestión en la que todo se resuelve abriendo un nuevo buzón de correo, porque “es gratis”. Pero al pasar a un modelo de pago por buzón (pago por uso), cada buzón ya no es tan gratis.

Al migrar a la nube los problemas tecnológicos se resuelven. Pero si no cambiamos la forma de gestionar, los beneficios esperados de la nube se dispersan por los aires de la mala gestión. Esta situación no empaña, sin embargo, las buenas perspectivas de crecimiento de los servicios Cloud, que presentan un crecimiento del 60% para las grandes empresas, y actualmente en las empresas más pequeñas ya significa el 30% de su presupuesto de TI.

Además, se ve claramente que el Cloud es una pieza fundamental para los nuevos negocios digitales. Con los servicios Cloud podemos decir que finalmente la tecnología ya está en el negocio. Vemos cómo cada vez de manera más intensa es el propio negocio el que toma decisiones directas sobre soluciones Cloud y contrata directamente dichas soluciones. El Cloud es el paso necesario para el desarrollo de la nueva transformación digital en aspectos como el IoT, Big Data, Blockchain o Inteligencia Artificial. Pero para obtener resultados de dicha transformación, no olvidemos, una vez más, que debemos atender al cambio del modelo de gestión. Esto, que lo sabemos y aprobamos, hagámoslo la próxima vez.

El Cloud es una pieza fundamental para los nuevos negocios digitales

Ovidio cuenta en “Las Metamorfosis” que Faetón le pidió a su padre, el dios Helios, gobernar por un día el carro del sol a través de los cielos. Al parecer no lo hizo con gran pericia, y por ello desde entonces en las regiones septentrionales hace mucho frío (alejó el carro del sol de la tierra) y en la franja central de África hay desiertos (se acercó mucho). Ante tal desatino tuvo que intervenir Zeus, quien golpeó el carro desbocado con un rayo, haciendo que Faetón cayera al río Erídano donde se ahogó. Sus hermanas, las helíades, quedaron tan apenadas que se transformaron en álamos.

Ovidio no dice, entonces, que una tecnología (el carro del sol por entre las nubes) hay que saber cómo gobernarla (dirigir y controlar el carro del sol), más que conocer sus características técnicas (cómo funciona el sol). La próxima vez que paseemos por una vereda tranquila ribeteada de álamos, podemos pensar que el reto en los servicios Cloud está en su nuevo modelo de gestión.

Publicado en Computer World Red de Conocimiento

 

Pin It on Pinterest