Las maquinas trabajan, nosotros ociamos

Las maquinas trabajan, nosotros ociamos

Las maquinas trabajan, nosotros ociamos

¿La tecnología nos ayuda o nos suplanta?

“Si tienes el correo electrónico en tu móvil, terminarás antes de trabajar y disfrutarás de más tiempo libre”. Recuerdo con claridad aquellos primeros anuncios de la BlackBerry. Un joven risueño y placentero se sentaba en un vagón de metro camino de su oficina. En el trayecto del suburbano accedía a su correo electrónico, revisaba sus mensajes y respondía convenientemente a cada uno de ellos. Todo ello con tal rapidez y acierto que al finalizar el viaje ya había resuelto sus tareas diarias. No era necesario ir a la oficina. El joven audaz cambiaba su destino y concluía el resto de la jornada disfrutando de la paz de un ameno parque, vestido con de traje, pero liberado de su corbata.

O bien este joven tenía poco que hacer, o bien el anuncio era irreal. El tiempo nos ha descubierto que era lo segundo: el anuncio era una mentira. Actualmente disponemos de todas nuestras herramientas de trabajo en el móvil: correo electrónico, paquetes ofimáticos (‘ofimático’, ¡qué antiguo!), sistemas de comunicación, reuniones virtuales; sin embargo, no parece que nuestras jornadas de trabajo sean menores. La razón es clara: la dirección por objetivos significa que, si cumples tus objetivos, ya se encargarán de ponerte otros nuevos; si eres capaz de responder tus correos en el trayecto del metro, ven a la oficina que te daré nuevos correos.

La tecnología altera seriamente el trabajo. Esto ha ocurrido desde que se inventó la palanca o la polea y se necesitaban menos personas para mover un cubo de piedra. Ahora la situación parece más alarmante por virtud, o vicio, de la inteligencia artificial. El último informe de la OCDE sobre el futuro del trabajo indica que el 14% de los trabajos tiene riesgo de automatización, lo cual no es poco, si bien supone un porcentaje mucho menor que lo expresado por otros informes. Además, no vaticina un desempleo masivo por la automatización. El informe es alentador, pero es un análisis de la era pre-virus.

La tecnología altera seriamente el trabajo. Ahora la situación parece más alarmante por la inteligencia artificial

En estos tiempos coronados la situación ha cambiado en cuestión de meses. La reclusión hogareña y el cierre físico de los negocios ha incrementado la digitalización de la actividad. En particular se está potenciando el uso de la inteligencia artificial, ya sea para ganar eficiencia, y reducir costes, para generar negocio, principalmente con big data y machine learning, o bien, unido a la robótica, para realizar tareas en el mundo físico y evitar contagios.

Se acrecienta el temor a que la inteligencia artificial genere desempleo y se aviva el discurso de un ingreso básico universal que nos sustente. El mensaje atrae, porque es bonito y simple: que las máquinas trabajen, y así nosotros ociamos. Nuevo anuncio BlackBerry. La idea tiene sus defensores y detractores. Recientemente el cofundador de Twitter, Jack Dorsey, ha donado 3 millones de dólares para un programa de ingreso básico en 16 ciudades de Estados Unidos; en nuestro país, se ha implantado el ingreso mínimo vital, quizá no tanto movido por la inteligencia artificial. Por otro lado, Calum Chace, experto en inteligencia artificial, argumenta que el concepto ‘ingreso básico universal’ contiene tres palabras donde al menos una de ellas no es buena. En todo caso, vaticina que la inteligencia artificial cambiará la economía y eso parece indudable.

La tecnología nos cambia la vida, pero ahora la situación no se observa con perspectiva halagüeña. En el anuncio de la BlackBerry el mundo aparecía feliz por causa de la tecnología; ahora aparece vacío (de trabajadores) por su misma causa. Una misma causa, pero distinta consecuencia: en el primer caso la tecnología parece que “nos ayuda”, en el segundo, parece que “nos suplanta”. Con independencia de la validez de un ingreso básico universal, el matiz entre una consecuencia y otra no depende de las máquinas, sino de nosotros.

Publicado en Digital Biz

Una IA ética y rentable en la economía pos-viral

Una IA ética y rentable en la economía pos-viral

Una IA ética y rentable en la economía pos-viral

Una IA ética y eficiente, que nos ayude a un crecimiento sostenible

No pensemos en ‘volver’ a una normalidad, ni siquiera a una ‘nueva normalidad’. Pensemos mejor que ‘avanzamos’ hacia una nueva sociedad con una nueva economía. ¿Cómo serán esta nueva sociedad y nueva economía? Apenas puedo vislumbrarlo, pero no muy diferentes, si todo lo que hacemos es lavarnos las manos, y no cambiamos nuestra forma de pensar.

De momento, en ese camino hacia una nueva economía, nos preocupa el siguiente paso. Este virus coronado ha mandado nuestro PIB a la UCI, la actividad económica permanece en cama, las empresas ven reducidas sus expectativas de facturación y nosotros nos tenemos que hablar a dos metros de distancia. Como solución tenemos de nuevo a la tecnología y las grandes corporaciones anuncian inversiones millonarias en digitalizar su actividad para los próximos años.

¿Qué tipo de digitalización? Principalmente encaminada a dos objetivos: mejorar la eficiencia, para reducir costes y mantener un cierto beneficio; y permitir la interacción a distancia con los clientes. Para ello la inteligencia artificial (IA) y la robótica se presentan como dos poderosas aliadas.

Es posible aunar IA con eficiencia y ética. No tenemos que elegir entre uno u otro. Es factible aplicar la ética en la IA para conseguir resultados eficientes y sostenibles

Es posible aunar IA con eficiencia y ética. No tenemos que elegir entre uno u otro

La IA se está viendo como una potente herramienta para mejorar la eficiencia en distintos ámbitos y funciones de una organización. Desde aplicaciones de productividad personal que realizan actividades como leer correos en voz alta o agendar reuniones, hasta sistemas inteligentes para funciones específicas como la reducción de costes de energía, la eficiencia en procesos de reclutamiento, la automatización de tareas de contabilidad (junto con RPA) o la mejora de las operaciones de TI (IAOps).

La IA puede ser nuestro respirador artificial en los próximos años, pero sí solo pensamos en su aplicación con ánimo de eficiencia, seguiremos pensando como antes y será, como dije, nada más que lavarse las manos. Volveremos a la vieja normalidad, si bien, con las manos limpias. ¿Dónde quedarán las cuestiones éticas de la IA? ¿Las abandonaremos en favor de una eficiencia para la salud?

Se puede pensar que ahora no es tiempo de cuestiones éticas; que la ética es para tiempos de bonanza, cuando hay dinero para ‘otras cosas’. Quizá no sea así si nos fijamos en los llamados índices MSCI ESG Leaders (Environmental, Social and Governance). Esta nueva peste universal ha supuesto pérdidas en las bolsas de todo el mundo, si bien los índices MSCI ESG Leaders han resistido mejor a la crisis que sus homólogos principales en la mayoría de las geografías.

Por consiguiente, si la IA es una poderosa herramienta para ayudarnos a salir de la crisis y hacerlo éticamente permite un crecimiento más sostenible, ¿cómo logramos esto? Usando la ética aplicada.

Pensemos, por ejemplo, en un chatbot como sistema inteligente que sirve de complemento a un centro de atención al usuario. Las acciones para una ética aplicada son las siguientes:

  1. Determinar el fin específico por el que cobra sentido el sistema inteligente (chatbot). En este caso, conocer mejor al cliente para ayudarle mejor.
  2. Esclarecer los medios que usa el chatbot para conseguir tales fines. Todas las personas relacionadas con el chatbot deben entender cómo éste analiza la información y toma sus propias decisiones.
  3. Indagar qué valores debemos incorporar para alcanzar dicho fin. Este paso requiere debate. Como punto de partida podemos tomar los valores propuestos por la bioética: autonomía, beneficencia y justicia.
  4. Dejar que los afectados (organizaciones y usuarios), con la información adecuada (todo lo anterior), ponderen las consecuencias y puedan tomar decisiones. Para ello se pueden usar marcos prácticos como las Directrices para una IA Confiable de la Comisión Europea.

Es posible aunar IA con eficiencia y ética. No tenemos que elegir entre uno u otro. Es factible aplicar la ética en la IA para conseguir resultados eficientes y sostenibles. Esto nos puede llevar efectivamente hacia una nueva sociedad y una nueva economía, y no solo ‘lavarnos las manos’.

Ya sabemos que esta expresión nace de la escena en la que Pilatos evita la responsabilidad de sus actos. Significa ‘aquí está el hombre’, refiriéndose a un Jesús lacerado. La frase sigue vigente. Podemos lavarnos las manos en cuestiones éticas de la IA, pero sigue el ‘ecce homo’, es decir, nosotros.

Publicado en Expansión

 

Robots cristianos, liberales, o marxistas

Robots cristianos, liberales, o marxistas

Robots cristianos, liberales, o marxistas

El modelo de ética aplicada

“Pero, ¿qué ética?”, me quedé algo sorprendido por su espontánea y razonable pregunta. Ante mi silencio, continuó mi interlocutora. “Sí, estamos de acuerdo en que necesitamos una ética para la inteligencia artificial. Pero, insisto, ¿qué ética aplicamos? Y si encontramos una ética, ¿cómo la aplicamos?”. Mi dialogante amiga me abandonó, pues su agenda la requería en otro lugar. De pronto mi imaginación me trasladó a la Academia de Platón donde comenzaron las primeras discusiones éticas y me vi debatiendo la tesis de Protágoras sobre que toda moral es opinable, o la de Gorgias sobre que es mejor cometer una injusticia que padecerla. Una alerta de Android en mi móvil esfumó aquella imagen; necesitaba actualizar mi sistema operativo, y así hice.

Si buscamos una ética que aplicar en la inteligencia artificial lo tenemos complicado, pues desde aquellos tiempos de Platón no hemos llegado a una solución concluyente sobre una ética admitida por todos. Dado este desacuerdo, debemos acudir a lo que se llama una ética de mínimos, es decir, a unos principios morales mínimos en los que todo ser racional pueda estar de acuerdo (por ejemplo, no hacer daño o ser justo). Como tenemos que estar de acuerdo, no podemos entrar en detalles, y por ello resulta que la ética de mínimos acaba hablando de principios muy genéricos, que resultan poco útiles en la práctica y, por tanto, complicados de programar en un sistema inteligente.

Las tres leyes de la robótica de Asimov son de alguna forma una ética de mínimos, al establecer en su primera ley que un robot no podrá hacer daño a un ser humano. Desde un punto de vista conceptual se ha visto la inconsistencia de tal ley, pues un robot puede no saber que está haciendo daño a un ser humano; y desde un punto de vista práctico se ha constatado la dificultad de programar tal ley.

La ética aplicada es un modo de aplicar conceptos éticos a cuestiones concretas de la actividad humana

Como resulta complicado aplicar una ética de mínimos, deberemos pasar a una ética de máximos. En este caso entran en juego los valores particulares de cada uno, la ética se vuelve individual y es cuando cada uno se comporta según una cierta moral con nombres y apellidos particulares (por ejemplo, según la moral católica, el pensamiento liberal o el materialismo histórico). Con esta perspectiva, ¿tendremos que diseñar robots cristianos, liberales, o marxistas, a gusto de cada usuario?

Para salir de esta espiral filosófica propongo aplicar la ética en tres momentos distintos (en su diseño, su entrega en forma de servicio y su uso), y de tres formas distintas: aplicar una ética en el diseño de sistemas inteligentes; disponer de un gobierno ético en las organizaciones que entregan servicios basados en inteligencia artificial; y permitir que cada usuario pueda obrar según sus valores éticos.

En el diseño ético se pueden aplicar algunos conceptos prácticos y posibles de programar, como evitar el sesgo o facilitar la explicación de resultados. Con el gobierno ético una organización puede garantizar a sus clientes y a la sociedad que aplica mecanismos de control, como, por ejemplo, disponer de sistemas auditables, que garantizan una entrega de servicios basados en inteligencia artificial de forma ética. De forma ética en el sentido de que cada individuo pueda tomar sus decisiones de manera autónoma y según sus valores éticos.

Este modelo de ética para la inteligencia artificial pone en juego a varios actores (diseñadores, organizaciones, usuarios), por lo que solo puede funcionar bajo lo que se conoce como ética aplicada. La ética aplicada es un modo de aplicar conceptos éticos a cuestiones concretas de la actividad humana y ha mostrado su utilidad en campos como la bioética o la ética de las profesiones.

Luego para responder a la pregunta “¿qué ética aplicamos?”, debemos contestar la ética aplicada y en los tres momentos antes descritos. No es un juego de palabras, sino aplicar con un método todo lo que hemos aprendido desde los tiempos de Platón.

Publicado en Digital Biz

 

Ética a Sophia

Ética a Sophia

Ética a Sophia

Tenemos un robot peregrinando por el mundo. Se llama Sophia y en su discurrir por el mundo nos quiere mostrar sus habilidades discursivas. Es un robot humanoide, quizá una robot (¿son como los ángeles, sin sexo?) basada en inteligencia artificial (IA) que deambula de país en país, de continente en continente, ofreciendo entrevistas y respondiendo, como puede y como sabe, a las preguntas de sus interlocutores. Podemos decir que es una maravillosa máquina parlante. Puede que no la primera.
En 1845 Joseph Faber presentó en Filadelfia a Euphonia, a la que denominó maravillosa máquina parlante. Consistía en una cabeza femenina de maniquí, dispuesta en un bastidor de madera. Mediante un conjunto de teclado y pedales, accionados por el propio Faber, se hacía pasar aire por una serie de lengüetas que reproducían la voz humana a través de la cabeza del maniquí. Era capaz de hablar en cualquier idioma europeo y de cantar el himno “Dios salve a la Reina”. Al igual que Sophia, respondía a las preguntas de su público como buenamente podía; si bien, en este caso, como buenamente podía Faber.

No podemos decir que Sophia y Euphonia sean lo mismo. Euphonia no estaba basada en IA, sino más bien en inteligencia natural. Sin embargo, Sophia y Euphonia tienen algo en común; algo que caracteriza a toda IA. Sabemos que cuando Euphonia respondía, en realidad era Faber quien respondía. Si la respuesta era acertada, el mérito era de Faber; si era una locura, peligraba más bien el propio Faber. En el caso de Sophia, ¿sabemos en realidad quién responde?

Si hablamos de ética, hablamos de responsabilidad; y detrás de una IA ética hay un ser humano responsable

El sistema de reconocimiento de voz de Sophia está basado en tecnología de Alphabet, filial de Google, su sistema de procesamiento verbal en CereProc, y su sistema de IA está diseñado por Hanson Robotics. Todo esto es correcto, pero no hemos respondido a la pregunta, ¿sabemos en realidad quien responde? La ética se fundamenta en la respuesta a esta pregunta.

Si hablamos de aplicar principios éticos a la IA, debemos poder responder a esta pregunta. Porque la ética se justifica por la existencia de un ser responsable, que actúa en un sentido u otro. La ética de Euphonia es la ética de Faber; ¿de quién es la ética de Sophia? La ética en la IA no es solo una cuestión tecnológica. Si hablamos de ética, hablamos de responsabilidad; y detrás de una IA ética hay un ser humano responsable.

Publicado en Innovadores

 

Votemos qué está bien qué está mal

Votemos qué está bien qué está mal

Votemos qué está bien qué está mal

La preocupación por complacer o por convencer tiende a prevalecer sobre las exigencias de la razón. Y el amor al éxito, sobre el amor a la verdad. Toda democracia favorece la sofística

André Comte-Sponville

En cierta ocasión una piedra desprendida desde lo alto de un acantilado mató a un joven que estaba abajo, tranquilamente mirando el móvil junto a la playa. La piedra fue condenada por asesinato. De nada valieron los argumentos de la defensa que sostenían que la piedra estaba sujeta a la ineludible ley de la gravedad. El juez dictó que la piedra, como vehículo en movimiento, debería haber decidido de forma autónoma el desviar su trayectoria para así evitar la muerte de aquel inocente joven. Este mismo absurdo razonamiento ocurre con los vehículos de conducción autónoma.

Actualmente existe el debate de qué decisión debe tomar un vehículo autónomo cuando se encuentre ante una situación que afecte a la integridad física de las personas. Por ejemplo, cómo actuar si en su trayectoria se encuentra a una persona cruzando la calle.

Para avanzar en este debate el MIT ha creado la plataforma de crowdsourcing “Moral Machine”. El objetivo es “construir una imagen amplia (mediante «crowdsourcing») de la opinión de las personas sobre cómo las máquinas deben tomar decisiones cuando se enfrentan a dilemas morales”. Para ello el MIT propone una serie de escenarios con dilemas morales relacionados con vehículos autónomos sobre los cuales los participantes deciden soluciones.

Por ejemplo, en una calle sin escapatoria por los laterales, un coche autónomo que no puede frenar se dirige hacia un paso de cebra sobre el cual cruzan ciertos viandantes. Se plantea entonces el dilema de si el vehículo debe seguir recto y matar a los viandantes que están en su carril cruzando la calle, o desviarse y matar a aquellos que están cruzando a la altura del carril contrario. Las disyuntivas que se plantean radican en el número y tipo de personas a matar. Así, en un escenario se plantea si es mejor matar a un viandante o a las cuatro personas que viajan en el coche; o matar a una joven frente a un delincuente; o bien, a una persona atlética respecto a un anciano achacoso. Estas cuestiones tienen su peligro y merecen una reflexión.

Una máquina no se enfrenta a dilemas a morales, somos nosotros a través de las máquinas y ésa es nuestra responsabilidad

Detrás del planteamiento de tales dilemas morales se encuentra la corriente filosófica ética denominada utilitarista, según la cual está bien aquello es bueno para la mayoría. En el caso de la plataforma del MIT, la solución correcta respecto a un posible escenario (por ejemplo, si matar a un anciano o a un joven), puede depender de la opinión más votada. Así planteado, parece que dejamos la vida en manos de la solución más votada, al puro estilo de un circo romano, por ello es más moderno decir que es una solución basada en una “plataforma de crowdsourcing”. De esta forma diluimos la responsabilidad en la modernidad.

Pero además existe un segundo error. Ninguna máquina toma ninguna decisión moral; son las personas que diseñaron los algoritmos de la máquina quienes toman una decisión moral. Un vehículo autónomo es como la piedra que cayó y mató al joven en el acantilado. Así como argumentó la defensa, que la piedra estaba sujeta a la ineludible ley de la gravedad, de la misma forma el vehículo autónomo está sujeto a la ineludible ley (o leyes) del algoritmo que algún ingeniero le programó. Ni la piedra es “autónoma”, ni el vehículo tampoco. Una máquina no se enfrenta a dilemas a morales, somos nosotros quienes nos enfrentamos a ellos a través de las máquinas y ésa es nuestra responsabilidad.

Todo esto nos lleva a una serie de preguntas a las cuales debemos dar respuesta antes de ponernos a programar: ¿es la moral una cuestión de democracia? ¿es el bien y el mal una cuestión de votos? ¿es siempre única la respuesta ante una pregunta ética?, y, en consecuencia, ¿podemos reducir las cuestiones éticas a fórmulas matemáticas, y por tanto a algoritmos? Hace falta más Kant y menos Watson.

Publicado en digitalbiz

 

Los nuevos quijotes digitales

Los nuevos quijotes digitales

Los nuevos quijotes digitales

La Inteligencia Artificial y las redes sociales

«Se enfrascó tanto en su lectura, que se le pasaban las noches leyendo de claro en claro, y los días de turbio en turbio; y así, se le secó el celebro de manera que vino a perder el juicio [y] vino a dar en el más extraño pensamiento que jamás dio loco en el mundo, que fue hacerse caballero andante para el aumento de su honra».

Don Quijote perdió el juicio porque quedó atrapado en sus “redes sociales”, en su caso, las lecturas de libros de caballería, y así ocurre actualmente. Hoy en día puede que no leamos libros de caballería, pero al igual que Don Quijote, solo leemos aquello nos gusta, o lo que es peor, aquello que una cierta inteligencia artificial tonta dice que nos gusta. Y ya se está viendo el resultado: se están creando nuevos locos, nuevos quijotes digitales, que en busca del aumento de su honra en forma de “likes” se animan a realizar y publicar las más notables patochadas, como echarse agua hirviendo por encima o romper sandías con la cabeza, en una especie de combate mundial por ver quién es el campeón en disparates.

Don Alonso Quijano acabó convirtiéndose en Don Quijote porque solo leía libros de caballerías y pensaba que no había otro mundo fuera de la caballería andante. Actualmente cada uno solo lee sus particulares libros de caballería andante en forma de noticas, mensajes, tuits, vídeos o fotos creándose un nuevo universo imaginario.

Todo comienza cuando nos subscribimos a aquello que nos gusta: por ejemplo, en Pinterest, uno “pinea” aquellas fotos sobre temas de su interés; en LinkedIn, te suscribes a canales sobre contenidos afines; o en Instagram sigues a los que son como tú, o que tú quieres ser como ellos. En todos los casos, buscamos solo aquellas dimensiones de nuestro mundo en las cuales estamos conformes, llegando entonces a un mundo de una sola dimensión: solo hay caballería andante.

Se están creando nuevos locos, nuevos quijotes digitales, que en busca del aumento de su honra en forma de “likes” se animan a realizar y publicar las más notables patochadas

Pero la cuestión se complica más: se autoalimenta. Porque en base a tales suscripciones, según los “me gusta” gratuitos que ofrecemos, y atendiendo a los comentarios que hacemos, los algoritmos de tales redes sociales se toman la libertad de reducir más nuestra libertad con amables recomendaciones sobre aquello que “ellos” saben que nos gusta. Por ejemplo, si somos amantes de los gatos siameses, en Pinterest solo vemos fotos de gatos siameses; en LinkedIn nos aparecen conferencias y congresos sobre gatos siameses (seguro que existen tales conferencias); y en Instagram, recibimos vídeos sobre pequeñas aventuras de gatos siameses. Pero no termina ahí la pedagogía siamesa: si accedemos a cualquier publicación digital, nos aparece publicidad sobre alimentación para gatos siameses y si entramos en Amazon a comprar un libro sobre física cuántica, el algoritmo nos propone libros sobre el apasionante mundo de los gatos siameses cuánticos. Definitivamente, nos creamos nuestro mundo de caballería andante (en este caso con gatos siameses en su escudo de armas).

Por virtud de la inteligencia artificial y del “big data”, la situación todavía se enreda algo más. En el confuso libro “Homo Deus”, el autor, Yuval Noah Harari, nos habla de la crisis del liberalismo, entre otras razones, porque los algoritmos del futuro superarán nuestra capacidad de decisión al conocernos ellos mejor que nosotros mismos. Propone el caso de un asistente personal basado en Google al cual puedo preguntar sobre el dilema de qué chica es más conveniente para tener una cita. De esta forma el algoritmo me puede decir, que, si bien una de las candidatas ciertamente me atrae, dada mi alocada visión de la vida, aquella otra es más conveniente, debido a esa estabilidad que en lo más profundo de mi ser deseo, y que él, y sólo él, sabe, porque sabe más sobre mí que yo mismo. Y si un día me compro un perro labrador, cuando Google se entere, porque se acabará enterando, me mandará un aviso al móvil, o directamente al cerebro, diciéndome que dónde voy, si lo que me gustan son los gatos siameses. Gracias a mamá Google nuestro mundo de caballería andante permanece inalterable.

Al final de sus días, Don Quijote recobró la razón, y así lo dice en su último capítulo:
“Yo tengo juicio ya libre y claro, sin las sombras caliginosas de la ignorancia que sobre él me pusieron mi amarga y continua leyenda de los detestables libros de las caballerías. Ya conozco sus disparates, y no me pesa sino que este desengaño ha llegado tarde”.

Actualmente ya tenemos quijotes atrapados en las aspas de las redes sociales que muestran al mundo todos sus disparates via Youtube. La unión de las redes sociales más la inteligencia artificial nos puede llevar a una sociedad artificiosa, en la que creamos que todos piensan como nosotros, y en la que sólo se nos muestre aquello que unas fórmulas matemáticas dicen que nos gusta y que, además, es para nuestro bien.
Yuval Noah Harari habla de la crisis del liberalismo; más allá de esto está la crisis de la libertad. De la libertad basada en la diversidad, en la apertura a otros posibles mundos; en la posibilidad de aprender en base al error, que es la oportunidad a la creatividad. Si evitas la diversidad, tu universo se convierte en un monoverso aburrido, donde no hay espacio para la creatividad.

De nosotros depende el crear mundos de caballería, andante o no. Debemos diseñar una inteligencia artificial verdaderamente inteligente que no nos encierre en nuestro mundo de caballería basado en “likes”; corremos si no, el riesgo de convertirnos en quijotes digitales. Para ello recomiendo dos posibles acciones:

  •  Los algoritmos inteligentes que ofrezcan contenidos deben proponer opciones fuera de los supuestos intereses del usuario y fomentar la curiosidad.
  •  Los verdaderamente inteligentes debemos ser nosotros y abrirnos a otros intereses.

Don Quijote tuvo el pesar de liberarse tarde de su mundo de caballería. Que no nos pase igual, y terminemos votando a un gato siamés como presidente del gobierno.

Y por acabar al más puro estilo cervantino, me despido diciendo:
Vale.

Publicado en Computer World Red de Conocimiento

 

 

Pin It on Pinterest