IA generativa. Del esplendor a la desilusión

IA generativa. Del esplendor a la desilusión

IA generativa. Del esplendor a la desilusión

La IA generativa crea ilusiones y preocupaciones

Del salón en el ángulo oscuro,

de su dueño tal vez olvidada,

silenciosa y cubierta del polvo

veíase Chat GPT.

 

Estos versos parafrasean esa famosa rima de Bécquer que nos habla de un arpa, que quizás algún día fue el centro de atención y hoy se encuentra ignorada. Con menos poesía Gartner nos avisa de un riesgo similar respecto a la IA (inteligencia artificial) generativa en su reciente publicación del Hype Cycle for Emerging Technologies 2023. Según la consultora la IA generativa se encuentra en su pico de esplendor, con posibilidades de transformar los negocios en un plazo de 2 a 5 años. Pero antes de ello debe pasar por el abismo de la desilusión. Su periodo de arpa dormida se encuentra cerca. ¿Cuáles son los riesgos para una desilusión? ¿Cómo conseguir arrancar las mejores melodías del arpa de la IA generativa?

La IA generativa ya se toca

A finales de agosto Walmart anunció el lanzamiento del servicio Mi Asistente basado en IA generativa. Con esta implantación no buscan tanto la reducción de costes, sino impulsar la transformación de la empresa favoreciendo la creatividad e innovación. Para ello, la aplicación se ha instalado de forma masiva, accesible de salida para los 50.000 empleados de EE. UU.

La herramienta pretende reducir el tiempo de tareas repetitivas, tales como la redacción o el resumen de ciertos documentos, con el objetivo de que ese tiempo liberado se dedique a la innovación. En su comunicado, Walmart pone especial énfasis en destacar las limitaciones de la IA, respecto a carecer de criterio, tener una comprensión limitada del contexto o depender de los datos de entrenamiento, para destacar el valor de las personas, con su pensamiento innovador. Tienen claro que el arpa siempre lo tocarán las personas, y no será al revés.

Walmart no explica cómo ha implantado su herramienta de IA generativa: si parte de una herramienta de mercado o es un desarrollo propio. PwC también toca el arpa de la IA generativa y además dice cómo lo hace. En el mes de agosto ha lanzado ChatPwC, basado en ChatGPT, como un asistente conversacional para la resolución de cuestiones relacionadas con regulación fiscal. De momento el arpa solo la tocarán unos 1.000 empleados, pero se espera un gran concierto de IA generativa, pues la iniciativa se enmarca en un plan de inversión de 1.000 millones a 3 años. Su estrategia es el desarrollo de soluciones basadas en GPT-4 de OpenAI y en los servicios de Azure OpenAI de Microsoft. Para qué ponerse a fabricar un arpa, si ya hay famosos arpistas que lo hacen. Sólo hay que afinarlo. ¿Cómo? Con datos propios. Pero eso lleva tiempo.

La IA generativa pretende reducir el tiempo de tareas repetitivas, tales como la redacción o el resumen de ciertos documentos

Así lo indica la inmobiliaria JLL, quien ha lanzado JLL GPTTM como asistente de IA generativa para sus empleados. Mediante dicha herramienta podrán, por ejemplo, generar cuadros de mando con distintas gráficas según se vayan pidiendo en modo conversación con el asistente inteligente. JLL destaca que su solución solo ha sido posible gracias a haber invertido durante años en disponer de información sobre el mercado inmobiliario, con datos limpios y bien gobernados. La buena música solo se consigue con años de práctica.

Con este elenco de éxitos, ¿dónde están las posibles desilusiones?

El arpa puede no sonar tan bien

McKinsey anuncia que la IA generativa puede aumentar la productividad un 38% en temas relacionados con operaciones de clientes (por ejemplo, en atención al cliente). Por otro lado, el Worl Economic Forum pone una nota de atención y dice que tenemos que ser realistas respecto al impacto de la IA generativa, entre otras razones, porque en el pasado hemos predicho maravillas en el ámbito tecnológico que luego no se han cumplido.

Una de las causas de desilusión está relacionada con el acierto o no en el tipo de implantación que se decida. Existen tres estrategias con sus repercusiones en coste y seguridad: uso directo de una herramienta de mercado (por ejemplo, preguntar directamente a la versión de Internet de ChatGPT), que es la solución más barata, pero la más insegura respecto a compartir información sensible o temas de propiedad intelectual (algunas empresas han prohibido este uso); realizar un desarrollo propio, solución más segura, pero también más cara; o partir de una herramienta de mercado y adaptarla a las necesidades de la organización con la ayuda del fabricante de la herramienta. Ésta última es la solución más habitual (casos de PwC o JLL), si bien requiere de unos datos bien organizados y limpios. Malos datos nos pueden llevar a sesgos, errores o alucinaciones.

Una de las causas de desilusión está relacionada con el acierto o no en el tipo de implantación que se decida.

Sí, la IA generativa puede sufrir alucinaciones. Se entiende como tal cuando la herramienta genera una respuesta bien elaborada, que aparentemente es correcta, pero que no responde a los datos con los que ha sido entrenada. La IA generativa alucina cuando dice, por ejemplo, que existen evidencias de que los dinosaurios crearon una civilización y desarrollaron herramientas, o bien que comer cristales machacados es una práctica saludable pues aporta silicio, calcio, magnesio y potasio. En estos casos claramente la melodía del arpa chirría, y no nos cabe duda de que la IA alucina. Pero pueden existir otros casos menos evidentes. Podemos pedir a la IA generativa un informe económico y quizás no sepamos si alucina. No quisiera estar en la piel de alguien que manda un informe económico erróneo al CEO de una organización.

Cómo conseguir Buena melodía con la IA generativa

La famosa rima de Bécquer continúa diciendo:

¡Cuánta nota dormía en sus cuerdas,

como el pájaro duerme en las ramas,

esperando la mano de nieve

que sabe arrancarlas!

Podemos evitar el riesgo de desilusión y abandono de la IA generativa. Podemos arrancar buenas notas de esta arpa inteligente. Para esto último es bueno seguir las siguientes directrices.

Decide si comprar instrumentos o construirlos. La primera decisión es determinar si partiremos de un desarrollo de cero o de una herramienta de mercado que adaptaremos. Lo más habitual es lo segundo, si bien depende del objetivo que busquemos con la IA generativa.

Empieza con música de cámara en tu casa. Un primer paso es comenzar con sistemas acotados y de uso interno, que no estén dirigidos a los clientes. Los casos de Walmart, PwC y JLL son de IA generativa para proceso de apoyo a los empleados.

Haz primero pequeños conciertos para amigos. PwC ha comenzado con 1.000 empleados. Un despliegue por fases te permite detectar y abordar las alucinaciones antes de que sean dañinas para el negocio.

Que tu música no la escuche otro. Si te basas en una herramienta de mercado, vigila qué ocurre con tus datos de entrenamiento y con tus resultados generados, en el sentido de si son usados en otras organizaciones.

No toques cualquier partitura. Establece directrices éticas, ponte límites sobre lo que se puede hacer y no hacer con la IA generativa. Sé que apetece tocar todo tipo de melodía, pero los empleados y los clientes agradecen la buena música.

Publicado en Dirigentes Digial

 

La IA generativa también genera negocio

La IA generativa también genera negocio

La IA generativa también genera negocio

La IA generativa bien usada puede crear innovación y progreso. Repito, bien usada.

Cuando se anunció el lanzamiento del Airbus A380 a finales de la década de los años 80 corría por el mundo de la aviación un chiste respecto al papel de los pilotos en este tipo de aviones, los cuales iban a tener un alto grado de automatismo para volar, sin necesidad apenas de contar con la intervención humana. Se decía que en la cabina de vuelo habría un perro y un piloto. El papel del perro era morder al piloto en el supuesto de que este tuviera la tentación de manejar el avión en algún momento. ¿Cuál era entonces el papel del piloto? Dar de comer al perro durante el trayecto.

¿Ocurrirá algo similar con la inteligencia artificial (IA) generativa? ¿Nos suplantará y tendrá un perro para que le demos de comer, al perro o la propia IA con nuestros datos? No necesariamente, más bien tendremos nuevas oportunidades.

¿Qué es esto de la IA generativa?

Hablamos de la inteligencia artificial, como si fuera algo único, pero en realidad existen distintos tipos de inteligencia artificial. La IA consiste en la simulación de algunos de los procesos del pensamiento humano (algunos, no todos), tales como el razonamiento, la planificación, la resolución de problemas, el utilizar conceptos abstractos o el aprendizaje. Dicho sea de paso, para esta simulación utilizamos las matemáticas. La inteligencia artificial no tiene nada de transcendental, ni es el toque divino de un dedo humano. Solo matemáticas.

Con estas matemáticas hemos sido capaces de diseñar sistemas capaces de generar contenidos, textos, imágenes o sonidos, a partir de datos ya existentes (llamado datos de entrenamiento) y en respuesta a las indicaciones que les demos. Es lo que se conoce como IA generativa. Su fundamento consiste en identificar patrones existentes en los datos de entrenamiento y generar nuevos datos de naturaleza similar. Le podemos indicar que nos hable como lo haría Yoda, el maestro Jedi de la Guerra de las Galaxias, y con la fuerza bien podría.

Dependiendo del tipo de datos que queramos generar se han diseñado una serie de aplicaciones especializadas. Así, para la creación de textos de propósito general tenemos ChatGPT o Bard; o bien para elaborar imágenes disponemos de DALL-E, Stable Diffusion, o Midjourney.

Las respuestas chatgepetinas de la IA generativa nos pueden llevar del asombro a la amenaza. También a pensar en oportunidades de negocio. La IA generativa puede impactar en los negocios en cuatro dimensiones: reducción de costes, incremento de la productividad, mejora de la experiencia de cliente y aceleración de la innovación.

Nos sustituye, nos complementa

Un artículo académico de Open IA, el dueño de ChatGPT, expone que el 80% de los puestos de trabajo podrían tener al menos un 10% de sus tareas afectada por este tipo de IA, y casi el 20% ver afectada su actividad en un 50%. Inevitablemente las empresas ven ahí una reducción de costes. IBM, BT o Dropbox anuncian despidos o parones en las contrataciones debido, entre otras razonas, a la irrupción de la inteligencia artificial. La IA generativa ha supuesto un cambio de tendencia: se ha pasado de automatizar tareas de naturaleza repetitiva, a automatizar actividades consideradas como creativas. Así tenemos la noticia de un actor de doblaje sustituido por una IA generativa. Pero no solo es cuestión de arte. Los servicios profesionales, la asesoría jurídica o la consultoría también se pueden ver afectados. Jugosa reducción de costes para las empresas, pero que también puede llevar a un impacto negativo en su imagen de cara a la sociedad.

No tenemos porqué convertirnos en esclavos de las máquinas. Si lo hacemos, quizás ahorremos costes, pero no por mucho tiempo.

Una visión alternativa es utilizar la IA generativa como apoyo en los procesos y de esta forma mejorar la productividad. GitHub, plataforma en Internet para el desarrollo de software y control de versiones, ha lanzado GitHub Copilot X basado en IA generativa para asistir a los programadores en la elaboración de código. Actualmente este apoyo en la IA generativa se está aplicando de manera informal por los trabajadores, que recurren, por ejemplo, a ChatGPT para la búsqueda de información y la elaboración preliminar de documentos. Bien utilizado, esto supone mejora de la productividad; mal utilizado, riesgos de seguridad y elogio de la vaguería. Por ello, muchas grandes corporaciones están prohibiendo el uso de ChatGPT hasta conseguir regular internamente su uso de forma segura y realmente productiva.

Clientes contentos, innovación sin límites

Esta IA generativa como apoyo se puede llevar a procesos de negocio y aplicarla directamente a la mejora de la experiencia de cliente. Open IA diseña aplicaciones personalizadas para empresas, basadas en su ChatGPT, de tal manera que éstas las puedan integrar en sus páginas web con el objetivo de ofrecer más servicios a sus clientes. Por ejemplo, Expedia lo utiliza para facilitar la planificación de los viajes o Shopify para que sus usuarios puedan crear descripciones de los productos que quieran vender en su plataforma. Atalassian, dueña de Jira, Confluence o Trello, dispone de su virtual teammate como asistente para cualquier tipo de dudas o para elaborar resúmenes de reuniones. En la misma dirección se mueve Micrsoft 365 Coplit, capaz de sugerirte textos para Word o de crear imágenes para PowerPonint generadas por Dall-E.

Dado que la IA generativa genera nuevos contenidos, ¿por qué no usarla para crear nuevos productos? Es su aplicación en el campo de la innovación. Las empresas farmacéuticas ven grandes posibilidades en este tipo de IA para el descubrimiento de nuevas moléculas que les lleve a nuevos medicamentos, ya sean genéricos o incluso adaptados a ciertos pacientes. Pero su uso va más allá. La IA generativa se puede usar como fuente de entrenamiento, para otras IA (como el machine learning) o para las personas. Mediante la IA generativa se pueden crear, por ejemplo, imágenes de radiografías para formar a médicos, ejercicios docentes para alumnos, o casos legales para mejorar la asesoría jurídica.

No todo tiene que ser dar de comer a un perro que nos vigila. No tenemos porqué convertirnos en esclavos de las máquinas. Si lo hacemos, quizás ahorremos costes, pero no por mucho tiempo. Si nos apoyamos en la IA generativa, podemos crear nuevas oportunidades nunca vistas.

Publicado en Cinco Días

 

ODS con inteligencia

ODS con inteligencia

ODS con inteligencia

La IA puede aportar soluciones para llevar a cabo un desarrollo sostenible

Imaginemos que hace unos días me encontraba en un congreso científico. La primera parte del congreso había transcurrido sin mucha novedad en las exposiciones. Correspondía ahora ese café de media mañana que sirve de networking, que no es otra cosa que hablar y relacionarse con otros colegas. Yo removía mi café expreso con la cucharilla, ausente de la conversación en la que me encontraba networkeando, en un movimiento automático y repetitivo.

Desperté a la realidad cuando me enganché, como un oyente intruso, a la conversación de otras dos personas que a mi lado formaban su propio corrillo.

  • ¡A ver qué nos cuentan ahora sobre los ODS!
  • Espero que sea más interesante que lo escuchado hasta el momento. Sin duda, la inteligencia artificial está ayudando a los ODS.
  • No sin riesgos.
  • Lo iremos viendo, pero de momento hay grandes esperanzas.

La interlocutora comenzó a relatar todo su conocimiento sobre las iniciativas de inteligencia artificial relacionadas con los ODS.

Buenos objetivos con buena inteligencia artificial

La inteligencia artificial es una herramienta y como tal, podemos usarla para unos fines u otros. Uno de tales fines bien puede, y deben, ser los ODS.

En este sentido, el reconocimiento de imágenes junto con el aprendizaje automático (machine learning) resulta de especial utilidad. Por ejemplo, se ha utilizado para identificar zonas expuestas a altos niveles de pobreza analizando las imágenes por satélite de las regiones en estudio. Mediante el reconocimiento de imágenes se pueden reconocer infraestructuras, tales como carreteras, zonas urbanas, embalses o granjas, y analizar su nivel de construcción y mantenimiento. Esto permite conocer el nivel de desarrollo de cada zona. Por lo general, el acceso a estas zonas es complicado y la información sobre ellas escasa. Este sistema permite analizar grandes zonas de forma eficaz y precisa.

Detrás de estas mismas tecnologías de reconocimiento de imágenes y machine learning se encuentran sistemas que pueden alertar sobre desastres climáticos o bien identificar rápidamente la malnutrición infantil. En este último caso, mediante técnicas de reconocimiento facial se puede analizar en poco tiempo si un niño sufre desnutrición, identificando de forma temprana patrones incipientes causados por la inanición, para así poder poner remedio antes de que sufra las consecuencias de la falta de alimento.

La inteligencia artificial es una herramienta y como tal, podemos usarla para unos fines u otros: por ejemplo, los ODS

No todo es reconocimiento de imágenes. El análisis masivo de datos también ayuda al cumplimiento de los ODS. En Colombia se ha creado un banco genético de semillas de fríjoles, yuca y forraje con el objetivo de poder adaptarlas a posibles cambios climáticos. La iniciativa, que ha recibido una subvención de 17 millones de dólares de la Fundación Bezos para la Tierra, incorpora además técnicas de inteligencia artificial para conocer con antelación el posible crecimiento de las semillas y evitar, entre otras cosas, problemas por falta de biodiversidad en la naturaleza.

Relacionado específicamente con el ODS 3 Salud y Bienestar, la inteligencia artificial se viene utilizando en la investigación de fármacos, ya sea para predecir la toxicidad de los medicamentos, sus propiedades fisicoquímicas o bien generar nuevas medicinas. Con ello se consigue reducir el tiempo de investigación, pasando de años a meses.

  • Como ves –concluyó la interlocutora–, muchas posibilidades de la inteligencia artificial para los ODS.
  • El problema –respondió su compañero de café– es el uso indebido que se pueda hacer de estas posibilidades.

 

La cosa de puede torcer

La inteligencia artificial no está exenta de riesgos. Esto no significa dejar de usarla, sino saber cómo usarla. Conducir un vehículo también tiene riesgos y no por ello vamos andando a todos los sitios, sino que conocemos los riesgos y aprendemos a cómo movernos por las ciudades. La Unión Europea es muy consciente de esto posibles riesgos y está elaborando una legislación para regular la inteligencia artificial.

Según su borrador actual, existen ciertos usos de la inteligencia artificial que tienen un riesgo inaceptable, como son la manipulación de las personas, especialmente de grupos vulnerables. Otros usos de la inteligencia artificial se consideran de riesgo alto e incluyen actividades relacionadas con el reconocimiento facial, la gestión de infraestructuras, la educación, el empleo, el control de fronteras o la migración de personas. Estamos hablando de los ámbitos de los ODS.

Los ODS abordan acciones sobre grupos especialmente vulnerables, susceptibles de aceptar cualquier riesgo por un pequeño beneficio. El reconocimiento facial para identificar la malnutrición se puede convertir en clasificación de personas; el análisis de infraestructuras puede servir para el control de la población; la investigación de semillas o de nuevos fármacos puede acabar favoreciendo solo a grupos reducidos, sin garantizar su acceso universal. No digo que vaya a ocurrir, digo que puede ocurrir. Por ello tenemos que estar vigilantes.

La inteligencia artificial no está exenta de riesgos. Esto no significa dejar de usarla, sino saber cómo usarla.

Otro dilema es la huella de carbono que genera la inteligencia artificial. Hemos hablado de sistemas de inteligencia artificial que alertan sobre desastres climáticos, mientras la propia inteligencia artificial genera toneladas de CO2. Se estima que el entrenamiento de GPT3, el modelo de lenguaje detrás de ChatGPT, generó 500 veces más carbono que un solo viajero en un vuelo de ida desde Nueva York a San Francisco. Otra cuestión que resolver y en ello estamos.

  • Como ves –concluyó el científico con un gesto de incertidumbre–, luces y sombras…
  • Habrá que iluminar las luces.

 

Estupidez artificial

Los dos científicos se separaron y disolvieron en la masa de asistentes. Inevitablemente me vino a la cabeza la idea de estupidez artificial, que consiste en dejar que la inteligencia artificial decida por nosotros. En pensar que solo existe un camino para la inteligencia artificial y que ese camino excluye o limita al ser humano.

La inteligencia artificial puede ser nuestra aliada o nuestra enemiga para el cumplimiento de los ODS. Depende de nosotros. Para evitar caer en la estupidez artificial aplicada a los ODS, propongo 4 sencillos pasos:

  1. Analizar las consecuencias, buenas y malas, de una inteligencia artificial para el desarrollo de un objetivo ODS.
  2. Pensar de qué principios partimos para aplicar una inteligencia artificial. Si queremos buscar, por ejemplo, la equidad o garantizar la autonomía humana.
  3. Explicar cómo funciona una inteligencia artificial: la forma en la que actúa, sus limitaciones o sus posibles sesgos.
  4. Por último, y más importante, dejar que la persona decida en qué medida quiere que la inteligencia artificial medie en su vida, por muy loable que sea el objetivo.

Concluyó el café y todos volvimos a la siguiente ponencia, sobre el uso de la inteligencia artificial para el desarrollo de los ODS.

Publicado en El Español

 

Gran tablón de corcho digital

Gran tablón de corcho digital

Gran tablón de corcho digital

Las grandes plataformas en Internet son tablones de corcho, pero con responsabilidad sobre su contenido

 

Siempre han existido los tablones de corcho colgados en las paredes. Recuerdo que en la Universidad había uno donde cualquiera podía pinchar lo que quisiera. Fácilmente podías encontrar desde noticias sobre el Rectorado a la venta de completos apuntes o a maravillosas hierbas “aromáticas”.

Luego podía resultar que la noticia sobre el Rectorado, anunciada como completamente dañina para los estudiantes, no era verdad; o que aquellos apuntes no eran tan completos; o bien esas hierbas no eran en realidad aromáticas, sino de otra naturaleza más animosa (según me dijeron, yo nunca lo supe). En estos casos, ¿a quién reclamar? No se podía responsabilizar al dueño del tablón de corcho. Primero porque se desconocía su dueño, y luego, porque su disculpa sería que él sólo había dispuesto un corcho enmarcado sobre la pared, y no era responsable de lo que allí se pinchara.

Así ha ocurrido con las grandes plataformas digitales en Internet. Se han considerado ellas mismas como ese tablón de corcho donde cualquiera puede publicar lo que quiera, sin responsabilidad alguna sobre su contenido.

Cuestión de tamaño

“Con el tamaño viene la responsabilidad”. Así piensa Margrethe Vestager, Vicepresidenta de la Comisión Europea de Una Europa Adaptada a la Era Digital, quien añade que “hay cosas que las grandes plataformas deben hacer y otras que no pueden hacer”. Tiene razón, es una cuestión de principios y de consecuencias, que cobra relevancia por el tamaño. No es lo mismo un tablón de corcho que afecta a unos cientos de estudiantes, a una plataforma digital que afecta al menos a 45 millones de usuarios. Y no es lo mismo colgar un tablón y marchar, a colgar un tablón y hacer dinero con su contenido.

No hay nada fuera del mundo real. El mundo digital también es real y sujeto a sus leyes

Con esta filosofía el Parlamento Europeo ha adoptado la Ley de Servicios Digitales (DSA) y la Ley de Mercados Digitales (DMA). En breve serán publicadas en el Diario Oficial de la Unión Europea, y tendrán aplicación directa en todos los Estados miembros, sin necesidad de normas de transposición.

Lo que es ilegal, es ilegal

Mediante la DSA las plataformas tendrán que poner medidas para evitar la difusión de contenidos ilegales o falsos en Internet. También deberán abrir sus algoritmos a efectos de auditoría para conocer su funcionamiento en temas, por ejemplo, de promoción de información o publicidad. Sabremos porqué una noticia aparece antes que otra.

Gracias a la DMA, ninguna plataforma de venta por Internet tendrá la tentación de dar  preferencia a sus propios artículos. O bien, podrás comprar cualquier aplicación para móvil en cualquier plataforma autorizada, y no solo en la del fabricante. Más claro: podrás comprar aplicaciones de Apple fuera de Apple.

El principio de actuación de estas dos leyes es muy claro: lo que es ilegal en el mundo real, es ilegal en el mundo digital. Es un principio básico, pero a veces olvidado. Se ha transmitido la idea de que el mundo digital es ajeno al real, o que las grandes plataformas son simples puertas y ventanas que dan acceso a un mundo digital, del cual no son responsables. Ambas ideas son falsas.

No hay nada fuera del mundo real. El mundo digital también es real y sujeto a sus leyes. Y las grandes plataformas no son inocentes tableros de corcho que muestran una realidad digital. Ellas mismas son y configuran esa realidad digital. No son ojos digitales, son mirada.

¿Conseguiremos esa responsabilidad de las grandes plataformas? Cuando en la Universidad me acercaba a un tablón de corcho siempre me decía “¿será verdad?, voy a comprobarlo”. La DSA y DMA nos ayudan, pero no todo es regulación. Nosotros nunca debemos perder ese espíritu crítico y de verificación.

Publicado en DigitalBiz

 

Metaverso: el nuevo mito de la caverna

Metaverso: el nuevo mito de la caverna

Metaverso: el nuevo mito de la caverna

El metaverso nos promete un mundo maravillo. Pero puede ser una falsa promesa

 

Todos conocemos el mito de la caverna de Platón. Unos hombres encadenados en una caverna solo pueden ver las sombras de una realidad que existe más allá. Hay otra realidad, un mundo más perfecto, más completo, al que no pueden acceder y del que solo son capaces de tener una visión reducida en forma de sombras. El metaverso acabará con esta injusticia.

El metaverso nos promete ese mundo más perfecto y completo. ¿Por qué vivir de forma sombría en un mundo lleno de problemas, cuando existe otro donde puedes hacer y ser lo que quieras? El metaverso va a romper las cadenas que nos mantienen atados a una realidad formada únicamente por sombras. ¡Por fin veremos la luz!

Esto será gracias a la inteligencia artificial (IA). Mark Zuckerberg lo anunció a finales de febrero. El metaverso estará potenciado por la IA para ofrecer, de momento, dos grandes facilidades que harán la vida en ese nuevo mundo mucho más placentera.

Nada nos tiene que hacer suponer que el metaverso será mejor que nuestra realidad

Todo metaversanio de pleno derecho podrá crear cualquier paraíso con solo describirlo en unas líneas de texto. Si escribes “quiero estar en una isla tropical leyendo a Platón” (cada uno puede pedir lo que quiera), la todopoderosa IA generará unos gráficos adecuados que te transportarán al lugar elegido.

¡Genial!, pero ¿en qué idioma se lo digo?, ¿en inglés? ¡No, en tu propio idioma! Esa es la segunda maravilla de la IA en el metaverso. No habrá barreras lingüísticas. La maldición de la torre de Babel se habrá terminado. Podrás escribir en tu idioma y la todo-traductora IA te entenderá. ¿También en bable? No sé, habrá que ver si el señor Zuckerberg lo considera adecuado en su metaverso paradisíaco.

No tan paraíso

El metaverso se nos aparece como un mundo ideal en el que refugiarnos de este mundo miserable. Pero la realidad de esta realidad virtual no es tan maravillosa. En este año 1 del metaverso ya se han detectado comportamientos abusivos contra las mujeres. Se han denunciado casos en los que las usuarias se han visto rodeadas de repente de avatares masculinos que han actuado de forma intimidatoria. O bien comportamientos individuales de acoso verbal y obsceno de metaversianos masculinos hacia sus conciudadanas virtuales. Parece que este metaverso también tiene sombras.

Esto puede ser solo el comienzo. Lo cierto es que todo aquello que hemos visto en las redes sociales es susceptible de ocurrir en el meta-maravillerso. Existe el riesgo de que también se propaguen noticias falsas; de que se fomenten las rivalidades y se propague el discurso del odio; o de que se comercie con toda la información que se genera con la actividad de un avatar, tras el cual hay una persona de carne y hueso. Si además entran en escena las criptomonedas y la posibilidad de disponer de activos mediante NFT, los amigos de la estafa estarán por medio.

Un metaverso como el nuestro

Nada nos tiene que hacer suponer que el metaverso será mejor que nuestra realidad. Nada, mientras no cambiemos nuestra realidad, es decir, mientras no cambiemos nuestra condición humana. Allí donde vayamos llevaremos lo que somos. Toda innovación viene alentada por atractivas promesas, pero no nos engañemos: el metaverso será como nuestro mundo, una mezcla de drama y comedia.

El gran guionista Zuckerberg promete una IA responsable y un metaverso transparente. ¿Habrá que creer en su buena voluntad? Quizás sea mejor disponer de mecanismos de auditoría y control suficientes para este viejo nuevo-mundo. El poder no puede recaer en una sola persona, ni en el mundo real, ni en el virtual. Allá donde construyamos una realidad deberá haber supervisión.

Para desgracia de Zuckerberg, su anuncio de fantasía de la IA se vio ensombrecido por la barbarie en Ucrania. El mundo real eclipsó el mundo virtual. La salvación de la caverna no es crear un supuesto mundo ideal, sino liberarnos de las cadenas que nos atan a nuestra condición.

Publicado en DigitalBiz

 

El valor de una IA valiente

El valor de una IA valiente

El valor de una IA valiente

La inteligencia artificial no está consiguiendo el valor esperado. La solución no está reñida con la ética. Es posible obtener valor de la IA y tener el valor de ser éticos.

Rossumovi Univerzální Roboti (Robots Universales Rossum). Así se llama la obra de teatro del autor checo Karel ?apek, estrenada hace 100 años en el Teatro Nacional de Praga, y que ha pasado a la historia por acuñar por primera vez el término robot. La historia versa sobre la empresa Rossumovi Univerzální Roboti, que se dedica a la fabricación de unos artilugios humanoides, llamados robots, que proviene de la palabra checa “robota”, que significa “esclavo. Han sido diseñados con el saludable propósito de aliviar la carga de trabajo a los sufridos humanos. Finalmente, la situación se va de las manos y los robots acaban matando a toda la humanidad, excepto a un ingeniero, porque él, igual que los robots, trabaja con las manos.

Apenas un 20% de las organizaciones que invierten en inteligencia artificial obtienen verdadero valor de la misma

Curiosa metáfora que parece un sombrío augurio, si bien veo poco probable que suceda, al menos en el corto plazo. Al igual que hemos controlado otras tecnologías, ésta de la robótica y de la inteligencia artificial también estará bajo control, aunque no sin arduo trabajo. Hoy en día el problema no son los robots, sino la inteligencia artificial, la cual añade un riesgo mayor: que la inteligencia artificial, a diferencia de los robots, no se ve. Un robot es un muñeco que ves venir; la inteligencia artificial se encuentra sumergida en miles de aplicaciones, tomando decisiones sin que lo sepamos.

Esto es una cuestión ética (la ética habla de la toma de decisiones) y por ello ahora importa menos: porque las preocupaciones éticas son para los tiempos de bonanza, cuando el exceso de presupuesto permite dedicarse a “esas otras cosas”. Pues bien, existe otra cuestión con la inteligencia artificial que quizá resulte más interesante a los comités de dirección de las organizaciones: apenas un 20% de las organizaciones que invierten en inteligencia artificial obtienen verdadero valor de la misma. Así lo revela un informe de McKinsey de finales del año pasado.

La razón de tan bajo rendimiento no es solo una cuestión tecnológica. No es tanto un problema con la integración de datos que provienen de sistemas distintos, ni con la validez de los algoritmos o con la capacidad de procesamiento. La inteligencia artificial es una tecnología que tiene un tipo de diseño particular y, en consecuencia, presenta una problemática particular asociada. Debemos saber cómo entrenar bien a los algoritmos para evitar riesgos de sesgo o de robustez; es necesario entender por qué un sistema inteligente toma una decisión en detrimento de otra (‘explicabilidad’); los sistemas de machine learning tienen métodos específicos de ataque que permiten conocer los datos fuentes o causar resultados erróneos; o bien se deben cumplir regulaciones específicas relacionadas con protección de datos.

Podemos conseguir valor de la inteligencia artificial y tener el valor de ser éticos.

La solución a estas cuestiones escapa a la pura tecnología y se dirige más a los mecanismos de gestión y de gobierno. Hablamos de obtener el compromiso de todos los niveles de dirección, para evitar islas tecnológicas; de entender qué objetivos buscamos con la IA y si somos capaces de explicarlos a la sociedad; de disponer de líderes transversales que gestionen equipos con un balance adecuado de talento interno y externo; de contar con product owners que conozcan los riesgos y oportunidades de los sistemas inteligentes; y por último, para los más atrevidos, de velar por disponer de una inteligencia artificial éticamente responsable.

Como se ve, la solución no es nueva. Consiste en saber gestionar y gobernar la tecnología, en este caso con sus particularidades. Quizás nos falte un nombre a esta solución para hacerla más atractiva y así explicar con palabras brillantes los viejos problemas de siempre. Karel ?apek supo encontrar ese nombre para estos autómatas seudo-inteligentes. Tengamos nombre o no, sugiero aplicar esta visión con un doble afán: conseguir valor de la inteligencia artificial y tener el valor de ser éticos.

Publicado en Digital Biz

 

Pin It on Pinterest