¿Nos hace la IA más desiguales?

¿Nos hace la IA más desiguales?

¿Nos hace la IA más desiguales?

Si no hacemos nada la IA nos hará más desiguales

Nada tiene una única causa. Sin embargo, hoy hablamos de inteligencia artificial (IA) porque en el siglo XVII Leibniz tuvo un sueño matemático. El gran filósofo alemán pensó en una máquina ideal, a la cual se le pudiera hacer cualquier tipo de pregunta, luego apretar un botón, y que ésta respondiera atendiendo a una serie de reglas lógicas. A principios del siglo XX se desarrolló formalmente este sueño matemático mediante la formulación del Problema de la Decisión, que planteaba demostrar si existe un algoritmo único que pueda determinar si cualquier proposición es verdadera o falsa. Alan Turing se interesó por el reto y para abordarlo ideó la conocida Máquina de Turing, que es la inspiración de nuestros ordenadores. Demostró que tal algoritmo único no es posible, y a la vez dirigió el camino hacia la IA. Desde los inicios de la IA se encuentra la idea de sustituir al ser humano en su pensamiento. Hoy en día esa sustitución se ve más cercana y se siente como fuente de desigualdad. ¿Nos hace la IA más desiguales?

Matemáticamente desiguales

Si miramos a nuestro alrededor vemos un mundo desigual. Es una apreciación subjetiva, pero la economía, que es la ciencia matemática de la esperanza y la desesperación, nos ofrece una visión cuantitativa de tal apreciación.

Medir la desigualdad es medir el reparto de la riqueza. Para ello se ordena a la población de menor a mayor en la cantidad de riqueza que posee y luego se analiza por ciertos percentiles. Según el World Inequality Report el 50% de la población mundial posee solo el 2% de la riqueza mundial, mientras que hay un 10% superior que posee el 75%, de los cuales un 1% dispone del 38% de tal riqueza. Para el caso de la Unión Europea y los EE. UU., vemos que año tras año el 50% inferior viene perdiendo riqueza, y el 1% superior la va ganando. En nuestra cercanía los pobres son cada vez más pobres y los ricos, más ricos. Así son las matemáticas de la desigualdad.

Esta medición de reparto de la riqueza afecta al ámbito de la persona. Otra visión es la riqueza, o pobreza, de las naciones, que se mide con el indicador de riqueza como porcentaje de la renta nacional. Con datos de 2021 la relación riqueza-renta nacional en España es del 684%. Esto quiere decir que tenemos riqueza para 6,8 años, es decir, España se podría pasar parada, sin producir nada, todo ese periodo de tiempo. Lo relevante de este valor es cómo se reparte ese 684% entre riqueza privada y riqueza pública. En España prácticamente todo ello es riqueza privada, y nada o muy poco es riqueza pública. La misma tendencia aparece de forma global: los países se vuelven ricos, pero sus gobiernos se vuelven pobres. Desigualdad en la relación de fuerzas público-privadas.

Actualmente tiene su esplendor mediático la llamada IA generativa, que es por el momento la mejor aproximación al sueño de Leibniz

Hay desigualdad entre personas y entre lo público y lo privado. Y la tendencia es que esta desigualdad se acentúe. Tener más riqueza significa tener más capacidad de influencia. Quien tiene el capital tiene la capacidad de tomar decisiones sobre cómo utilizar dicho capital (dónde invertir) y sobre qué hacer con los activos que adquiere con dicho capital, como, por ejemplo, con el software de IA.

La inteligencia artificial nos desplaza

Tomando como punto de partida que hay desigualdad, volvamos a la pregunta inicial. ¿Nos hace la IA más desiguales?

La inteligencia artificial consiste en simular algunos de nuestros procesos mentales mediante algoritmos matemáticos. Al hablar del sueño Leibniz, vimos que no existe un único algoritmo que valga para todo, por ello tampoco existe una única IA. Ocurre, por tanto, que existen distintas inteligencias artificiales en la medida en que existen distintas soluciones matemáticas para simular distintos procesos mentales.

Actualmente tiene su esplendor mediático la llamada IA generativa, que es por el momento la mejor aproximación al sueño de Leibniz. La IA generativa asombra porque permite crear textos, imágenes, sonidos o vídeos como respuesta a las peticiones escritas que le hagamos (prompts). Por eso asusta ChatGPT o Dall-E. Porque nos puede reemplazar de forma masiva.

Los actores y guionistas de Hollywood han estado en huelga 148 días para reclamar, entre otras cosas, que la IA generativa sea regulada en el ámbito de su actividad. Tenían razones para ello. Mediante la IA generativa se pueden crear nuevos guiones sin apenas contar con guionista. Puede ser entrenada con voces humanas para generar nuevas voces que luego darán vida a avatares del metaverso. Si prestas tu voz, cobras 150$ la hora. Ganarás un cierto dinero, no mucho, y tu voz natural ya nunca más será necesaria. Apple Book dispone de un servicio para convertir tu novela en audiolibro, sin necesidad de expertos narradores capaces de dar ese giro dramático y emocionante a un párrafo. Ya se encarga de ello su propia IA generativa.

La sustitución del ser humano por la IA no parece ir en favor de la igualdad

Todo esto son pinceladas de un esbozo dramático, que tiene su pintura de gran formato. En mayo IBM anunció su intención de sustituir 7.800 puestos de trabajo por IA. Una gota comparada con los 300 millones de puestos de trabajo que Goldman Sachs estima que pueden ser expuestos por la IA generativa, de los cuales, la cuarta parte como mínimo pueden ser completamente desplazados por la IA generativa. La propia Open IA, dueña de ChatGPT, ha calculado que el 80% de los puestos de trabajo en EE. UU. pueden verse afectados en un 10% por los LLM (Large Language Models), que es la tecnología detrás de ChatGPT.

Menos trabajo, más desigualdad

Detrás de todos estos ejemplos se encuentra el hecho del desplazamiento de la mano de obra por la automatización. En este caso, una automatización que viene de la IA. Esta sustitución del ser humano por la IA no parece ir en favor de la igualdad, porque aumenta el valor del capital y disminuye el valor de trabajo.

Según Daron Acemo?lu la automatización es la causa de la disminución del trabajo y de la bajada de salarios. La base de la riqueza comienza en los salarios, producto del trabajo. Si estos son bajos o no existen, disminuye la riqueza de ese 50% inferior con menos recursos, que solo dispone de su trabajo. Por otro lado, esta automatización hace que el 10% superior con más recursos vea acrecentada su riqueza, pues adquieren más activos en la forma de máquinas, robots o software de IA. Por ello las empresas tecnológicas se valoran tanto en los mercados.

Una forma de ver la relación entre la automatización y la desigualdad es mediante la proporción del PIB generada por el trabajo (labor income share), que determina en qué medida el trabajo aporta al PIB del país. Según la Organización Internacional del Trabajo (OIT), en el periodo de 2004 a 2017 la proporción del trabajo en el PIB ha ido disminuyendo, pasando de un 54% a un 51%. No siempre una disminución de la proporción del trabajo lleva a aumentar la desigualdad, pero sí se ve esta relación en los países con economías más desarrolladas, como EE. UU o la UE. Todo parte de la bajada del coste de la tecnología. Si disponemos de una tecnología de bajo coste, sale rentable desplazar el trabajo en favor de la automatización, disminuyendo la proporción del trabajo y aumentando la desigualdad. Esa tecnología de bajo coste bien puede ser la IA.

Menos impacto, más trabajo

Pero nada tiene una única causa y en el caso de la desigualdad este hecho es más patente. No existe un consenso sobre las causas de esta desigualdad o al menos en qué medida afecta cada causa. No todo el mundo está de acuerdo en que la automatización sea la causa de la disminución del trabajo. Para la consultora estratégica McKinsey la principal causa de disminución del trabajo en la aportación al PIB viene de los superciclos de subida y bajada de precios, como, por ejemplo, los vividos recientemente en el sector de energía eléctrica. La automatización solo afecta en un cuarto lugar.

Si no hacemos nada, es muy posible que la fuerza de la riqueza nos lleve a una mayor desigualdad de la mano de la IA

Tampoco existe consenso sobre si la IA generativa va a destruir o generar empleo. Recientemente la OIT ha emitido un informe en el que estima que la IA generativa va a tener un mayor impacto en el aumento del trabajo que en la automatización. Según sus estimaciones, el aumento del trabajo afectaría a unos 427 millones de puestos de trabajo, mientras que la automatización a unos 75 millones, siendo los más afectados aquellos con labores administrativas. Calcula, además, que este impacto va a ser incluso más significativo en las economías más ricas.

No cabe, pues, lugar a la desesperanza. La IA no nos va a desplazar. Quizás seguiremos siendo desiguales, pero, según estos informes, no será por causa de la IA.

Olvidemos el Test de Turing

¿Nos hace la IA más desiguales? Hay distintas visiones. Antes de esperar cuál de ellas acierta, al menos todas presentan un consenso. Si no hacemos nada, es muy posible que la fuerza de la riqueza nos lleve a una mayor desigualdad de la mano de la IA. Debemos actuar.

Joseph Stiglitz, Premio de Economía del Banco de Suecia (asimilado como Nobel de Economía), aboga por aumentar la demanda agregada, favoreciendo la creación de empleo y sin perder productividad, y disponer de políticas que permitan capacitar a las personas en la IA. Cabe decir que la reciente orden ejecutiva emitida por la Casa Blanca contempla acciones en favor de esa protección del trabajo. Yendo más lejos, para aumentar la demanda, Stiglitz defiende incluso pasar a una semana de 35 horas laborables, partiendo de la premisa de que no todo es medir el PIB, sino también el bienestar.

Para conseguir esta demanda de trabajo es necesario un cambio de mentalidad. Pensar más en cómo utilizar la IA para aumentar las capacidades del ser humano, en lugar de imitarlo. Con ello se crearán nuevas capacidades, nuevos productos y servicios, generando así mucho más valor que la mera sustitución del trabajador por la IA. Es lo que Erik Brynjolfsson llama salir de la trampa de Turing.

Alan Turing ideó su famoso Test de Turing para verificar si una máquina pensaba. Era la materialización del sueño de Leibniz. Esta idea nos ha llevado a pensar en una IA que sea igual a nosotros, en lugar aquella otra IA que pueda complementar nuestras capacidades. En realidad, Leibniz pensó en su máquina ideal para ayudar a los sabios a pensar, no para sustituirlos. La IA no nos hará desiguales si pensamos en ella como potencial para crear nuevas oportunidades. La mayor fuente de desigualdad viene de igualar al ser humano con la máquina

 

Publicado en Esglobal

 

IA generativa. Del esplendor a la desilusión

IA generativa. Del esplendor a la desilusión

IA generativa. Del esplendor a la desilusión

La IA generativa crea ilusiones y preocupaciones

Del salón en el ángulo oscuro,

de su dueño tal vez olvidada,

silenciosa y cubierta del polvo

veíase Chat GPT.

 

Estos versos parafrasean esa famosa rima de Bécquer que nos habla de un arpa, que quizás algún día fue el centro de atención y hoy se encuentra ignorada. Con menos poesía Gartner nos avisa de un riesgo similar respecto a la IA (inteligencia artificial) generativa en su reciente publicación del Hype Cycle for Emerging Technologies 2023. Según la consultora la IA generativa se encuentra en su pico de esplendor, con posibilidades de transformar los negocios en un plazo de 2 a 5 años. Pero antes de ello debe pasar por el abismo de la desilusión. Su periodo de arpa dormida se encuentra cerca. ¿Cuáles son los riesgos para una desilusión? ¿Cómo conseguir arrancar las mejores melodías del arpa de la IA generativa?

La IA generativa ya se toca

A finales de agosto Walmart anunció el lanzamiento del servicio Mi Asistente basado en IA generativa. Con esta implantación no buscan tanto la reducción de costes, sino impulsar la transformación de la empresa favoreciendo la creatividad e innovación. Para ello, la aplicación se ha instalado de forma masiva, accesible de salida para los 50.000 empleados de EE. UU.

La herramienta pretende reducir el tiempo de tareas repetitivas, tales como la redacción o el resumen de ciertos documentos, con el objetivo de que ese tiempo liberado se dedique a la innovación. En su comunicado, Walmart pone especial énfasis en destacar las limitaciones de la IA, respecto a carecer de criterio, tener una comprensión limitada del contexto o depender de los datos de entrenamiento, para destacar el valor de las personas, con su pensamiento innovador. Tienen claro que el arpa siempre lo tocarán las personas, y no será al revés.

Walmart no explica cómo ha implantado su herramienta de IA generativa: si parte de una herramienta de mercado o es un desarrollo propio. PwC también toca el arpa de la IA generativa y además dice cómo lo hace. En el mes de agosto ha lanzado ChatPwC, basado en ChatGPT, como un asistente conversacional para la resolución de cuestiones relacionadas con regulación fiscal. De momento el arpa solo la tocarán unos 1.000 empleados, pero se espera un gran concierto de IA generativa, pues la iniciativa se enmarca en un plan de inversión de 1.000 millones a 3 años. Su estrategia es el desarrollo de soluciones basadas en GPT-4 de OpenAI y en los servicios de Azure OpenAI de Microsoft. Para qué ponerse a fabricar un arpa, si ya hay famosos arpistas que lo hacen. Sólo hay que afinarlo. ¿Cómo? Con datos propios. Pero eso lleva tiempo.

La IA generativa pretende reducir el tiempo de tareas repetitivas, tales como la redacción o el resumen de ciertos documentos

Así lo indica la inmobiliaria JLL, quien ha lanzado JLL GPTTM como asistente de IA generativa para sus empleados. Mediante dicha herramienta podrán, por ejemplo, generar cuadros de mando con distintas gráficas según se vayan pidiendo en modo conversación con el asistente inteligente. JLL destaca que su solución solo ha sido posible gracias a haber invertido durante años en disponer de información sobre el mercado inmobiliario, con datos limpios y bien gobernados. La buena música solo se consigue con años de práctica.

Con este elenco de éxitos, ¿dónde están las posibles desilusiones?

El arpa puede no sonar tan bien

McKinsey anuncia que la IA generativa puede aumentar la productividad un 38% en temas relacionados con operaciones de clientes (por ejemplo, en atención al cliente). Por otro lado, el Worl Economic Forum pone una nota de atención y dice que tenemos que ser realistas respecto al impacto de la IA generativa, entre otras razones, porque en el pasado hemos predicho maravillas en el ámbito tecnológico que luego no se han cumplido.

Una de las causas de desilusión está relacionada con el acierto o no en el tipo de implantación que se decida. Existen tres estrategias con sus repercusiones en coste y seguridad: uso directo de una herramienta de mercado (por ejemplo, preguntar directamente a la versión de Internet de ChatGPT), que es la solución más barata, pero la más insegura respecto a compartir información sensible o temas de propiedad intelectual (algunas empresas han prohibido este uso); realizar un desarrollo propio, solución más segura, pero también más cara; o partir de una herramienta de mercado y adaptarla a las necesidades de la organización con la ayuda del fabricante de la herramienta. Ésta última es la solución más habitual (casos de PwC o JLL), si bien requiere de unos datos bien organizados y limpios. Malos datos nos pueden llevar a sesgos, errores o alucinaciones.

Una de las causas de desilusión está relacionada con el acierto o no en el tipo de implantación que se decida.

Sí, la IA generativa puede sufrir alucinaciones. Se entiende como tal cuando la herramienta genera una respuesta bien elaborada, que aparentemente es correcta, pero que no responde a los datos con los que ha sido entrenada. La IA generativa alucina cuando dice, por ejemplo, que existen evidencias de que los dinosaurios crearon una civilización y desarrollaron herramientas, o bien que comer cristales machacados es una práctica saludable pues aporta silicio, calcio, magnesio y potasio. En estos casos claramente la melodía del arpa chirría, y no nos cabe duda de que la IA alucina. Pero pueden existir otros casos menos evidentes. Podemos pedir a la IA generativa un informe económico y quizás no sepamos si alucina. No quisiera estar en la piel de alguien que manda un informe económico erróneo al CEO de una organización.

Cómo conseguir Buena melodía con la IA generativa

La famosa rima de Bécquer continúa diciendo:

¡Cuánta nota dormía en sus cuerdas,

como el pájaro duerme en las ramas,

esperando la mano de nieve

que sabe arrancarlas!

Podemos evitar el riesgo de desilusión y abandono de la IA generativa. Podemos arrancar buenas notas de esta arpa inteligente. Para esto último es bueno seguir las siguientes directrices.

Decide si comprar instrumentos o construirlos. La primera decisión es determinar si partiremos de un desarrollo de cero o de una herramienta de mercado que adaptaremos. Lo más habitual es lo segundo, si bien depende del objetivo que busquemos con la IA generativa.

Empieza con música de cámara en tu casa. Un primer paso es comenzar con sistemas acotados y de uso interno, que no estén dirigidos a los clientes. Los casos de Walmart, PwC y JLL son de IA generativa para proceso de apoyo a los empleados.

Haz primero pequeños conciertos para amigos. PwC ha comenzado con 1.000 empleados. Un despliegue por fases te permite detectar y abordar las alucinaciones antes de que sean dañinas para el negocio.

Que tu música no la escuche otro. Si te basas en una herramienta de mercado, vigila qué ocurre con tus datos de entrenamiento y con tus resultados generados, en el sentido de si son usados en otras organizaciones.

No toques cualquier partitura. Establece directrices éticas, ponte límites sobre lo que se puede hacer y no hacer con la IA generativa. Sé que apetece tocar todo tipo de melodía, pero los empleados y los clientes agradecen la buena música.

Publicado en Dirigentes Digial

 

La IA generativa también genera negocio

La IA generativa también genera negocio

La IA generativa también genera negocio

La IA generativa bien usada puede crear innovación y progreso. Repito, bien usada.

Cuando se anunció el lanzamiento del Airbus A380 a finales de la década de los años 80 corría por el mundo de la aviación un chiste respecto al papel de los pilotos en este tipo de aviones, los cuales iban a tener un alto grado de automatismo para volar, sin necesidad apenas de contar con la intervención humana. Se decía que en la cabina de vuelo habría un perro y un piloto. El papel del perro era morder al piloto en el supuesto de que este tuviera la tentación de manejar el avión en algún momento. ¿Cuál era entonces el papel del piloto? Dar de comer al perro durante el trayecto.

¿Ocurrirá algo similar con la inteligencia artificial (IA) generativa? ¿Nos suplantará y tendrá un perro para que le demos de comer, al perro o la propia IA con nuestros datos? No necesariamente, más bien tendremos nuevas oportunidades.

¿Qué es esto de la IA generativa?

Hablamos de la inteligencia artificial, como si fuera algo único, pero en realidad existen distintos tipos de inteligencia artificial. La IA consiste en la simulación de algunos de los procesos del pensamiento humano (algunos, no todos), tales como el razonamiento, la planificación, la resolución de problemas, el utilizar conceptos abstractos o el aprendizaje. Dicho sea de paso, para esta simulación utilizamos las matemáticas. La inteligencia artificial no tiene nada de transcendental, ni es el toque divino de un dedo humano. Solo matemáticas.

Con estas matemáticas hemos sido capaces de diseñar sistemas capaces de generar contenidos, textos, imágenes o sonidos, a partir de datos ya existentes (llamado datos de entrenamiento) y en respuesta a las indicaciones que les demos. Es lo que se conoce como IA generativa. Su fundamento consiste en identificar patrones existentes en los datos de entrenamiento y generar nuevos datos de naturaleza similar. Le podemos indicar que nos hable como lo haría Yoda, el maestro Jedi de la Guerra de las Galaxias, y con la fuerza bien podría.

Dependiendo del tipo de datos que queramos generar se han diseñado una serie de aplicaciones especializadas. Así, para la creación de textos de propósito general tenemos ChatGPT o Bard; o bien para elaborar imágenes disponemos de DALL-E, Stable Diffusion, o Midjourney.

Las respuestas chatgepetinas de la IA generativa nos pueden llevar del asombro a la amenaza. También a pensar en oportunidades de negocio. La IA generativa puede impactar en los negocios en cuatro dimensiones: reducción de costes, incremento de la productividad, mejora de la experiencia de cliente y aceleración de la innovación.

Nos sustituye, nos complementa

Un artículo académico de Open IA, el dueño de ChatGPT, expone que el 80% de los puestos de trabajo podrían tener al menos un 10% de sus tareas afectada por este tipo de IA, y casi el 20% ver afectada su actividad en un 50%. Inevitablemente las empresas ven ahí una reducción de costes. IBM, BT o Dropbox anuncian despidos o parones en las contrataciones debido, entre otras razonas, a la irrupción de la inteligencia artificial. La IA generativa ha supuesto un cambio de tendencia: se ha pasado de automatizar tareas de naturaleza repetitiva, a automatizar actividades consideradas como creativas. Así tenemos la noticia de un actor de doblaje sustituido por una IA generativa. Pero no solo es cuestión de arte. Los servicios profesionales, la asesoría jurídica o la consultoría también se pueden ver afectados. Jugosa reducción de costes para las empresas, pero que también puede llevar a un impacto negativo en su imagen de cara a la sociedad.

No tenemos porqué convertirnos en esclavos de las máquinas. Si lo hacemos, quizás ahorremos costes, pero no por mucho tiempo.

Una visión alternativa es utilizar la IA generativa como apoyo en los procesos y de esta forma mejorar la productividad. GitHub, plataforma en Internet para el desarrollo de software y control de versiones, ha lanzado GitHub Copilot X basado en IA generativa para asistir a los programadores en la elaboración de código. Actualmente este apoyo en la IA generativa se está aplicando de manera informal por los trabajadores, que recurren, por ejemplo, a ChatGPT para la búsqueda de información y la elaboración preliminar de documentos. Bien utilizado, esto supone mejora de la productividad; mal utilizado, riesgos de seguridad y elogio de la vaguería. Por ello, muchas grandes corporaciones están prohibiendo el uso de ChatGPT hasta conseguir regular internamente su uso de forma segura y realmente productiva.

Clientes contentos, innovación sin límites

Esta IA generativa como apoyo se puede llevar a procesos de negocio y aplicarla directamente a la mejora de la experiencia de cliente. Open IA diseña aplicaciones personalizadas para empresas, basadas en su ChatGPT, de tal manera que éstas las puedan integrar en sus páginas web con el objetivo de ofrecer más servicios a sus clientes. Por ejemplo, Expedia lo utiliza para facilitar la planificación de los viajes o Shopify para que sus usuarios puedan crear descripciones de los productos que quieran vender en su plataforma. Atalassian, dueña de Jira, Confluence o Trello, dispone de su virtual teammate como asistente para cualquier tipo de dudas o para elaborar resúmenes de reuniones. En la misma dirección se mueve Micrsoft 365 Coplit, capaz de sugerirte textos para Word o de crear imágenes para PowerPonint generadas por Dall-E.

Dado que la IA generativa genera nuevos contenidos, ¿por qué no usarla para crear nuevos productos? Es su aplicación en el campo de la innovación. Las empresas farmacéuticas ven grandes posibilidades en este tipo de IA para el descubrimiento de nuevas moléculas que les lleve a nuevos medicamentos, ya sean genéricos o incluso adaptados a ciertos pacientes. Pero su uso va más allá. La IA generativa se puede usar como fuente de entrenamiento, para otras IA (como el machine learning) o para las personas. Mediante la IA generativa se pueden crear, por ejemplo, imágenes de radiografías para formar a médicos, ejercicios docentes para alumnos, o casos legales para mejorar la asesoría jurídica.

No todo tiene que ser dar de comer a un perro que nos vigila. No tenemos porqué convertirnos en esclavos de las máquinas. Si lo hacemos, quizás ahorremos costes, pero no por mucho tiempo. Si nos apoyamos en la IA generativa, podemos crear nuevas oportunidades nunca vistas.

Publicado en Cinco Días

 

ODS con inteligencia

ODS con inteligencia

ODS con inteligencia

La IA puede aportar soluciones para llevar a cabo un desarrollo sostenible

Imaginemos que hace unos días me encontraba en un congreso científico. La primera parte del congreso había transcurrido sin mucha novedad en las exposiciones. Correspondía ahora ese café de media mañana que sirve de networking, que no es otra cosa que hablar y relacionarse con otros colegas. Yo removía mi café expreso con la cucharilla, ausente de la conversación en la que me encontraba networkeando, en un movimiento automático y repetitivo.

Desperté a la realidad cuando me enganché, como un oyente intruso, a la conversación de otras dos personas que a mi lado formaban su propio corrillo.

  • ¡A ver qué nos cuentan ahora sobre los ODS!
  • Espero que sea más interesante que lo escuchado hasta el momento. Sin duda, la inteligencia artificial está ayudando a los ODS.
  • No sin riesgos.
  • Lo iremos viendo, pero de momento hay grandes esperanzas.

La interlocutora comenzó a relatar todo su conocimiento sobre las iniciativas de inteligencia artificial relacionadas con los ODS.

Buenos objetivos con buena inteligencia artificial

La inteligencia artificial es una herramienta y como tal, podemos usarla para unos fines u otros. Uno de tales fines bien puede, y deben, ser los ODS.

En este sentido, el reconocimiento de imágenes junto con el aprendizaje automático (machine learning) resulta de especial utilidad. Por ejemplo, se ha utilizado para identificar zonas expuestas a altos niveles de pobreza analizando las imágenes por satélite de las regiones en estudio. Mediante el reconocimiento de imágenes se pueden reconocer infraestructuras, tales como carreteras, zonas urbanas, embalses o granjas, y analizar su nivel de construcción y mantenimiento. Esto permite conocer el nivel de desarrollo de cada zona. Por lo general, el acceso a estas zonas es complicado y la información sobre ellas escasa. Este sistema permite analizar grandes zonas de forma eficaz y precisa.

Detrás de estas mismas tecnologías de reconocimiento de imágenes y machine learning se encuentran sistemas que pueden alertar sobre desastres climáticos o bien identificar rápidamente la malnutrición infantil. En este último caso, mediante técnicas de reconocimiento facial se puede analizar en poco tiempo si un niño sufre desnutrición, identificando de forma temprana patrones incipientes causados por la inanición, para así poder poner remedio antes de que sufra las consecuencias de la falta de alimento.

La inteligencia artificial es una herramienta y como tal, podemos usarla para unos fines u otros: por ejemplo, los ODS

No todo es reconocimiento de imágenes. El análisis masivo de datos también ayuda al cumplimiento de los ODS. En Colombia se ha creado un banco genético de semillas de fríjoles, yuca y forraje con el objetivo de poder adaptarlas a posibles cambios climáticos. La iniciativa, que ha recibido una subvención de 17 millones de dólares de la Fundación Bezos para la Tierra, incorpora además técnicas de inteligencia artificial para conocer con antelación el posible crecimiento de las semillas y evitar, entre otras cosas, problemas por falta de biodiversidad en la naturaleza.

Relacionado específicamente con el ODS 3 Salud y Bienestar, la inteligencia artificial se viene utilizando en la investigación de fármacos, ya sea para predecir la toxicidad de los medicamentos, sus propiedades fisicoquímicas o bien generar nuevas medicinas. Con ello se consigue reducir el tiempo de investigación, pasando de años a meses.

  • Como ves –concluyó la interlocutora–, muchas posibilidades de la inteligencia artificial para los ODS.
  • El problema –respondió su compañero de café– es el uso indebido que se pueda hacer de estas posibilidades.

 

La cosa de puede torcer

La inteligencia artificial no está exenta de riesgos. Esto no significa dejar de usarla, sino saber cómo usarla. Conducir un vehículo también tiene riesgos y no por ello vamos andando a todos los sitios, sino que conocemos los riesgos y aprendemos a cómo movernos por las ciudades. La Unión Europea es muy consciente de esto posibles riesgos y está elaborando una legislación para regular la inteligencia artificial.

Según su borrador actual, existen ciertos usos de la inteligencia artificial que tienen un riesgo inaceptable, como son la manipulación de las personas, especialmente de grupos vulnerables. Otros usos de la inteligencia artificial se consideran de riesgo alto e incluyen actividades relacionadas con el reconocimiento facial, la gestión de infraestructuras, la educación, el empleo, el control de fronteras o la migración de personas. Estamos hablando de los ámbitos de los ODS.

Los ODS abordan acciones sobre grupos especialmente vulnerables, susceptibles de aceptar cualquier riesgo por un pequeño beneficio. El reconocimiento facial para identificar la malnutrición se puede convertir en clasificación de personas; el análisis de infraestructuras puede servir para el control de la población; la investigación de semillas o de nuevos fármacos puede acabar favoreciendo solo a grupos reducidos, sin garantizar su acceso universal. No digo que vaya a ocurrir, digo que puede ocurrir. Por ello tenemos que estar vigilantes.

La inteligencia artificial no está exenta de riesgos. Esto no significa dejar de usarla, sino saber cómo usarla.

Otro dilema es la huella de carbono que genera la inteligencia artificial. Hemos hablado de sistemas de inteligencia artificial que alertan sobre desastres climáticos, mientras la propia inteligencia artificial genera toneladas de CO2. Se estima que el entrenamiento de GPT3, el modelo de lenguaje detrás de ChatGPT, generó 500 veces más carbono que un solo viajero en un vuelo de ida desde Nueva York a San Francisco. Otra cuestión que resolver y en ello estamos.

  • Como ves –concluyó el científico con un gesto de incertidumbre–, luces y sombras…
  • Habrá que iluminar las luces.

 

Estupidez artificial

Los dos científicos se separaron y disolvieron en la masa de asistentes. Inevitablemente me vino a la cabeza la idea de estupidez artificial, que consiste en dejar que la inteligencia artificial decida por nosotros. En pensar que solo existe un camino para la inteligencia artificial y que ese camino excluye o limita al ser humano.

La inteligencia artificial puede ser nuestra aliada o nuestra enemiga para el cumplimiento de los ODS. Depende de nosotros. Para evitar caer en la estupidez artificial aplicada a los ODS, propongo 4 sencillos pasos:

  1. Analizar las consecuencias, buenas y malas, de una inteligencia artificial para el desarrollo de un objetivo ODS.
  2. Pensar de qué principios partimos para aplicar una inteligencia artificial. Si queremos buscar, por ejemplo, la equidad o garantizar la autonomía humana.
  3. Explicar cómo funciona una inteligencia artificial: la forma en la que actúa, sus limitaciones o sus posibles sesgos.
  4. Por último, y más importante, dejar que la persona decida en qué medida quiere que la inteligencia artificial medie en su vida, por muy loable que sea el objetivo.

Concluyó el café y todos volvimos a la siguiente ponencia, sobre el uso de la inteligencia artificial para el desarrollo de los ODS.

Publicado en El Español

 

Gran tablón de corcho digital

Gran tablón de corcho digital

Gran tablón de corcho digital

Las grandes plataformas en Internet son tablones de corcho, pero con responsabilidad sobre su contenido

 

Siempre han existido los tablones de corcho colgados en las paredes. Recuerdo que en la Universidad había uno donde cualquiera podía pinchar lo que quisiera. Fácilmente podías encontrar desde noticias sobre el Rectorado a la venta de completos apuntes o a maravillosas hierbas “aromáticas”.

Luego podía resultar que la noticia sobre el Rectorado, anunciada como completamente dañina para los estudiantes, no era verdad; o que aquellos apuntes no eran tan completos; o bien esas hierbas no eran en realidad aromáticas, sino de otra naturaleza más animosa (según me dijeron, yo nunca lo supe). En estos casos, ¿a quién reclamar? No se podía responsabilizar al dueño del tablón de corcho. Primero porque se desconocía su dueño, y luego, porque su disculpa sería que él sólo había dispuesto un corcho enmarcado sobre la pared, y no era responsable de lo que allí se pinchara.

Así ha ocurrido con las grandes plataformas digitales en Internet. Se han considerado ellas mismas como ese tablón de corcho donde cualquiera puede publicar lo que quiera, sin responsabilidad alguna sobre su contenido.

Cuestión de tamaño

“Con el tamaño viene la responsabilidad”. Así piensa Margrethe Vestager, Vicepresidenta de la Comisión Europea de Una Europa Adaptada a la Era Digital, quien añade que “hay cosas que las grandes plataformas deben hacer y otras que no pueden hacer”. Tiene razón, es una cuestión de principios y de consecuencias, que cobra relevancia por el tamaño. No es lo mismo un tablón de corcho que afecta a unos cientos de estudiantes, a una plataforma digital que afecta al menos a 45 millones de usuarios. Y no es lo mismo colgar un tablón y marchar, a colgar un tablón y hacer dinero con su contenido.

No hay nada fuera del mundo real. El mundo digital también es real y sujeto a sus leyes

Con esta filosofía el Parlamento Europeo ha adoptado la Ley de Servicios Digitales (DSA) y la Ley de Mercados Digitales (DMA). En breve serán publicadas en el Diario Oficial de la Unión Europea, y tendrán aplicación directa en todos los Estados miembros, sin necesidad de normas de transposición.

Lo que es ilegal, es ilegal

Mediante la DSA las plataformas tendrán que poner medidas para evitar la difusión de contenidos ilegales o falsos en Internet. También deberán abrir sus algoritmos a efectos de auditoría para conocer su funcionamiento en temas, por ejemplo, de promoción de información o publicidad. Sabremos porqué una noticia aparece antes que otra.

Gracias a la DMA, ninguna plataforma de venta por Internet tendrá la tentación de dar  preferencia a sus propios artículos. O bien, podrás comprar cualquier aplicación para móvil en cualquier plataforma autorizada, y no solo en la del fabricante. Más claro: podrás comprar aplicaciones de Apple fuera de Apple.

El principio de actuación de estas dos leyes es muy claro: lo que es ilegal en el mundo real, es ilegal en el mundo digital. Es un principio básico, pero a veces olvidado. Se ha transmitido la idea de que el mundo digital es ajeno al real, o que las grandes plataformas son simples puertas y ventanas que dan acceso a un mundo digital, del cual no son responsables. Ambas ideas son falsas.

No hay nada fuera del mundo real. El mundo digital también es real y sujeto a sus leyes. Y las grandes plataformas no son inocentes tableros de corcho que muestran una realidad digital. Ellas mismas son y configuran esa realidad digital. No son ojos digitales, son mirada.

¿Conseguiremos esa responsabilidad de las grandes plataformas? Cuando en la Universidad me acercaba a un tablón de corcho siempre me decía “¿será verdad?, voy a comprobarlo”. La DSA y DMA nos ayudan, pero no todo es regulación. Nosotros nunca debemos perder ese espíritu crítico y de verificación.

Publicado en DigitalBiz

 

El valor de una IA valiente

El valor de una IA valiente

El valor de una IA valiente

La inteligencia artificial no está consiguiendo el valor esperado. La solución no está reñida con la ética. Es posible obtener valor de la IA y tener el valor de ser éticos.

Rossumovi Univerzální Roboti (Robots Universales Rossum). Así se llama la obra de teatro del autor checo Karel ?apek, estrenada hace 100 años en el Teatro Nacional de Praga, y que ha pasado a la historia por acuñar por primera vez el término robot. La historia versa sobre la empresa Rossumovi Univerzální Roboti, que se dedica a la fabricación de unos artilugios humanoides, llamados robots, que proviene de la palabra checa “robota”, que significa “esclavo. Han sido diseñados con el saludable propósito de aliviar la carga de trabajo a los sufridos humanos. Finalmente, la situación se va de las manos y los robots acaban matando a toda la humanidad, excepto a un ingeniero, porque él, igual que los robots, trabaja con las manos.

Apenas un 20% de las organizaciones que invierten en inteligencia artificial obtienen verdadero valor de la misma

Curiosa metáfora que parece un sombrío augurio, si bien veo poco probable que suceda, al menos en el corto plazo. Al igual que hemos controlado otras tecnologías, ésta de la robótica y de la inteligencia artificial también estará bajo control, aunque no sin arduo trabajo. Hoy en día el problema no son los robots, sino la inteligencia artificial, la cual añade un riesgo mayor: que la inteligencia artificial, a diferencia de los robots, no se ve. Un robot es un muñeco que ves venir; la inteligencia artificial se encuentra sumergida en miles de aplicaciones, tomando decisiones sin que lo sepamos.

Esto es una cuestión ética (la ética habla de la toma de decisiones) y por ello ahora importa menos: porque las preocupaciones éticas son para los tiempos de bonanza, cuando el exceso de presupuesto permite dedicarse a “esas otras cosas”. Pues bien, existe otra cuestión con la inteligencia artificial que quizá resulte más interesante a los comités de dirección de las organizaciones: apenas un 20% de las organizaciones que invierten en inteligencia artificial obtienen verdadero valor de la misma. Así lo revela un informe de McKinsey de finales del año pasado.

La razón de tan bajo rendimiento no es solo una cuestión tecnológica. No es tanto un problema con la integración de datos que provienen de sistemas distintos, ni con la validez de los algoritmos o con la capacidad de procesamiento. La inteligencia artificial es una tecnología que tiene un tipo de diseño particular y, en consecuencia, presenta una problemática particular asociada. Debemos saber cómo entrenar bien a los algoritmos para evitar riesgos de sesgo o de robustez; es necesario entender por qué un sistema inteligente toma una decisión en detrimento de otra (‘explicabilidad’); los sistemas de machine learning tienen métodos específicos de ataque que permiten conocer los datos fuentes o causar resultados erróneos; o bien se deben cumplir regulaciones específicas relacionadas con protección de datos.

Podemos conseguir valor de la inteligencia artificial y tener el valor de ser éticos.

La solución a estas cuestiones escapa a la pura tecnología y se dirige más a los mecanismos de gestión y de gobierno. Hablamos de obtener el compromiso de todos los niveles de dirección, para evitar islas tecnológicas; de entender qué objetivos buscamos con la IA y si somos capaces de explicarlos a la sociedad; de disponer de líderes transversales que gestionen equipos con un balance adecuado de talento interno y externo; de contar con product owners que conozcan los riesgos y oportunidades de los sistemas inteligentes; y por último, para los más atrevidos, de velar por disponer de una inteligencia artificial éticamente responsable.

Como se ve, la solución no es nueva. Consiste en saber gestionar y gobernar la tecnología, en este caso con sus particularidades. Quizás nos falte un nombre a esta solución para hacerla más atractiva y así explicar con palabras brillantes los viejos problemas de siempre. Karel ?apek supo encontrar ese nombre para estos autómatas seudo-inteligentes. Tengamos nombre o no, sugiero aplicar esta visión con un doble afán: conseguir valor de la inteligencia artificial y tener el valor de ser éticos.

Publicado en Digital Biz

 

Pin It on Pinterest