El nuevo ascensor asesino

El nuevo ascensor asesino

El nuevo ascensor asesino

Se dice que el programa Q* es una nueva amenaza para la humanidad

En el interior de un edificio de oficinas una niña se encuentra frente a un ascensor. El ascensor abre y cierra las puertas repetidamente, incitando a la niña a entrar en la cabina. Si lo hace, morirá. El ascensor se ha convertido en una máquina asesina.

Esta secuencia pertenece a El Ascensor, película de terror, quizás algo desconocida, en la cual un ascensor se transmuta en asesino un buen día y de forma inopinada. La causa radica en que fue programado con una tecnología prohibida, que tenía la capacidad de reprogramarse, siendo una amenaza para la sociedad.

Hace unas semanas, hemos vivido una miniserie donde Sam Altman era despedido y después readmitido, para terminar destituido parte del comité de dirección. No se sabe muy bien qué ha ocurrido, pero en una precuela no oficial de esta serie se atisba que quizás la razón se encuentre en un proyecto llamado Q* (Q star). Aseguran que este proyecto ha revelado una capacidad de ChatGPT que podría suponer un paso más hacia la inteligencia artificial general (AGI). Una inteligencia que supera en todo al ser humano y, por ello, con consecuencias desconocidas para la humanidad. ¿Habrán dado con la polea inicial de un posible ascensor asesino?

Ya hemos tenido miedos

En mi libro Estupidez artificial planteo otras innovaciones que en su momento generaron alarma en la sociedad. A mediados del siglo XIX, con el nacimiento del telégrafo, se dijo que acabaría nuestra capacidad de pensar. Posteriormente, se vio que el teléfono vulneraba la privacidad personal y se alarmó con desintegrar la esencia humana. Hoy en día seguimos siendo seres humanos con capacidad de pensar (si pensamos menos es porque estamos dormidos con la fantasía de las redes sociales).

Q* representa un avance hacia la AGI porque unifica dos capacidades: aprendizaje y planificación

No es necesario irse tan lejos en el tiempo. En 2016 el programa AlphaGo venció a Lee Sedol, mejor jugador del mundo, en un campeonato de Go. Sedol solo pudo ganar una partida de cinco. Se dijo entonces que esa victoria suponía un nuevo paso para la inteligencia artificial y una nueva amenaza porque podría terminar fuera de control.

Meter miedo sale gratis. Con el tiempo nadie te pide cuentas. Esto tampoco nos debe llevar a una visión ingenua de la inteligencia artificial. Esta tecnología tiene riesgos; negarlo es inconsciencia o engaño. Lo que debemos hacer es conocer estos riesgos, sin alarmismos, con templanza y sabiendo cómo actuar ante una posible emergencia. El tráfico de vehículos en las ciudades tiene riesgos, pero no por ello nos quedamos en casa.

Pensando templadamente en esos riesgos, la pregunta inquietante quizás sea: ¿supone la AGI un riesgo existencial para la humanidad?

A conciencia

Se dice que Q* representa un avance hacia la AGI porque unifica dos capacidades: aprendizaje y planificación. Pensando de forma distópica, eso nos lleva a pensar en un sistema inteligente que aprende cómo acabar con la humanidad y además planifica cómo hacerlo. Ya tenemos a nuestro ascensor asesino.

¿Es posible? Sí. ¿Es probable? Poco. Para llegar a esa situación hace falta una condición previa, que es la existencia de una conciencia. Alguien que quiera acabar con la humanidad. Se supone que el ascensor de la película en un momento dado decide acabar con cualquier incauto que entre en su cabina. Esa decisión es materia de una conciencia, capacidad no garantizada en la AGI. Sin esa consciencia, tan solo cabría temer que por azar, por mera casualidad, el sistema inteligente alcanzara como objetivo acabar con nosotros. En ese caso, dado que conocemos este riesgo, es de pacatos quedarse en casa. Debemos salir a la calle con las precauciones para que eso no suceda. Pongamos límites a esa futura AGI.

Queda además una última solución. En la película El Ascensor, los protagonistas acaban destruyendo el sistema central asesino del elevador. No obstante, por si acaso, terminan bajando por las escaleras. No perdamos nunca ese mundo natural.

Publicado en DigitalBiz

El peligro de los ‘deepfakes’ de clonación de voz

El peligro de los ‘deepfakes’ de clonación de voz

El peligro de los ‘deepfakes’ de clonación de voz

Nuevas herramientas de Inteligencia Artificial permiten reproducir una voz en diversos idiomas, lo que puede llevar a que cibercriminales suplanten la identidad a través de llamadas falsas

 

En las películas de Misión Imposible vemos cómo mimetizan la voz de cualquier persona. Luego Ethan Hunt (Tom Cruise) se pone una máscara con la cara de la víctima. Llega al lugar de encuentro, habla de forma natural con la voz del suplantado y así se hace pasar por él. Parece misión imposible, pero hoy en día estamos más cerca gracias a la inteligencia artificial (IA). Al menos en lo que respecta a copiar la voz. Hay una diferencia. No siempre copiamos la voz con el noble objetivo de luchar contra el mal, como en las películas. A veces es para engañar de viva voz. Son las deepfake de clonación de voz.

La clonación de la voz con fines delictivos viene sucediendo desde hace unos años. Últimamente es más preocupante porque resulta más fácil y nadie está a salvo.

Desde inversores a humildes abuelos

En enero de 2020 un director de una sucursal de una empresa japonesa en Hong Kong sufrió una estafa de clonación voz. Recibió una llamada telefónica, aparentemente normal, de quien decía ser el director de la compañía. El director de la sucursal no lo dudó, pues la voz le resultaba totalmente familiar y no tuvo reparo en seguir todas las instrucciones que le dieron, hasta transferir 35 millones de dólares a los estafadores.

En la primavera de este año, el inversor de Florida Clive Kabatznik fue víctima de un intento similar y en Canadá unos abuelos recibieron una llamada supuestamente de su nieto, alarmándoles de que se encontraba en la cárcel y necesitaba efectivo para pagar la fianza. Afortunadamente en ambos casos los intentos fueron detectados y no se pudo consumar la estafa. Pero el riesgo existe y no es complejo de realizar.

Háblame durante 3 segundos

Actualmente la técnica de clonación de voz no es exactamente como en las películas de Misión Imposible. Más que transformar la voz de una persona en la de otra, lo que se hace es la generación de una voz particular a partir de un texto. Es lo que se conoce como síntesis de texto a discurso (test-to-speech, o TTS). Su funcionamiento se basa en identificar patrones de voz. Todos hablamos de una forma particular, y por ello reconocemos las voces de cada persona. Tenemos un cierto tono, un timbre y una cadencia particular. Una red neuronal para la clonación de voz ha sido entrenada para reconocer estos patrones identificativos de cada voz y luego reproducirlos en la lectura de cualquier texto.

Antes de usar este tipo de aplicaciones, es recomendable leer las condiciones legales, a pesar de no estar escritas en un lenguaje amigable

Un ejemplo significativo de IA de clonado de voz es VALL-E, elaborado por Microsoft. Su red neuronal ha sido entrenada por una librería de voces en inglés con más de 60.000 horas de audio y de 7000 personas diferentes. Su potencia radica en que, para entender los patrones de una voz, le basta con 3 segundos de grabación. Por el momento, Microsoft no facilita esta IA de forma abierta y en su página web solo se pueden ver ejemplos demostrativos de su capacidad.

Sin embargo, sí existen muchas aplicaciones en Internet que permiten clonar una voz de forma sencilla. Basta con 30 segundos de grabación o leer un texto corto que proporciona la propia aplicación. Estas aplicaciones no nacen con el propósito de estafar voces. Su objetivo es ofrecer voces particulares, o tu propia voz, para actividades como animar vídeos, dar voz a avatares en videojuegos, creación de parodias o acciones de marketing. También se puede aplicar con fines sociales, como la lectura de textos para personas con dislexia. Clonar la voz no es un hecho delictivo en sí mismo, sino que depende de la bondad o maldad de cada uno.

Cómo evitar ser estafado de viva voz

En todos los casos estas aplicaciones avisan de posibles usos fraudulentos, delegando en el usuario toda la responsabilidad de un uso inapropiado. Antes de usar este tipo de aplicaciones, es recomendable leer las condiciones legales, a pesar de no estar escritas en un lenguaje amigable, porque determinan cuáles son las responsabilidades y concesiones de los usuarios. Hay que vigilar qué datos recopila la aplicación, junto con el registro de tu voz, y con qué fines se pueden utilizar. Además, lo que se publica puede ser accesible a terceras partes, quedando fuera de la política de privacidad de la propia aplicación.

Otro punto de atención es utilizar una voz ajena sin permiso de su dueño. Algo similar ya ha ocurrido, en el caso de utilización de imágenes. La empresa Clearview AI utilizó 30.000 millones de imágenes tomadas de redes sociales, sin consentimiento de sus dueños, para entrenar su sistema de reconociendo facial. Esto significa que cualquier voz subida a redes sociales puede ser utilizada, bien como entrenamiento, o bien para ser clonada.

Por desgracia no somos buenos identificando voces clonadas. Una forma de identificar si una voz ha sido clonada con IA es utilizar la propia IA. Existen aplicaciones, basadas en IA, que permiten identificar la clonación de voz. Pero es posible que no siempre tengamos acceso a esta tecnología. Otras opciones, más al alcance de la mano, se basan en la natural intuición ante una estafa: por ejemplo, verificar con terceras personas si una grabación sospechosa puede ser de su dueño no; ponerse en contacto por otra vía con la persona supuestamente suplantada; o hacer alguna pregunta o comentario al interlocutor sospechoso sobre algo que solamente la verdadera persona conoce. Hay que recordar que clonan la voz, pero no la persona (todavía).

Publicado en The Conversation

 

¿Nos hace la IA más desiguales?

¿Nos hace la IA más desiguales?

¿Nos hace la IA más desiguales?

Si no hacemos nada la IA nos hará más desiguales

Nada tiene una única causa. Sin embargo, hoy hablamos de inteligencia artificial (IA) porque en el siglo XVII Leibniz tuvo un sueño matemático. El gran filósofo alemán pensó en una máquina ideal, a la cual se le pudiera hacer cualquier tipo de pregunta, luego apretar un botón, y que ésta respondiera atendiendo a una serie de reglas lógicas. A principios del siglo XX se desarrolló formalmente este sueño matemático mediante la formulación del Problema de la Decisión, que planteaba demostrar si existe un algoritmo único que pueda determinar si cualquier proposición es verdadera o falsa. Alan Turing se interesó por el reto y para abordarlo ideó la conocida Máquina de Turing, que es la inspiración de nuestros ordenadores. Demostró que tal algoritmo único no es posible, y a la vez dirigió el camino hacia la IA. Desde los inicios de la IA se encuentra la idea de sustituir al ser humano en su pensamiento. Hoy en día esa sustitución se ve más cercana y se siente como fuente de desigualdad. ¿Nos hace la IA más desiguales?

Matemáticamente desiguales

Si miramos a nuestro alrededor vemos un mundo desigual. Es una apreciación subjetiva, pero la economía, que es la ciencia matemática de la esperanza y la desesperación, nos ofrece una visión cuantitativa de tal apreciación.

Medir la desigualdad es medir el reparto de la riqueza. Para ello se ordena a la población de menor a mayor en la cantidad de riqueza que posee y luego se analiza por ciertos percentiles. Según el World Inequality Report el 50% de la población mundial posee solo el 2% de la riqueza mundial, mientras que hay un 10% superior que posee el 75%, de los cuales un 1% dispone del 38% de tal riqueza. Para el caso de la Unión Europea y los EE. UU., vemos que año tras año el 50% inferior viene perdiendo riqueza, y el 1% superior la va ganando. En nuestra cercanía los pobres son cada vez más pobres y los ricos, más ricos. Así son las matemáticas de la desigualdad.

Esta medición de reparto de la riqueza afecta al ámbito de la persona. Otra visión es la riqueza, o pobreza, de las naciones, que se mide con el indicador de riqueza como porcentaje de la renta nacional. Con datos de 2021 la relación riqueza-renta nacional en España es del 684%. Esto quiere decir que tenemos riqueza para 6,8 años, es decir, España se podría pasar parada, sin producir nada, todo ese periodo de tiempo. Lo relevante de este valor es cómo se reparte ese 684% entre riqueza privada y riqueza pública. En España prácticamente todo ello es riqueza privada, y nada o muy poco es riqueza pública. La misma tendencia aparece de forma global: los países se vuelven ricos, pero sus gobiernos se vuelven pobres. Desigualdad en la relación de fuerzas público-privadas.

Actualmente tiene su esplendor mediático la llamada IA generativa, que es por el momento la mejor aproximación al sueño de Leibniz

Hay desigualdad entre personas y entre lo público y lo privado. Y la tendencia es que esta desigualdad se acentúe. Tener más riqueza significa tener más capacidad de influencia. Quien tiene el capital tiene la capacidad de tomar decisiones sobre cómo utilizar dicho capital (dónde invertir) y sobre qué hacer con los activos que adquiere con dicho capital, como, por ejemplo, con el software de IA.

La inteligencia artificial nos desplaza

Tomando como punto de partida que hay desigualdad, volvamos a la pregunta inicial. ¿Nos hace la IA más desiguales?

La inteligencia artificial consiste en simular algunos de nuestros procesos mentales mediante algoritmos matemáticos. Al hablar del sueño Leibniz, vimos que no existe un único algoritmo que valga para todo, por ello tampoco existe una única IA. Ocurre, por tanto, que existen distintas inteligencias artificiales en la medida en que existen distintas soluciones matemáticas para simular distintos procesos mentales.

Actualmente tiene su esplendor mediático la llamada IA generativa, que es por el momento la mejor aproximación al sueño de Leibniz. La IA generativa asombra porque permite crear textos, imágenes, sonidos o vídeos como respuesta a las peticiones escritas que le hagamos (prompts). Por eso asusta ChatGPT o Dall-E. Porque nos puede reemplazar de forma masiva.

Los actores y guionistas de Hollywood han estado en huelga 148 días para reclamar, entre otras cosas, que la IA generativa sea regulada en el ámbito de su actividad. Tenían razones para ello. Mediante la IA generativa se pueden crear nuevos guiones sin apenas contar con guionista. Puede ser entrenada con voces humanas para generar nuevas voces que luego darán vida a avatares del metaverso. Si prestas tu voz, cobras 150$ la hora. Ganarás un cierto dinero, no mucho, y tu voz natural ya nunca más será necesaria. Apple Book dispone de un servicio para convertir tu novela en audiolibro, sin necesidad de expertos narradores capaces de dar ese giro dramático y emocionante a un párrafo. Ya se encarga de ello su propia IA generativa.

La sustitución del ser humano por la IA no parece ir en favor de la igualdad

Todo esto son pinceladas de un esbozo dramático, que tiene su pintura de gran formato. En mayo IBM anunció su intención de sustituir 7.800 puestos de trabajo por IA. Una gota comparada con los 300 millones de puestos de trabajo que Goldman Sachs estima que pueden ser expuestos por la IA generativa, de los cuales, la cuarta parte como mínimo pueden ser completamente desplazados por la IA generativa. La propia Open IA, dueña de ChatGPT, ha calculado que el 80% de los puestos de trabajo en EE. UU. pueden verse afectados en un 10% por los LLM (Large Language Models), que es la tecnología detrás de ChatGPT.

Menos trabajo, más desigualdad

Detrás de todos estos ejemplos se encuentra el hecho del desplazamiento de la mano de obra por la automatización. En este caso, una automatización que viene de la IA. Esta sustitución del ser humano por la IA no parece ir en favor de la igualdad, porque aumenta el valor del capital y disminuye el valor de trabajo.

Según Daron Acemo?lu la automatización es la causa de la disminución del trabajo y de la bajada de salarios. La base de la riqueza comienza en los salarios, producto del trabajo. Si estos son bajos o no existen, disminuye la riqueza de ese 50% inferior con menos recursos, que solo dispone de su trabajo. Por otro lado, esta automatización hace que el 10% superior con más recursos vea acrecentada su riqueza, pues adquieren más activos en la forma de máquinas, robots o software de IA. Por ello las empresas tecnológicas se valoran tanto en los mercados.

Una forma de ver la relación entre la automatización y la desigualdad es mediante la proporción del PIB generada por el trabajo (labor income share), que determina en qué medida el trabajo aporta al PIB del país. Según la Organización Internacional del Trabajo (OIT), en el periodo de 2004 a 2017 la proporción del trabajo en el PIB ha ido disminuyendo, pasando de un 54% a un 51%. No siempre una disminución de la proporción del trabajo lleva a aumentar la desigualdad, pero sí se ve esta relación en los países con economías más desarrolladas, como EE. UU o la UE. Todo parte de la bajada del coste de la tecnología. Si disponemos de una tecnología de bajo coste, sale rentable desplazar el trabajo en favor de la automatización, disminuyendo la proporción del trabajo y aumentando la desigualdad. Esa tecnología de bajo coste bien puede ser la IA.

Menos impacto, más trabajo

Pero nada tiene una única causa y en el caso de la desigualdad este hecho es más patente. No existe un consenso sobre las causas de esta desigualdad o al menos en qué medida afecta cada causa. No todo el mundo está de acuerdo en que la automatización sea la causa de la disminución del trabajo. Para la consultora estratégica McKinsey la principal causa de disminución del trabajo en la aportación al PIB viene de los superciclos de subida y bajada de precios, como, por ejemplo, los vividos recientemente en el sector de energía eléctrica. La automatización solo afecta en un cuarto lugar.

Si no hacemos nada, es muy posible que la fuerza de la riqueza nos lleve a una mayor desigualdad de la mano de la IA

Tampoco existe consenso sobre si la IA generativa va a destruir o generar empleo. Recientemente la OIT ha emitido un informe en el que estima que la IA generativa va a tener un mayor impacto en el aumento del trabajo que en la automatización. Según sus estimaciones, el aumento del trabajo afectaría a unos 427 millones de puestos de trabajo, mientras que la automatización a unos 75 millones, siendo los más afectados aquellos con labores administrativas. Calcula, además, que este impacto va a ser incluso más significativo en las economías más ricas.

No cabe, pues, lugar a la desesperanza. La IA no nos va a desplazar. Quizás seguiremos siendo desiguales, pero, según estos informes, no será por causa de la IA.

Olvidemos el Test de Turing

¿Nos hace la IA más desiguales? Hay distintas visiones. Antes de esperar cuál de ellas acierta, al menos todas presentan un consenso. Si no hacemos nada, es muy posible que la fuerza de la riqueza nos lleve a una mayor desigualdad de la mano de la IA. Debemos actuar.

Joseph Stiglitz, Premio de Economía del Banco de Suecia (asimilado como Nobel de Economía), aboga por aumentar la demanda agregada, favoreciendo la creación de empleo y sin perder productividad, y disponer de políticas que permitan capacitar a las personas en la IA. Cabe decir que la reciente orden ejecutiva emitida por la Casa Blanca contempla acciones en favor de esa protección del trabajo. Yendo más lejos, para aumentar la demanda, Stiglitz defiende incluso pasar a una semana de 35 horas laborables, partiendo de la premisa de que no todo es medir el PIB, sino también el bienestar.

Para conseguir esta demanda de trabajo es necesario un cambio de mentalidad. Pensar más en cómo utilizar la IA para aumentar las capacidades del ser humano, en lugar de imitarlo. Con ello se crearán nuevas capacidades, nuevos productos y servicios, generando así mucho más valor que la mera sustitución del trabajador por la IA. Es lo que Erik Brynjolfsson llama salir de la trampa de Turing.

Alan Turing ideó su famoso Test de Turing para verificar si una máquina pensaba. Era la materialización del sueño de Leibniz. Esta idea nos ha llevado a pensar en una IA que sea igual a nosotros, en lugar aquella otra IA que pueda complementar nuestras capacidades. En realidad, Leibniz pensó en su máquina ideal para ayudar a los sabios a pensar, no para sustituirlos. La IA no nos hará desiguales si pensamos en ella como potencial para crear nuevas oportunidades. La mayor fuente de desigualdad viene de igualar al ser humano con la máquina

 

Publicado en Esglobal

 

IA generativa. Del esplendor a la desilusión

IA generativa. Del esplendor a la desilusión

IA generativa. Del esplendor a la desilusión

La IA generativa crea ilusiones y preocupaciones

Del salón en el ángulo oscuro,

de su dueño tal vez olvidada,

silenciosa y cubierta del polvo

veíase Chat GPT.

 

Estos versos parafrasean esa famosa rima de Bécquer que nos habla de un arpa, que quizás algún día fue el centro de atención y hoy se encuentra ignorada. Con menos poesía Gartner nos avisa de un riesgo similar respecto a la IA (inteligencia artificial) generativa en su reciente publicación del Hype Cycle for Emerging Technologies 2023. Según la consultora la IA generativa se encuentra en su pico de esplendor, con posibilidades de transformar los negocios en un plazo de 2 a 5 años. Pero antes de ello debe pasar por el abismo de la desilusión. Su periodo de arpa dormida se encuentra cerca. ¿Cuáles son los riesgos para una desilusión? ¿Cómo conseguir arrancar las mejores melodías del arpa de la IA generativa?

La IA generativa ya se toca

A finales de agosto Walmart anunció el lanzamiento del servicio Mi Asistente basado en IA generativa. Con esta implantación no buscan tanto la reducción de costes, sino impulsar la transformación de la empresa favoreciendo la creatividad e innovación. Para ello, la aplicación se ha instalado de forma masiva, accesible de salida para los 50.000 empleados de EE. UU.

La herramienta pretende reducir el tiempo de tareas repetitivas, tales como la redacción o el resumen de ciertos documentos, con el objetivo de que ese tiempo liberado se dedique a la innovación. En su comunicado, Walmart pone especial énfasis en destacar las limitaciones de la IA, respecto a carecer de criterio, tener una comprensión limitada del contexto o depender de los datos de entrenamiento, para destacar el valor de las personas, con su pensamiento innovador. Tienen claro que el arpa siempre lo tocarán las personas, y no será al revés.

Walmart no explica cómo ha implantado su herramienta de IA generativa: si parte de una herramienta de mercado o es un desarrollo propio. PwC también toca el arpa de la IA generativa y además dice cómo lo hace. En el mes de agosto ha lanzado ChatPwC, basado en ChatGPT, como un asistente conversacional para la resolución de cuestiones relacionadas con regulación fiscal. De momento el arpa solo la tocarán unos 1.000 empleados, pero se espera un gran concierto de IA generativa, pues la iniciativa se enmarca en un plan de inversión de 1.000 millones a 3 años. Su estrategia es el desarrollo de soluciones basadas en GPT-4 de OpenAI y en los servicios de Azure OpenAI de Microsoft. Para qué ponerse a fabricar un arpa, si ya hay famosos arpistas que lo hacen. Sólo hay que afinarlo. ¿Cómo? Con datos propios. Pero eso lleva tiempo.

La IA generativa pretende reducir el tiempo de tareas repetitivas, tales como la redacción o el resumen de ciertos documentos

Así lo indica la inmobiliaria JLL, quien ha lanzado JLL GPTTM como asistente de IA generativa para sus empleados. Mediante dicha herramienta podrán, por ejemplo, generar cuadros de mando con distintas gráficas según se vayan pidiendo en modo conversación con el asistente inteligente. JLL destaca que su solución solo ha sido posible gracias a haber invertido durante años en disponer de información sobre el mercado inmobiliario, con datos limpios y bien gobernados. La buena música solo se consigue con años de práctica.

Con este elenco de éxitos, ¿dónde están las posibles desilusiones?

El arpa puede no sonar tan bien

McKinsey anuncia que la IA generativa puede aumentar la productividad un 38% en temas relacionados con operaciones de clientes (por ejemplo, en atención al cliente). Por otro lado, el Worl Economic Forum pone una nota de atención y dice que tenemos que ser realistas respecto al impacto de la IA generativa, entre otras razones, porque en el pasado hemos predicho maravillas en el ámbito tecnológico que luego no se han cumplido.

Una de las causas de desilusión está relacionada con el acierto o no en el tipo de implantación que se decida. Existen tres estrategias con sus repercusiones en coste y seguridad: uso directo de una herramienta de mercado (por ejemplo, preguntar directamente a la versión de Internet de ChatGPT), que es la solución más barata, pero la más insegura respecto a compartir información sensible o temas de propiedad intelectual (algunas empresas han prohibido este uso); realizar un desarrollo propio, solución más segura, pero también más cara; o partir de una herramienta de mercado y adaptarla a las necesidades de la organización con la ayuda del fabricante de la herramienta. Ésta última es la solución más habitual (casos de PwC o JLL), si bien requiere de unos datos bien organizados y limpios. Malos datos nos pueden llevar a sesgos, errores o alucinaciones.

Una de las causas de desilusión está relacionada con el acierto o no en el tipo de implantación que se decida.

Sí, la IA generativa puede sufrir alucinaciones. Se entiende como tal cuando la herramienta genera una respuesta bien elaborada, que aparentemente es correcta, pero que no responde a los datos con los que ha sido entrenada. La IA generativa alucina cuando dice, por ejemplo, que existen evidencias de que los dinosaurios crearon una civilización y desarrollaron herramientas, o bien que comer cristales machacados es una práctica saludable pues aporta silicio, calcio, magnesio y potasio. En estos casos claramente la melodía del arpa chirría, y no nos cabe duda de que la IA alucina. Pero pueden existir otros casos menos evidentes. Podemos pedir a la IA generativa un informe económico y quizás no sepamos si alucina. No quisiera estar en la piel de alguien que manda un informe económico erróneo al CEO de una organización.

Cómo conseguir Buena melodía con la IA generativa

La famosa rima de Bécquer continúa diciendo:

¡Cuánta nota dormía en sus cuerdas,

como el pájaro duerme en las ramas,

esperando la mano de nieve

que sabe arrancarlas!

Podemos evitar el riesgo de desilusión y abandono de la IA generativa. Podemos arrancar buenas notas de esta arpa inteligente. Para esto último es bueno seguir las siguientes directrices.

Decide si comprar instrumentos o construirlos. La primera decisión es determinar si partiremos de un desarrollo de cero o de una herramienta de mercado que adaptaremos. Lo más habitual es lo segundo, si bien depende del objetivo que busquemos con la IA generativa.

Empieza con música de cámara en tu casa. Un primer paso es comenzar con sistemas acotados y de uso interno, que no estén dirigidos a los clientes. Los casos de Walmart, PwC y JLL son de IA generativa para proceso de apoyo a los empleados.

Haz primero pequeños conciertos para amigos. PwC ha comenzado con 1.000 empleados. Un despliegue por fases te permite detectar y abordar las alucinaciones antes de que sean dañinas para el negocio.

Que tu música no la escuche otro. Si te basas en una herramienta de mercado, vigila qué ocurre con tus datos de entrenamiento y con tus resultados generados, en el sentido de si son usados en otras organizaciones.

No toques cualquier partitura. Establece directrices éticas, ponte límites sobre lo que se puede hacer y no hacer con la IA generativa. Sé que apetece tocar todo tipo de melodía, pero los empleados y los clientes agradecen la buena música.

Publicado en Dirigentes Digial

 

La IA generativa también genera negocio

La IA generativa también genera negocio

La IA generativa también genera negocio

La IA generativa bien usada puede crear innovación y progreso. Repito, bien usada.

Cuando se anunció el lanzamiento del Airbus A380 a finales de la década de los años 80 corría por el mundo de la aviación un chiste respecto al papel de los pilotos en este tipo de aviones, los cuales iban a tener un alto grado de automatismo para volar, sin necesidad apenas de contar con la intervención humana. Se decía que en la cabina de vuelo habría un perro y un piloto. El papel del perro era morder al piloto en el supuesto de que este tuviera la tentación de manejar el avión en algún momento. ¿Cuál era entonces el papel del piloto? Dar de comer al perro durante el trayecto.

¿Ocurrirá algo similar con la inteligencia artificial (IA) generativa? ¿Nos suplantará y tendrá un perro para que le demos de comer, al perro o la propia IA con nuestros datos? No necesariamente, más bien tendremos nuevas oportunidades.

¿Qué es esto de la IA generativa?

Hablamos de la inteligencia artificial, como si fuera algo único, pero en realidad existen distintos tipos de inteligencia artificial. La IA consiste en la simulación de algunos de los procesos del pensamiento humano (algunos, no todos), tales como el razonamiento, la planificación, la resolución de problemas, el utilizar conceptos abstractos o el aprendizaje. Dicho sea de paso, para esta simulación utilizamos las matemáticas. La inteligencia artificial no tiene nada de transcendental, ni es el toque divino de un dedo humano. Solo matemáticas.

Con estas matemáticas hemos sido capaces de diseñar sistemas capaces de generar contenidos, textos, imágenes o sonidos, a partir de datos ya existentes (llamado datos de entrenamiento) y en respuesta a las indicaciones que les demos. Es lo que se conoce como IA generativa. Su fundamento consiste en identificar patrones existentes en los datos de entrenamiento y generar nuevos datos de naturaleza similar. Le podemos indicar que nos hable como lo haría Yoda, el maestro Jedi de la Guerra de las Galaxias, y con la fuerza bien podría.

Dependiendo del tipo de datos que queramos generar se han diseñado una serie de aplicaciones especializadas. Así, para la creación de textos de propósito general tenemos ChatGPT o Bard; o bien para elaborar imágenes disponemos de DALL-E, Stable Diffusion, o Midjourney.

Las respuestas chatgepetinas de la IA generativa nos pueden llevar del asombro a la amenaza. También a pensar en oportunidades de negocio. La IA generativa puede impactar en los negocios en cuatro dimensiones: reducción de costes, incremento de la productividad, mejora de la experiencia de cliente y aceleración de la innovación.

Nos sustituye, nos complementa

Un artículo académico de Open IA, el dueño de ChatGPT, expone que el 80% de los puestos de trabajo podrían tener al menos un 10% de sus tareas afectada por este tipo de IA, y casi el 20% ver afectada su actividad en un 50%. Inevitablemente las empresas ven ahí una reducción de costes. IBM, BT o Dropbox anuncian despidos o parones en las contrataciones debido, entre otras razonas, a la irrupción de la inteligencia artificial. La IA generativa ha supuesto un cambio de tendencia: se ha pasado de automatizar tareas de naturaleza repetitiva, a automatizar actividades consideradas como creativas. Así tenemos la noticia de un actor de doblaje sustituido por una IA generativa. Pero no solo es cuestión de arte. Los servicios profesionales, la asesoría jurídica o la consultoría también se pueden ver afectados. Jugosa reducción de costes para las empresas, pero que también puede llevar a un impacto negativo en su imagen de cara a la sociedad.

No tenemos porqué convertirnos en esclavos de las máquinas. Si lo hacemos, quizás ahorremos costes, pero no por mucho tiempo.

Una visión alternativa es utilizar la IA generativa como apoyo en los procesos y de esta forma mejorar la productividad. GitHub, plataforma en Internet para el desarrollo de software y control de versiones, ha lanzado GitHub Copilot X basado en IA generativa para asistir a los programadores en la elaboración de código. Actualmente este apoyo en la IA generativa se está aplicando de manera informal por los trabajadores, que recurren, por ejemplo, a ChatGPT para la búsqueda de información y la elaboración preliminar de documentos. Bien utilizado, esto supone mejora de la productividad; mal utilizado, riesgos de seguridad y elogio de la vaguería. Por ello, muchas grandes corporaciones están prohibiendo el uso de ChatGPT hasta conseguir regular internamente su uso de forma segura y realmente productiva.

Clientes contentos, innovación sin límites

Esta IA generativa como apoyo se puede llevar a procesos de negocio y aplicarla directamente a la mejora de la experiencia de cliente. Open IA diseña aplicaciones personalizadas para empresas, basadas en su ChatGPT, de tal manera que éstas las puedan integrar en sus páginas web con el objetivo de ofrecer más servicios a sus clientes. Por ejemplo, Expedia lo utiliza para facilitar la planificación de los viajes o Shopify para que sus usuarios puedan crear descripciones de los productos que quieran vender en su plataforma. Atalassian, dueña de Jira, Confluence o Trello, dispone de su virtual teammate como asistente para cualquier tipo de dudas o para elaborar resúmenes de reuniones. En la misma dirección se mueve Micrsoft 365 Coplit, capaz de sugerirte textos para Word o de crear imágenes para PowerPonint generadas por Dall-E.

Dado que la IA generativa genera nuevos contenidos, ¿por qué no usarla para crear nuevos productos? Es su aplicación en el campo de la innovación. Las empresas farmacéuticas ven grandes posibilidades en este tipo de IA para el descubrimiento de nuevas moléculas que les lleve a nuevos medicamentos, ya sean genéricos o incluso adaptados a ciertos pacientes. Pero su uso va más allá. La IA generativa se puede usar como fuente de entrenamiento, para otras IA (como el machine learning) o para las personas. Mediante la IA generativa se pueden crear, por ejemplo, imágenes de radiografías para formar a médicos, ejercicios docentes para alumnos, o casos legales para mejorar la asesoría jurídica.

No todo tiene que ser dar de comer a un perro que nos vigila. No tenemos porqué convertirnos en esclavos de las máquinas. Si lo hacemos, quizás ahorremos costes, pero no por mucho tiempo. Si nos apoyamos en la IA generativa, podemos crear nuevas oportunidades nunca vistas.

Publicado en Cinco Días

 

ODS con inteligencia

ODS con inteligencia

ODS con inteligencia

La IA puede aportar soluciones para llevar a cabo un desarrollo sostenible

Imaginemos que hace unos días me encontraba en un congreso científico. La primera parte del congreso había transcurrido sin mucha novedad en las exposiciones. Correspondía ahora ese café de media mañana que sirve de networking, que no es otra cosa que hablar y relacionarse con otros colegas. Yo removía mi café expreso con la cucharilla, ausente de la conversación en la que me encontraba networkeando, en un movimiento automático y repetitivo.

Desperté a la realidad cuando me enganché, como un oyente intruso, a la conversación de otras dos personas que a mi lado formaban su propio corrillo.

  • ¡A ver qué nos cuentan ahora sobre los ODS!
  • Espero que sea más interesante que lo escuchado hasta el momento. Sin duda, la inteligencia artificial está ayudando a los ODS.
  • No sin riesgos.
  • Lo iremos viendo, pero de momento hay grandes esperanzas.

La interlocutora comenzó a relatar todo su conocimiento sobre las iniciativas de inteligencia artificial relacionadas con los ODS.

Buenos objetivos con buena inteligencia artificial

La inteligencia artificial es una herramienta y como tal, podemos usarla para unos fines u otros. Uno de tales fines bien puede, y deben, ser los ODS.

En este sentido, el reconocimiento de imágenes junto con el aprendizaje automático (machine learning) resulta de especial utilidad. Por ejemplo, se ha utilizado para identificar zonas expuestas a altos niveles de pobreza analizando las imágenes por satélite de las regiones en estudio. Mediante el reconocimiento de imágenes se pueden reconocer infraestructuras, tales como carreteras, zonas urbanas, embalses o granjas, y analizar su nivel de construcción y mantenimiento. Esto permite conocer el nivel de desarrollo de cada zona. Por lo general, el acceso a estas zonas es complicado y la información sobre ellas escasa. Este sistema permite analizar grandes zonas de forma eficaz y precisa.

Detrás de estas mismas tecnologías de reconocimiento de imágenes y machine learning se encuentran sistemas que pueden alertar sobre desastres climáticos o bien identificar rápidamente la malnutrición infantil. En este último caso, mediante técnicas de reconocimiento facial se puede analizar en poco tiempo si un niño sufre desnutrición, identificando de forma temprana patrones incipientes causados por la inanición, para así poder poner remedio antes de que sufra las consecuencias de la falta de alimento.

La inteligencia artificial es una herramienta y como tal, podemos usarla para unos fines u otros: por ejemplo, los ODS

No todo es reconocimiento de imágenes. El análisis masivo de datos también ayuda al cumplimiento de los ODS. En Colombia se ha creado un banco genético de semillas de fríjoles, yuca y forraje con el objetivo de poder adaptarlas a posibles cambios climáticos. La iniciativa, que ha recibido una subvención de 17 millones de dólares de la Fundación Bezos para la Tierra, incorpora además técnicas de inteligencia artificial para conocer con antelación el posible crecimiento de las semillas y evitar, entre otras cosas, problemas por falta de biodiversidad en la naturaleza.

Relacionado específicamente con el ODS 3 Salud y Bienestar, la inteligencia artificial se viene utilizando en la investigación de fármacos, ya sea para predecir la toxicidad de los medicamentos, sus propiedades fisicoquímicas o bien generar nuevas medicinas. Con ello se consigue reducir el tiempo de investigación, pasando de años a meses.

  • Como ves –concluyó la interlocutora–, muchas posibilidades de la inteligencia artificial para los ODS.
  • El problema –respondió su compañero de café– es el uso indebido que se pueda hacer de estas posibilidades.

 

La cosa de puede torcer

La inteligencia artificial no está exenta de riesgos. Esto no significa dejar de usarla, sino saber cómo usarla. Conducir un vehículo también tiene riesgos y no por ello vamos andando a todos los sitios, sino que conocemos los riesgos y aprendemos a cómo movernos por las ciudades. La Unión Europea es muy consciente de esto posibles riesgos y está elaborando una legislación para regular la inteligencia artificial.

Según su borrador actual, existen ciertos usos de la inteligencia artificial que tienen un riesgo inaceptable, como son la manipulación de las personas, especialmente de grupos vulnerables. Otros usos de la inteligencia artificial se consideran de riesgo alto e incluyen actividades relacionadas con el reconocimiento facial, la gestión de infraestructuras, la educación, el empleo, el control de fronteras o la migración de personas. Estamos hablando de los ámbitos de los ODS.

Los ODS abordan acciones sobre grupos especialmente vulnerables, susceptibles de aceptar cualquier riesgo por un pequeño beneficio. El reconocimiento facial para identificar la malnutrición se puede convertir en clasificación de personas; el análisis de infraestructuras puede servir para el control de la población; la investigación de semillas o de nuevos fármacos puede acabar favoreciendo solo a grupos reducidos, sin garantizar su acceso universal. No digo que vaya a ocurrir, digo que puede ocurrir. Por ello tenemos que estar vigilantes.

La inteligencia artificial no está exenta de riesgos. Esto no significa dejar de usarla, sino saber cómo usarla.

Otro dilema es la huella de carbono que genera la inteligencia artificial. Hemos hablado de sistemas de inteligencia artificial que alertan sobre desastres climáticos, mientras la propia inteligencia artificial genera toneladas de CO2. Se estima que el entrenamiento de GPT3, el modelo de lenguaje detrás de ChatGPT, generó 500 veces más carbono que un solo viajero en un vuelo de ida desde Nueva York a San Francisco. Otra cuestión que resolver y en ello estamos.

  • Como ves –concluyó el científico con un gesto de incertidumbre–, luces y sombras…
  • Habrá que iluminar las luces.

 

Estupidez artificial

Los dos científicos se separaron y disolvieron en la masa de asistentes. Inevitablemente me vino a la cabeza la idea de estupidez artificial, que consiste en dejar que la inteligencia artificial decida por nosotros. En pensar que solo existe un camino para la inteligencia artificial y que ese camino excluye o limita al ser humano.

La inteligencia artificial puede ser nuestra aliada o nuestra enemiga para el cumplimiento de los ODS. Depende de nosotros. Para evitar caer en la estupidez artificial aplicada a los ODS, propongo 4 sencillos pasos:

  1. Analizar las consecuencias, buenas y malas, de una inteligencia artificial para el desarrollo de un objetivo ODS.
  2. Pensar de qué principios partimos para aplicar una inteligencia artificial. Si queremos buscar, por ejemplo, la equidad o garantizar la autonomía humana.
  3. Explicar cómo funciona una inteligencia artificial: la forma en la que actúa, sus limitaciones o sus posibles sesgos.
  4. Por último, y más importante, dejar que la persona decida en qué medida quiere que la inteligencia artificial medie en su vida, por muy loable que sea el objetivo.

Concluyó el café y todos volvimos a la siguiente ponencia, sobre el uso de la inteligencia artificial para el desarrollo de los ODS.

Publicado en El Español

 

Pin It on Pinterest