Back Stage

Torrens (Esade): “Hay que crear una visión crítica para evaluar el resultado de la IA”

Con un continente europeo aparentemente fuera de la carrera por la Inteligencia Artificial, existe un terreno por explorar: los sistemas especializados, que no intentan resolverlo todo, sino que se centran en un ámbito concreto.

Torrens (Esade): “Hay que crear una visión crítica para evaluar el resultado de la IA”
Torrens (Esade): “Hay que crear una visión crítica para evaluar el resultado de la IA”
Marc Torrens es profesor asociado del departamento de Datos, Analítica, Tecnología e Inteligencia Artificial de la escuela de negocios Esade.

Irene Juárez

La Inteligencia Artificial (IA), ¿es infinita o tiene un límite? Son innegables las expectativas que se han generado alrededor de esta tecnología, que ha revolucionado la vida diaria y empresarial a nivel global. Pero expertos como Marc Torrens, profesor del departamento de Datos, Analítica, Tecnología e Inteligencia Artificial de la escuela de negocios Esade, ponen en duda que haya una relación directamente proporcional entre el grado de inteligencia de la tecnología y la cantidad de datos que se le facilitan para que aprenda.

  

 

Pregunta: ¿En cinco años, nos habremos olvidado de la IA como nos hemos olvidado del metaverso?

 

Respuesta: La IA no es una moda, llevamos setenta años investigando sobre ella y se va a seguir haciendo. Lo que sí va a haber es mucho menos soufflé. Ahora hay un hype exagerado, respaldado sobre todo en los grandes modelos de lenguaje, como ChatGPT. Aunque es sorprendente lo que se puede hacer con ellos, si se profundiza en las aplicaciones reales de estas tecnologías, su uso ya no es tan evidente. Por eso, en cinco años se hablará de IA de otra forma. Las expectativas son demasiado elevadas.

 

 

P.: Más allá de las expectativas, ¿qué se puede esperar realmente de esta tecnología?

 

R.: Hasta hace tres años, la IA se dedicaba a desarrollar técnicas que permiten solucionar problemas en contextos específicos: jugar al ajedrez, conducir un coche… Son retos concretos. Ahora, esta tecnología se basa en un propósito genérico. ChatGPT, el más famoso, permite, dialogar, entre comillas, o razonar sobre cualquier tema. Y, en este sentido, la gran promesa que llega desde Silicon Valley es que cuanto más grande sea el modelo y más datos se le introduzcan para que aprenda, más inteligente se volverá. Las expectativas que nos han creado aseguran que, si vamos incrementando el tamaño del modelo, llegará un momento en que podremos alcanzar la IA general (AGI, por sus siglas en inglés). Sería un modelo capaz de hacer cualquier función de la misma forma que lo hace un humano. Nosotros no resolvemos solamente tareas específicas, sino que nuestra inteligencia nos permite realizar cualquier tipo de tarea. Si se sigue esta premisa, la IA será realmente inteligente y hasta se podrá equiparar con nuestra inteligencia. Esto, desde el punto de vista científico, cada vez se sustenta menos. El consenso dice que no vamos a poder llegar a una inteligencia equivalente a la humana sencillamente ampliando el modelo. Por varias razones: la primera es que ya no hay más datos. Estos modelos se alimentan de todos los documentos creados a lo largo de la historia de la humanidad, y ya no tenemos más textos para entrenar a esa inteligencia. Es cierto que se pueden crear documentos sintéticos, pero esto llega hasta un límite. Se ha observado que cada vez que se incrementa el modelo, el nivel de inteligencia del sistema aumenta en una proporción mucho menor. Con lo que esta ley empírica deja de ser verdadera en un cierto nivel.

 

 

P.: Es decir, que la Inteligencia de la IA también tiene un límite.

 

R.: Con la técnica actual, sí. Quizá en unos años se abra algún paradigma que permita crear algo superior.

 

 

P.: ¿Se trabaja ya en esta línea?

 

R.: Hay hipótesis, proyectos, pero a muy largo plazo. Nadie tiene la certeza de que lo que se está haciendo vaya a dar frutos. Estos sistemas aprenden solamente del lenguaje. Y es de sentido común que los humanos no sólo aprendemos a través del texto o del lenguaje, sino a través de la observación del mundo físico real que nos rodea. Esta es una diferencia muy importante. Es evidente que un sistema que sólo aprende a través del lenguaje nunca va a llegar al nivel de la inteligencia humana, porque no entiende el mundo, sólo entiende la representación del lenguaje, y eso es limitado por definición.

 

 

 

 

 

 

P.: En el ámbito corporativo se está aplicando cada vez más. ¿Ha visto ya algún plan empresa hecho con IA?

 

R.: Hay mucho menos de lo que se cree. Las compañías dan licencias de estos sistemas a los trabajadores para que lo utilicen como una herramienta más. Esto dista mucho de la idea de incorporar IA en los procesos internos de la compañía.

 

 

R.: Y si se diera un paso más, y las empresas llegaran a basar sus planes estratégicos en las recomendaciones de la IA, ¿qué riesgos tendría?

 

R.: Más riesgos que ventajas. Esta tecnología es no determinista. Esto quiere decir que, para un mismo problema, puede dar soluciones distintas. Lo vemos a diario: si a ChatGPT le haces hoy una pregunta, mañana te la responderá de forma diferente. Por lo tanto, no hay seguridad en que el resultado sea el correcto o el mejor.

 

 

P.: ¿La clave es cómo promtear?

 

R.: Totalmente. Promteando se mitiga el riesgo de que el sistema dé una respuesta errónea. Hay toda una disciplina que estudia las mejores técnicas para interrogar a estos sistemas y obtener las mejores respuestas. Aun así, la tecnología puede alucinar (dar respuestas que son incorrectas) y nunca tendremos la certeza de que el sistema está respondiendo en base a la realidad.

 

 

P.: ¿Por mucho que paguemos por sistemas mejorados? ¿Por mucho que elijamos el más desarrollado?

 

R.: Exacto, no tenemos la certeza de que la respuesta que obtengamos sea la más acertada. Porque el no determinismo es parte de la tecnología. A la vez, hace que tengamos la sensación de que la máquina es similar a un humano, ya que responde siempre de forma algo diferente, con un resultado casi natural. Nosotros también lo somos. Si me hace estas mismas preguntas por la tarde, no responderé con las mismas palabras. Si te encuentras un vecino en el ascensor, la conversación será cada día distinta. Sin embargo, una hoja de Excel es determinista: le das unos números y siempre va a sumar de la misma forma, no te esperas ninguna creatividad.

 

 

R.: ¿En qué condiciones sí puede ser útil la IA en el planteamiento de las estrategias?

 

R.: Para la creatividad, el brainstorming… Cuando tienes que explorar varias opciones la IA generativa permite desarrollar muchas ideas y el ser humano, el profesional, puede decidir cuál tiene más sentido. Y también para todo lo que tenga relación con el lenguaje: desde traducir hasta hacer resúmenes o fusionar documentos.

 

 

P.: Pero la IA repite, no innova. ¿Es así?

 

R.: La IA puede llegar a innovar combinando elementos, a partir de lo que ya existe. Pero es cierto que no es creativa en el sentido de que no tiene una intención de crear, como el artista. Lo que aporta no es arte ni creación en el sentido humano, porque no hay una intencionalidad ni una emoción detrás, pero sí puede hacerlo mediante la combinación. En moda, por ejemplo, la IA puede ayudar combinando estilos, buscando tendencias, diseños novedosos… Lo puede hacer de forma rápida y eficiente. Pero siempre es el artista, el diseñador, quien va a seleccionar la línea o el diseño que cree que es positivo para su compañía. La decisión siempre es de la parte humana.

 

 

P.: En cinco años, ¿qué cambios veremos producto de la implementación de la IA en la economía?

 

R.: Se está hablando ya de una burbuja económica en Silicon Valley, porque las inversiones que se están llevando a cabo son astronómicas, no hay precedentes históricos de una inversión en tecnología como la que estamos viviendo; se mide en trillones de dólares. Y esto se basa en la promesa de la que hablábamos de que se va a conseguir algo muy superior a lo que tenemos ahora sencillamente añadiendo más datos y más recursos. Si finalmente no es posible obtener una inteligencia general, habrá un momento de desilusión, cuando los inversores se den cuenta de que esto no avanza tal como se les prometió. El retorno de inversión de estas compañías no se ve por ningún lado, por el momento, están perdiendo una cantidad de dinero increíble. Esto puede estallar, y la burbuja es de dimensiones importantes, sobre todo en Estados Unidos. Sería tan importante que hay personas, como la responsable financiera de OpenAI, Sarah Friar, que ha puesto sobre la mesa un eventual rescate por parte del gobierno americano para las empresas de IA. Por otra parte, se ha exagerado la idea de que habrá una crisis laboral con personas perdiendo el trabajo porque la IA podrá hacerlo por ellas. Llevamos tres años con este boom y los procesos en las compañías no han cambiado de forma sustantiva.

 

 

P.: Si la IA es para todo el mundo, ¿qué hay que hacer para diferenciarse? ¿O haremos todos lo mismo?

 

P.: Haremos todos lo mismo, pero se trata de hacerlo bien. A veces pensamos que es algo mágico, pero siempre tiene que haber una interpretación humana del resultado. Si esto se hace bien, puede marcar la diferencia. Hay que crear una visión crítica para evaluar el resultado de la IA.

 

 

P.: En el lado contrario, ¿qué le diría a un manager que no quiera utilizar la IA?

 

R.: Aconsejo una formación continua de los empleados, para que aprendan cómo usar la tecnología. Y también estar atentos a las nuevas tendencias. Lo que vendrá en los próximos años son aplicaciones verticales para resolver problemas concretos de industrias concretas, más allá de esta idea de resolver conflictos generales. Vamos a ver aplicaciones específicas. Por ejemplo, el Harvey.ai, para bufetes de abogados. La conclusión es que va a haber cambios, quizá no en la dirección en que se nos ha prometido, pero está claro que esta tecnología está aquí para quedarse.

 

 

 

 

P.: En Europa, ¿estamos fuera de la carrera tecnológica?

 

R.: En cuanto a los modelos, tal como los conocemos en la actualidad, estamos totalmente fuera. No tenemos ni la infraestructura, ni la energía ni los recursos para entrenarlos. Ni tampoco el talento. Sin embargo, si hay una burbuja, y esos grandes modelos genéricos no terminan de evolucionar, que es lo que se espera, esto podría ser una oportunidad para Europa. Porque Europa no ha hecho esa inversión tan impresionante. Parecía que estábamos fuera, pero si ese enfoque no tiene éxito, Europa podría centrarse en hacer modelos más pequeños y dedicados a un sector concreto. No intentar diseñar un modelo que pueda desde resolver un problema informático hasta escribir una poesía, sino crear un modelo centrado, por ejemplo, en moda. Se entrena y se especializa en una tarea concreta.

 

 

P.: Ciberdelincuencia, desinformación… ¿Qué peligros entraña el uso de la IA?

 

R.: Con la IA se pueden crear contenidos que parecen verídicos y son completamente falsos, se pueden falsear personas… El problema no es sólo que es muy sencillo hacerlo, sino que hasta ahora no ha estado legislado. Es un campo muy prolífico para la delincuencia. Porque no se ha regulado bien. Pero en Europa se está empezando a hacer, y esto es interesante y necesario. Es la única región en el mundo que se ha puesto las pilas en este sentido, porque en Estados Unidos o en China no existen este tipo de regulaciones. Pero queda mucho camino por recorrer.

 

 

P.: ¿Qué más tiene que hacer el regulador para evitar los efectos dañinos?

 

R.: Estar muy vigilante ante los progresos. El problema es que va muy rápido y, tanto legisladores como educadores, van detrás de esta revolución. Hay que adaptar rápidamente la legislación a la última tecnología. Es un problema de ritmo y de comprensión: a veces, el legislador ni sabe lo que es posible hacer con la IA. Existe, además, una discusión sobre hasta qué punto hay que regular. Hay que buscar el compromiso entre regular, para evitar los riesgos, y dejar cierta libertad para innovar.