AI Revolution
Que la Inteligencia Artificial (IA) es una tecnología que ha entrado de lleno en nuestras vidas y que lo impregna todo, es ya una certeza. Como también lo es que, en realidad, hay poca gente que sabe cómo funciona y, sobre todo, hasta dónde puede (o debe) llegar. ¿Sustituirá realmente a las personas? Las posibilidades de aplicación son prácticamente infinitas, pero existen también unos retos éticos que no se pueden dejar de lado.
Ramón López de Mántaras es Profesor de Investigación del CSIC, pionero de la IA en España y uno de los grandes expertos en la materia a nivel mundial. Hemos conversado con él, y aunque en su entusiasmo se percibe lo que le lleva atando al estudio de la IA desde hace más de 40 años, también alerta de los peligros de un desarrollo poco responsable. Nos desgrana los pros y los contras, en la siguiente entrevista.
Parece que apuntamos a una nueva primavera de la IA, efectivamente. Por ponerlo en contexto, esta sería la tercera primavera de la IA, y nos referimos a ellas como primaveras porque fueron una consecuencia de sendos inviernos. Y esos inviernos fueron consecuencia, a su vez, de haber creado falsas expectativas. Es decir, en un momento dado se prometió mucho que luego no se pudo cumplir. Se hicieron una serie de predicciones absolutamente erróneas y la decepción por no cumplir con unas expectativas desmesuradas y ver que se daban resultados erróneos es lo que provocó esos inviernos en los que la financiación de la IA era escasa o incluso inexistente.
Desde finales de los 80 hasta 2008 aproximadamente ha habido un periodo de tranquilidad, de crecimiento sostenido, en el que la IA gozaba de buena salud sin ser una moda. Pero hacia 2008, con las redes neuronales profundas y el ‘Deep Learning’, hay una explosión y un crecimiento exponencial. Desde mi punto de vista, nos estamos situando en un ‘hype’ y se está cometiendo de nuevo el error de crear expectativas exageradas que no se van a cumplir.
Y para mí, un ejemplo de ello es la moda de los modelos de lenguaje como GPT o DALL-E. Hay personas que hablan de que es un paso definitivo hacia la IA general, lo cual no es así. En mi opinión, esos sistemas de lenguaje están muy limitados porque solamente combinan secuencias de palabras en base a información probabilística, pero sin referencia a su significado. La escalabilidad aumentando el número de parámetros no resuelve el problema, porque la IA general requiere de la semántica y la pragmática del lenguaje y conocimientos generales sobre cómo funciona el mundo. Es decir, conocimientos de sentido común.
La situación es distinta a los dos inviernos anteriores, porque ahora las grandes empresas del mundo están apostando por la IA, por lo que el peligro de que no haya recursos o financiación no es grande. Con el apoyo de tantos actores incluso a nivel gubernamental, no es previsible que la inversión vaya a disminuir. Pero sí es posible que haya un cierto desencanto y esto haga que se desinfle la moda.
Y hablo de decepciones por cuestiones como, por ejemplo, el coche autónomo, que Elon Musk lleva prometiendo que va a llegar desde hace muchos años, pero, sin embargo, todavía estamos lejos. Y eso está creando un desencanto en el sector automovilístico. Creo que con el ChatGPT y similares también habrá un desencanto, porque se verá que tiene unas limitaciones intrínsecas que son insalvables.
En mi opinión, nos vamos a dar cuenta de que cosas que se hicieron hace 20 años en referencia a la IA simbólica serán útiles para añadir a los sistemas actuales. Creo que el futuro pasa por sistemas híbridos en los que aprovecharemos los puntos fuertes del Deep Learning y les añadiremos conocimiento. Eso, a su vez, hará que los sistemas de IA necesiten ser entrenados con menos datos y, por lo tanto, serán más sostenibles energéticamente, ya no consumirán las enormes cantidades de energía que requieren ahora.
Para mí hay una cosa fundamental: cualquier empresa antes de dar el paso de automatizar o digitalizar algo, tiene que evaluar si éticamente es deseable. Yo creo que es un error pensar que cuanto más te digitalices y más inteligencia artificial apliques, automáticamente vas a ser más competitivo. Creo que si fuéramos más críticos valoraríamos más la empresa menos digitalizada y más humana, que te permitiera hablar siempre con personas en lugar de con máquinas.
Habrá muchos aspectos en el negocio de una empresa en los que sí será conveniente y ético aplicar la IA, pero en mi opinión, habría que estudiarlo con mucho más detenimiento. A mí me gustaría pensar que el mundo se decantará hacia una dieta digital y hacia un mundo más analógico.
Creo que la privacidad está perdida porque, pese a que hay gente que tiene conciencia y tiene cuidado, la mayoría (y no solo los jóvenes) no se preocupa en absoluto por el tema de la privacidad. Yo solamente veo dos formas de solucionarlo: regular con sentido común y educar para que futuros tecnólogos e ingenieros sean conscientes de esto. Es decir, que en las carreras tecnológicas e informáticas la ética tenga mucha más presencia y que se planteen la cuestión de que, aunque algo sea tecnológicamente posible, no significa que se deba hacer.
La IA, pero también la informática, ya lleva años haciéndolo. Para mí, la automatización está teniendo más impacto, independientemente de que haya inteligencia artificial o no detrás. Pero yo creo que no estamos haciendo bien la transformación digital, porque tenemos que dejar siempre como backup la solución analógica. Estamos expulsando a mucha gente del sistema -y no solamente a gente mayor– por el simple hecho de no tener acceso a internet o no tener móvil.
Primero tiene que haber gente capaz de usar bien y explotar estos sistemas. En aplicaciones como Mindjourney o DALL-E, se necesita personal cualificado para generar los ‘prompts’. Y en ese sentido, uno de los nuevos trabajos de los que se habla es precisamente el de ‘prompt engineering’, personas que sean muy hábiles escribiendo estos ‘prompts’.
Pero, como decía antes, siempre sin perder de vista las consideraciones éticas y su impacto. Por ejemplo, una de las críticas al chat GPT es la desinformación. Usar GPT como sustituto de un buscador es una imprudencia, porque responde cosas absolutamente falsas. Y hay que ir con cuidado con los riesgos existentes y ser muy críticos con la capacidad que tiene esta tecnología de desinformar.