Algoritmos generando nuevos algoritmos, ¿es el inicio de una nueva era en la inteligencia artificial?

Algoritmos generando nuevos algoritmos ¿es el inicio de una nueva era en la inteligencia artificial?

23 septiembre, 2021 Jesús López Lobo

Compártelo:

Lo que ha llevado 30 años descubrir, una inteligencia artificial lo ha hecho en pocos días

En los últimos años la Inteligencia Artificial (IA) se ha convertido en el attrezzo que todo proyecto debe ponerse si pretende triunfar en la fiesta. La irrupción de la IA en casi todas las disciplinas del conocimiento ha dado lugar a una falsa sensación de desarrollo y madurez que, en realidad, la IA aún está lejos de alcanzar.

La realidad es que, en la práctica, la IA no deja de ser en muchas ocasiones un ingrediente que solo añade automatización en el procesamiento de la información (lo que ya hace la informática), y en otras, está lejos de ser considerado algo “inteligente“. Es cierto que la IA ha abierto un nuevo horizonte en muchos campos y sectores, pero es difícil saber hasta qué punto puede trascender del aprendizaje automático hacia la verdadera inteligencia. El progreso de la IA está siendo ciertamente caótico, donde algunos sectores concentran muchos esfuerzos y se les dota de muchos recursos (industria, servicios, etc.), y donde otros, que son claves para el desarrollo humano, sufren un abandono total o, en el mejor de los casos, una atención testimonial. La IA se mueve a trompicones, se suceden años sin grandes logros y, de repente, tras un hallazgo concreto con eco en la comunidad investigadora y sus evidencias prácticas de aplicación, parece que por fin la IA nos acerca a escenarios futuristas y utópicos con los que todos hemos soñado.

Todo va más despacio de lo que sospechamos. Al ser inundados constantemente con noticias sobre avances de la IA se pierde la importancia o el impacto real de cada descubrimiento. La IA no es ni una tecnología ni una herramienta, ni siquiera un campo científico: ya es vista por muchos (entre los que se incluyen los que aquí escriben) como un viaje de investigación científica a largo plazo, en el que confluyen varias disciplinas (computación, matemáticas, neurociencia, biología, entre otras). Es un largo camino por recorrer.

¿Alguien diría que la carrera espacial es una tecnología concreta?

Lo mismo ocurre con la IA. Este artículo se centra en presentar un nuevo paradigma que, salvando la dificultad de  vislumbrar su impacto y recorrido futuro, arroja indicios y evidencias tempranas de que probablemente marque la trayectoria de la IA más rupturista en los próximos años. Hablamos del machine learning automático (AutoML), y más concretamente de una de sus variantes más prometedoras y disruptivas: los algoritmos que generan nuevos algoritmos; el aprendizaje automático que genera nuevos modelos. En definitiva: máquinas que aprenden a aprender.

Desde los inicios de la IA en la ya famosa conferencia de Dartmouth de 1956, donde John McCarthy, Marvin Minsky y Claude Shannon acuñaron el término “inteligencia artificial”, este campo ha ido evolucionando a lo largo de la historia a golpe de hitos y descubrimientos disruptivos, pero puntuales, haciéndole pasar por una sucesión de “inviernos” y “veranos”.

El conocido investigador Kai-Fu Lee considera invierno de la IA aquel período de tiempo en el que “la decepcionante falta de resultados prácticos conducía a importantes recortes de financiación”. Estos inviernos ya sucedieron en los períodos de 1970-1980 y de 1987-1993. Fueron épocas en las que la realidad no fue capaz de cumplir las expectativas depositadas en la IA por la industria; la prensa; el marketing; y algunos investigadores soñadores. De hecho, hoy día algunas voces críticas en la comunidad investigadora han declarado creer que estamos a punto de entrar en un nuevo invierno, después de los años veraniegos que hemos vivido.

Desde el resurgimiento de las redes neuronales en los 2000s con los descubrimientos de Yoshua Bengio, Geoffrey Hinton y Yann LeCun, acuñando el exitoso término Deep Learning, han sido múltiples las aplicaciones prácticas que se han beneficiado de este campo por su capacidad de generalizar el proceso de aprendizaje a datos de elevada complejidad (series temporales, imagen y vídeo).

Es curioso observar que existiendo las redes neuronales desde los años 60s, protagonizaron el invierno de la IA a finales de los 70; en los 80 resurgieron de nuevo, y solo cuando la capacidad de computación ha alcanzado determinados niveles, ha sido cuando esta familia de algoritmos ha catapultado a la IA al siguiente estadio. Este es un ejemplo de cómo la IA avanza a saltos disruptivos. En contra de las visiones catastrofistas sobre un invierno inminente de la IA, algunos expertos de renombre postulan que estamos cerca de un nuevo verano de la IA. Afortunadamente son varios los indicios que hacen pensar en el acierto de este pronóstico.

El “Master Algorithm” de Pedro Domingos

Desde hace tiempo se viene persiguiendo el santo grial de la IA, el “Master Algorithm” de Pedro Domingos, un algoritmo capaz de aprenderlo todo, tal y como lo hace el cerebro de los humanos. Hasta ahora, la IA solo ha superado al ser humano en la realización de algunas tareas concretas (ojo, no exento de un mérito increíble) como juegos tradicionales (ajedrez, Go, Jeopardy!); videojuegos; el test SquAD de comprensión lectora de Stanford; algunos diagnósticos médicos; predicción de la ocurrencia de crímenes, etc.

La IA de hoy en día es específica, solo se puede especializar y ser competente en una única tarea a la vez. Esta es precisamente una de sus limitaciones más importantes en la actualidad: cada tarea requiere desarrollar una IA concreta (con permiso de una rama emergente denominada multitask learning, que son lograr una IA para todas las tareas, está haciendo avances en esta línea).

Es aquí donde la Artificial General Intelligence (AGI) o strong AI encuentra su razón de ser. Una rama emergente de la Inteligencia Artificial — otrora entendida como un paradigma inalcanzable — que pretende llevar al aprendizaje de la máquina hasta el extremo, logrando que un ente artificial entienda o aprenda a realizar cualquier tarea como si de un humano se tratara, adquiriendo habilidades cognitivas. Un objetivo sumamente ambicioso, y al que están dedicados no pocos esfuerzos de investigación por los grandes centros mundiales en IA. Una meta que requiere conocer cómo funciona nuestro cerebro para poder replicarlo, de representar la realidad de otra manera no tan rígida, de conseguir cómo recordar lo importante, fijarlo, y olvidar lo demás, … Todos ellos retos que también persigue la neurociencia.

Aprendizaje automático auto-configurado

Algo más mundano y menos ambicioso, pero también un paso muy importante para agilizar el desarrollo de la IA es lo que se pretende alcanzar (y que se ha conseguido en parte) con el aprendizaje automático auto-configurado (AutoML). Esta es otra rama de la IA con un propósito a priori más alcanzable: desarrollar métodos que sean capaces de construir/configurar partes de un modelo de aprendizaje automático sin intervención humana o, al menos, la mínima posible.

Por ejemplo, encontrar los valores adecuados de los parámetros de un algoritmo de aprendizaje (“hyperparameter tuning”), encontrar la mejor arquitectura de una red neuronal, o bucear en la capacidad predictiva de un conjunto de diferentes algoritmos para dar con el que mejor rendimiento tiene en una tarea concreta (“machine learning pipeline optimization”). Hoy en día se han reportado sistemas que son capaces de hacer varias de estas tareas al mismo tiempo, buscando reducir el tiempo invertido por el experto en diseñar modelos IA que funcionen bien para una tarea determinada .

Llegados a este punto, aterrizamos en la quintaesencia del aprendizaje automático auto-configurado: machine learning que genera machine learning. AutoML-Zero presentado hace menos de 1 año (Diciembre de 2020) por investigadores de Google ha supuesto un paso prometedor hacia este paradigma, en el que confluyen la optimización evolutiva y el AutoML. Aunque la idea no es del todo innovadora, y tiene bastantes similitudes con la programación genética de Koza (Genetic Programming), tiene ciertos tintes que la hacen singular.

El objetivo de AutoML-Zero es dejar a un algoritmo que diseñe todo desde cero, sin asumir nada, dejándolo aplicar tan solo operaciones matemáticas básicas (olvidémonos de usar backpropagation o gradient descent, básicos en muchos algoritmos ya existentes) a pequeños bloques de código predefinidos (funciones básicas que combinándolas entre sí, dan lugar a otras más complejas). A medida que encuentra nuevos algoritmos, AutoML-Zero  los va evolucionando durante un tiempo limitado aplicando conceptos de computación evolutiva.

Los investigadores de Google vieron cómo el sistema había evolucionado lo suficiente como para ser capaz de encontrar por sí mismo conceptos como: los modelos no lineales, los “learning rates”, o los gradientes. Es decir, la evolución de las redes neuronales de los últimos 30 años simulada por una máquina ante sus ojos. La clave parece ser que, en lugar de empezar a aplicar AutoML partiendo de complejas reglas y ecuaciones preestablecidas (que encorsetan la optimización del modelo, en cierto modo), dejaron evolucionar el algoritmo en su forma más básica sin imponer dichas restricciones.

Tan solo con la aplicación de operaciones matemáticas básicas, AutoML-Zero llegó al descubrimiento de esas reglas y ecuaciones por sí mismo. Es más, se cree que puede descubrir otras nuevas (nuevos bloques), que hemos podido perder por el camino de la investigación, que alumbren el futuro de la IA en los próximos años. Incluso se puede aplicar a dominios en los que no hay muchos expertos trabajando, y en los que una IA de este tipo pueda “bucear” e ir sacando a la luz claves difíciles de encontrar. Salvando las evidentes distancias que hay con la ciencia ficción es inevitable ver algunas similitudes con los ISO (algoritmos sin control surgidos de código fuente supuestamente controlado) de la película Tron Legacy.

Hasta ahora se pensaba que quizás el camino más directo para llegar a una AGI era combinando varios algoritmos, cada uno especializado en una tarea concreta, y de esta manera generar un conglomerado que fuera capaz de acercarse al desempeño de un ser humano en muchas tareas diferentes. De hecho, esta estrategia es la adoptada por el denominado aprendizaje neuronal multitarea, que engrana varias redes neuronales entre sí alrededor de una “espina dorsal” que extrae las características de los datos de entrada de valor para las tareas a resolver.

Ahora parece que el camino puede ser diferente, y no lejano al que hemos seguido los humanos para evolucionar y llegar hasta el momento actual. Partir de algo simple, y dejarlo evolucionar, hasta que el Darwinismo nos lleve hasta algo más complejo, tanto como para ser considerado una AGI de verdad. Como podemos imaginar esta carrera evolutiva hacia la AGI no está exenta de problemas, e incluso de riesgos. Aunque los autores de AutoML-Zero aseguran haber reducido el sesgo en algunas áreas (ej: el espacio de soluciones), dicho problema sigue presente, si cabe acrecentado en muchas otras.

Si ahora mismo tenemos que hacer frente al problema planteado por el sesgo que subyace en algunos simples algoritmos, influenciados por determinados datos (desbalanceados) y/o parámetros mal tuneados.

  • ¿Cómo no preocuparnos del sesgo que puede haber en algo que evoluciona de esta manera, desde estructuras, operaciones, y programas simples sin control aparente?
  • ¿Hasta dónde los bloques simples que maneja la IA pueden heredar o incluso acrecentar dichos, o los operadores que aplica, o las mutaciones que va considerando, o la función objetivo (fitness) que rige la selección de los algoritmos durante la evolución, o las poblaciones de algoritmos que se van creando y reproduciendo entre ellos a lo largo de la evolución?
  • ¿Cómo afecta al resultado la componente aleatoria presente en los algoritmos de computación evolutiva? A pesar de que los autores de AutoML-Zero destacan que es más fácil de interpretar y transferir que otras soluciones existentes (ej: redes neuronales),
  • ¿Cómo hacer que los algoritmos evolucionados sean realmente transparentes y explicables? Con relación a esto último, si hoy en día la explicabilidad de los algoritmos es un aspecto crucial por la preocupación de saber cómo algunos de ellos llegan a producir sus decisiones (aun conociendo los fundamentos matemáticos que rigen sus procesos de aprendizaje), imaginémonos dónde va a quedar la explicabilidad después de descubrir nuevas reglas o ecuaciones, y de dejarlo evolucionar sin control aparente.

Este avance puede que marque una nueva manera de construir IA o, puede que sea otro descubrimiento más y se pierda en el estado del arte de nuestros proyectos y publicaciones. Y aquí viene a nuestra cabeza el famoso “Juego de la vida” de John Horton Conway, junto con el libro “A New Kind of Science” de Stephen Wolfram. Algo que en su momento hizo pensar que los autómatas celulares iban a tomar un protagonismo desmedido en el campo de la computación y de la IA.

Del mismo modo, puede que los campos de especialización presentes ahora mismo en la IA cambien radicalmente si enfoques como AutoML-Zero se hibridan con la computación cuántica para salvar el esfuerzo computacional que supone simular generaciones y generaciones de algoritmos que evolucionan al unísono, combinándolos entre sí y mutándolos para desarrollar propiedades de generalización únicas en su especie.

Llegará un momento — si es que no ha llegado ya– en el que tendremos que decidir: avanzar al ritmo actual, lento pero seguro (solo en cierto modo), tardando en resolver algunas de las problemáticas actuales, o dejarnos llevar y ver hasta dónde enfoques más descontrolados pueden hacernos avanzar.

“The question whether a computer can think is no more interesting than the question whether a submarine can swim”. Edsger W. Dijkstra

Nota: Javier Del Ser ha colaborado en la redacción de este artículo, por lo que es considerado co-autor del mismo.

**Por motivos técnicos no puede aparecer como co-autor en la ficha de colaborador.

Sobre Jesús López Lobo

Doctor en Inteligencia Artificial por la UPV/EHU: Máster de Inteligencia Artificial Avanzada de la UNED, e Ingeniero en Informática por la Universidad de Deusto. Desde que dio sus primeros pasos como desarrollador de software en 2003, realizó labores de ingeniería del software y gestión de proyectos hasta 2015. En 2012 inició su aprendizaje en Inteligencia Artificial, y hasta el momento no ha parado de aprender y fascinarse por esta especialidad. Comenzó realizando cursos online por su cuenta; se lanzó a estudiar un Máster de Inteligencia Artificial, hasta que finalmente obtuvo su doctorado cum laude con mención internacional. En Nueva Zelanda, durante seis meses estuvo aprendiendo redes neuronales por impulsos.

Su día a día como investigador en el equipo de Inteligencia Artificial de TECNALIA tiene una doble vertiente. Por un lado, participa en la concepción y desarrollo de proyectos de I+D nacionales e internacionales. Por otro, es un activo investigador especializado en algoritmos de aprendizaje en tiempo real, publicando muchos de ellos en revistas y conferencias de alto impacto, y llevando a cabo tareas de divulgación científica.

Dejar un comentario

* Campos obligatorios