inteligencia-artificial-tecnalia

La inteligencia de las sumas y restas

Compártelo:

En la actualidad la Inteligencia Artificial -con sus siglas IA, o AI en inglés- es como la levadura de cualquier receta panadera: si no la echas, lo que te sale no es pan, sino torta. Esas dos palabras son en la actualidad un reclamo comercial para casi cualquier producto tecnológico ya que transmiten una sensación de sofisticación y avance tecnológico futurista.

Esto se debe en parte a la noción soñadora que nos viene de la ficción, ya sea escrita o audiovisual. El otro componente tiene una vertiente irracional a caballo entre lo visceral y espiritual. La fusión de esos dos términos resulta en una fórmula incontestablemente atractiva: “inteligencia” evoca de alguna manera el deseo del ser humano por entenderse y encontrar su identidad, mientras que “artificial” empodera al humano al aludir directamente a su capacidad para crear.

Es de alguna manera una expresión que sugiere la conquista del ser humano sobre los misterios de la vida, la capacidad de crear un ser pensante a partir de la ciencia y la razón. No es de extrañar que el uso de esas dos palabras se haya convertido en dogma para cualquier acción publicitaria relacionada con innovación tecnológica.

Pero… ¿qué es realmente la inteligencia artificial? ¿cuáles son sus límites?

La mayoría tenemos una preconcepción del concepto de IA que viene directamente de la ficción: novelas como “Yo, Robot” de Isaac Asimov y 2001: “Una Odisea Espacial” de Arthur C. Clarke; películas como “Matrix”, “Terminator” y “Ex Machina” o series de televisión como “Futurama”, “Westworld” y “Los 100”.

Lo que tienen en común todos estos personajes es que tienen una inteligencia similar a la humana, en ocasiones incluso más desarrollada. Son seres autoconscientes capaces de razonar, aprender, interactuar con el entorno y tomar decisiones. De hecho, otra característica que suelen compartir estos personajes de ficción es que son tan parecidos a los seres humanos que incluso desarrollan deseos por acabar con sus competidores (la humanidad) y dominar el mundo.

Esta percepción de la IA choca con nuestra realidad científico-técnica en la que no estamos ni siquiera cerca de esa fantasía. Para un científico de datos la IA es un conjunto de algoritmos usados para procesar información. Ni más, ni menos. El término fue acuñado por John McCarthy, Marvin L. Minsky y Claude E. Shannon en 1956 durante la Conferencia de Darmouth.

En ese evento un grupo de científicos se reunieron para tratar de parametrizar cada característica de la inteligencia y el aprendizaje, pensando que podrían llegar incluso a describirse de forma tan precisa que las máquinas pudiesen imitarla. Ese germen del concepto de “inteligencia artificial” dio lugar a la descripción más común que manejan los científicos de datos en la actualidad: “sistemas que imitan la capacidad cognitiva del ser humano para aprender de un conjunto de datos externos la manera correcta de hacer interpretaciones de forma flexible”.

Un ejemplo de visión artificial sería crear un sistema capaz de diferenciar visualmente perros y gatos dada una imagen. Para ello, el algoritmo debe aprender las diferencias visuales entre perros y gatos de un “conjunto de datos”, es decir, una serie de imágenes en la que aparecen perros, y otra en la que aparecen gatos.

La reciente revolución de la Inteligencia Artificial se inició en 2012 con la aparición de una tecnología llamada “Deep Learning”. Se trata de un conjunto de algoritmos que se basan en las redes de neuronas: conceptualizaciones matemáticas que tratan de imitar la morfología, disposición e interacción de las neuronas del cerebro humano.

Las asombrosas capacidades de estos algoritmos a la hora de aprender e interpretar datos derivaron en múltiples aplicaciones en diferentes campos científico-tecnológicos que afectan a todos los sectores productivos. Se trata de una verdadera revolución que no ha hecho más que empezar.

Los sistemas modernos basados en redes generativas son capaces de crear representaciones visuales imitando datos externos.

Y aunque estos sistemas basados en redes neuronales son muy potentes a la hora de realizar tareas altamente específicas, no dejan de ser algoritmos de procesado de datos. Hoy en día los agentes de IA son herramientas: cada algoritmo sirve para un único propósito y nada más; como una llave inglesa, un taladro o una calculadora.

Son muy buenas herramientas, pero no van más allá. Esta realidad hace que el término de “Inteligencia Artificial” quede de alguna manera exagerado, ya que transmite unas capacidades que estos sistemas ni tienen ni están cerca de tener. En palabras de Daniel Innerarity (UPV/EHU) “la inteligencia se reduce a gestión de datos y cálculo”.

Sobre Miguel González San Emeterio

Graduado en Física por la Universidad de Cantabria con mención en Física Aplicada (2015) con experiencia internacional de 10 meses en la Universidad de Lund, Suecia (programa ERASMUS) y Máster de Física y Tecnologías Físicas por la Universidad de Zaragoza (2017).

Trabaja investigando en Inteligencia Artificial para visión por computadora en TECNALIA desde 2018. Técnicamente tiene experiencia con el conjunto de herramientas y conceptos computacionales que se utilizan para construir sistemas de aprendizaje automático de última generación en el contexto de la visión artificial. Además está acostumbrado a entornos dinámicos que requieren aprender rápidamente nuevas abstracciones, a la investigación autodirigida y al uso de nuevas herramientas para resolver un desafío dado.

Dejar un comentario

* Campos obligatorios