robots-tecnalia

La visión artificial al alcance de cualquier neurona

Compártelo:

“What is real? How do you define ‘real’? If you’re talking about what you can feel, what you can smell, what you can taste and see, then ‘real’ is simply electrical signals interpreted by your brain.”. Morpheus

Se estima que un bebé recién nacido dispone de unos 100.000 millones de neuronas, pero las conexiones entre ellas son escasas. Ya en ese mismo instante el cerebro está en constante aprendizaje, generando nuevas sinapsis. Es un sistema ávido de datos queriendo aprender a ver, a caminar, a entender el lenguaje, a tener consciencia… Los ordenadores están realizando un camino similar, y van aprendiendo con resultados sorprendentes.

Con la aparición de las primeras computadoras programables, allá por 1936, empezamos a soñar con mundos donde humanos y robots convivieran de manera cotidiana (“Yo, robot”. Isaac Asimov, 1950). Este sueño parece más cercano cada día.

El sueño
Ramón y Cajal y Sherrington con sus estudios relativos al cerebro humano fueron la inspiración para que Frank Rosenblatt en 1957 implementara el perceptrón. Se trata de una unidad básica de inferencia en forma de discriminador lineal. De manera conceptual podríamos resumir que al recibir una señal, el perceptrón, mediante los pesos asignados a sus sinapsis, genera una salida de activación o inhibición.

La combinación del perceptrón con otro tipo de neuronas artificiales y con la ampliación del número de capas que inicialmente diseñó Rosenblatt han ido consiguiendo generar redes de diferentes topologías cada vez más complejas.

Esta complejidad se ve reflejada, computacionalmente, en un alto coste de tiempo para el entrenamiento de las redes, para crear bien esas sinapsis que nos generen un criterio de salida a una entrada determinada. Con los años han ido mejorando las capacidades de almacenamiento y computación que nos han traído a este histórico momento, en el que, conseguir unas redes neuronales bien entrenadas, no es una quimera.

Gracias a la proliferación de las GPUs se ha producido la eclosión del Deep Learning. Ahora debemos aprender nosotros a enseñar (y diseñar) estas redes neuronales articiales. Una revolución está sucediendo, y somos parte de ella.

Aprendiendo a enseñar
Hierba, verde, árbol. ¿Reconoces estas palabras? Tu cerebro aprendió hace tiempo a clasicar estos objetos. ¿Y si hablamos de zea mays, setaria verticillata, amaranthus retroflexus? Seguramente, si no eres un gran amante de las plantas, no sepas identicar estos nombres siquiera. Desde el grupo de Computer Vision estamos diseñando una red neuronal que nos ayude a diferenciarlas, pero, como dice nuestro compañero Jose Ángel: A día de hoy la visión artificial en ningún momento iguala a la visión humana.

Las grandes compañías, que trabajan en el ámbito de Computer Vision, están consiguiendo resultados con casi la misma precisión que la visión humana. Aunque seguimos teniendo que mirar dos veces si queremos diferenciar un muffin de un chihuahua.

Con el Deep Learning en su momento más dulce de los últimos tiempos y con niveles de madurez tecnológica altos, se están realizando progresos muy importantes, pero también estamos aprendiendo valiosas lecciones. Saber diseñar y enseñar (bien) una red neuronal no es baladí. La variedad de ejemplos para que estos sistemas aprendan de manera equilibrada es de vital importancia.

Como explican desde IBM en un artículo publicado en su blog los sistemas de inteligencia articial aprenden lo que se les enseña, y, si no se enseñan con conjuntos de datos sólidos y diversos, la precisión y la imparcialidad podrán estar en riesgo.

Lo genial es que una vez que hemos enseñado a una red a leer una cara, podemos enseñarle a intercambiar las caras como si de una película de Nicolas Cage se tratase. Esta técnica llamada DeepFake en la que se sustituye la cara de un sujeto por la de otro está consiguiendo resultados espectaculares.

El ámbito de Computer Vision ha sido seguramente el más beneciado por el momento que vivimos, donde todo el mundo tiene una cámara en su bolsillo. Sin embargo, otros ámbitos han sabido sacar provecho de las redes neuronales para otros fines.

Honda estuvo durante más de treinta años trabajando en ASIMO para hacerlo andar, pero la gente de Boston Dynamics ha creado otro robot humanoide al que, mediante cierto tipo de redes neuronales, no solo le han enseñado a caminar sino a realizar maniobras increíbles como parkour.

El procesamiento de lenguaje natural ha sido otro campo con mucha mejora gracias a las redes neuronales. Si hoy en día todos disponemos de una cámara en el bolsillo, calcula la cantidad de literatura que existe para enseñar a las computadoras a entender los textos, traducir o contestar a preguntas. Hoy es el día en el que crear tu propio chatbot está al alcance de (casi) cualquiera.

Aprendiendo a… tener consciencia
Las tres leyes de la robótica escritas por Isaac Asimov están pensadas para servir como medida para proteger a los humanos de los robots. Quizás el peligro no sean los robots, los ordenadores, o los algoritmos, sino nosotros mismos. En el año 2015 más de mil expertos en inteligencia artificial firmaron una carta para evitar que la IA caiga en manos de la industria armamentística. A juzgar por el pesimismo de algunos de sus firmantes, como Stephen Hawking, vamos por mal camino. En sus propias palabras: El éxito en crear inteligencia articial será el mayor evento en la historia de la humanidad. Desafortunadamente, puede que sea también el último.

De todos modos, esto tampoco es nuevo, hace más de quinientos años que Shakespeare (1564-1616) afirmaba que las cosas no son buenas o malas en sí mismas, es el pensamiento lo que las hace así. Creo que ahí está el gran reto.

Sobre Miguel Linares De La Puerta

Ingeniero en Informática por la Facultad de Informática de San Sebastián, EHU-UPV (2006) con mérito de una Matrícula de Honor, compaginó el proyecto fin de carrera como becario del Departamento de Lenguajes y Sistemas Informáticos de la Facultad de Informática de San Sebastián. En junio de 2008 fue contratado por Robotiker-TECNALIA como Full Stack Developer (sistemas LAMP/Java) en el área de Semántica.

En mayo de 2012 pasa a formar parte del grupo Computer Vision de Tecnalia Research & Innovation donde ha realizado desarrollo de proyectos con PLC Siemens (Sistema de posicionamiento de botes de alta precisión para Envases Metalúrgicos de Álava), OpenCV y LabWindows/CVI (proyectos para Arcelor Mittal). Desde 2017 pertenece a la cuenta BASF para la cual desarrolla proyectos con Deep Learning para Computer Vision.

Dejar un comentario

* Campos obligatorios