17/3/2016
Referencias:
'A begginers guide to deep neural networks', en el Google Research Blog. 22/9/2015
'The neural net, reloaded', por Jamshad Bharucha, en edge.org
'Synthetic learning', por Kevin Kelly, en edge.org
'How Google’s acquisition of DNN Research allowed it to build its impressive Google Plus Photo search in 6 months', por Frederic Lardinois, en techcrunch.com 12/6/2013
'Deep learning, semantics and society', por Steve Omohundro, en edge.org
'Inside the Artificial Intelligence Revolution. A Special Report. Pt1', por Jeff Goodell, en Rolling Stone, 29/2/2016

Aprendizaje máquina sin supervisión

tintank

El aprendizaje máquina se ha convertido en una de las áreas que generan más expectativas dentro de las ciencias de la computación. Su objetivo es que, en vez de escribir programas que resuelven problemas, se escriban programas capaces de aprender a resolver problemas por sí mismos. Se trata de programas evolutivos, en el sentido de que mejoran con el tiempo y, a la larga, son más listos que si se hubieran escrito unas minuciosas instrucciones estructuradas y precisas, las cuales no les sirven a los ordenadores para ver y comprender un mundo complejo e impredecible, tal y como lo hacen las personas.


Muchos progresos en aprendizaje máquina se han producido gracias a las redes neurales, que son, como no podía ser de otra manera en esta época, algoritmos. Greg Corrado, de Google, las describe como un modelo matemático basado en el funcionamiento de una red neural biológica, en la que existen células individuales llamadas neuronas, cada una de las cuales percibe lo que le comunican sus vecinas, para participar en el entendimiento de lo que sucede. En el modelo máquina, las unidades están compuestas por pequeñas funciones matemáticas, agrupadas en estructuras organizadas, a las que se les pide que aprendan a hacer una tarea concreta, cuyo resultado es comunicado a otras estructuras con otras tareas, que a su vez se comunican con otras, hasta que se llega a una estructura superior, capaz de tomar una decisión sobre determinado asunto, utilizando la suma de resultados de tareas de la red. En los primeros tiempos de investigación sobre redes neurales, se trabajaba con unas pocas capas, pero ahora las capas han aumentado y se han hecho más complejas, de ahí que se denomine ‘aprendizaje profundo’ a la forma que tienen las redes neurales de aprender: una unidad da una señal que va a ser útil para otra unidad, que va a dar su señal a otra, que va a dar su señal, etc. «Es como dividir un gran nudo en partes y analizar cada parte, para que toda su complejidad sea más fácil de desanudar», dice Christopher Olah, también de Google.

Una primavera de la inteligencia artificial...

El aprendizaje máquina se está infiltrando en la vida cotidiana de millones de personas, como si fuera un ingrediente mágico invisible: traducción, filtros de correo spam, reconocimiento de voz, cajeros automáticos, clasificación de elementos de todo tipo, recomendaciones al usuario, inversiones en Bolsa, domótica, coches sin conductor, etc. En pocos años, se ha expandido la escala de su desarrollo e impacto, saltando de la simulación de problemas súper sencillos en laboratorios de investigación académica, a las apps y las webs de uso popular. Las grandes compañías tecnológicas están invirtiendo miles de millones de dólares, por su potencial desarrollo y aplicación en usos industriales y comerciales. En Silicon Valley, se han fundado cientos de startups dedicadas a la Inteligencia Artificial, que es otra forma atractiva y rimbombante de llamar a las redes neurales de aprendizaje profundo.

En mayo de 2015, Sundar Pichai, CEO de Google, anunció que habían conseguido reducir al 8% los errores en reconocimiento de voz (hace dos años estaban en el 23%) y, apenas 6 meses después de adquirir la startup DNN Research, Google informó oficialmente de mejoras significativas en reconocimiento de imagen. Durante los últimos 15 años, su buscador de imágenes ha dependido de los nombres o etiquetas que los usuarios ponían o de otros textos a su alrededor, lo cual dejaba muchas imáganes no etiquetadas o aisladas, sin nombre ni contexto. La situación era que

«un niño de chupete podía identificar mejor lo que está representado en una foto que los mejores algoritmos, en los ordenadores más potentes».

Pero, en 2012, el Profesor Geoffrey Hinton de la Universidad de Toronto, y su equipo, desarrollaron un sistema basado en redes neurales, que ganó el concurso Image Net sobre visión de computadora. Esto llamó la atención de Google, que decidió adquirir la startup fundada por el equipo de Toronto para desarrollar sus ideas: DNN Research. En apenas seis meses, la investigación académica ya había sido puesta en práctica en la red semántica del buscador, conocida como Knowledge Graph. Dicen que el modelo funciona mejor de lo esperado, y que los computadores ya están más cerca de ver el mundo como lo vemos las personas… (sic)

Google también ha adquirido DeepMind, una startup fundada en Londres, dedicada a la Inteligencia Artificial que, en 2015, anunció que le había enseñado a un ordenador a aprender a jugar a varios videojuegos sencillos. Jugar a un videojuego, incluso al mítico Pong de los 70, requiere unas habilidades cognitivas sofisticadas en cuanto a percepción, conocimiento y predicciones. Hace apenas 12 años, no había algoritmos capaces de jugar, pero ahora, hay códigos (todavía programados por humanos) instalados de serie en la mayoría de videojuegos. Sin embargo, el equipo de DeepMind quiso programar su algoritmo con aprendizaje de segundo orden, es decir, para aprender a aprender. Su algoritmo o red neural profunda empezó en el juego sin éxito, ni habilidad, ni estrategia, pero consiguió ensamblar su propio código a medida que avanzaba, mientras era premiado por mejorar. Tras cientos de partidas sin supervisión, la red neural pudo jugar tan bien como los humanos y, a veces, incluso mejor.

...una vez que pasó el invierno

Marvin Minsky definió la disciplina de la Inteligencia Artificial en 1969, con la publicación de su libro Perceptrons. An introduction to computational geometry. Entre otras cosas, probó que el perceptrón de Frank Rosenblatt no podía aprender clasificaciones no lineales. Rosenblatt desarrolló el perceptrón, referido a un tipo de red neural artificial, en los años 50, a partir del trabajo fundacional de Warren McCulloch y Walter Pitts en la década anterior, quienes mostraron que las redes de neuronas realizan reconocimiento de patrones, y de Donald Hebb, que presentó la hipótesis de que la conexión entre neuronas se fortalece mientras las neuronas conectadas están activas. El New York Times publicó en julio de 1958 un artículo titulado ‘Electronic Brain teaches itself‘‘, en el que Rosenblatt declaraba que el perceptrón se haría más sabio con la experiencia y que los militares americanos usarían el principio de construcción del perceptrón, para desarrollar máquinas pensantes capaces de leer y escribir. El artículo sigue de plena actualidad.

Se dice que la crítica de Minksy fue un revés para el desarrollo teórico de las redes neurales de Rosenblatt y propició lo que se conoce como invierno de la I.A., por culpa del pesimismo sobre sus posibilidades. Pero algunos perseveraron, como Stephen Grossberg, quien desarrolló en los 70 un algoritmo de aprendizaje auto organizado sin supervisión, que equilibraba la estabilidad de categorías adquiridas con la plasticidad necesaria para aprender otras nuevas; o Geoffrey Hinton y Yann LeCun, quienes descubrieron que las redes multicapa sí pueden aprender clasificacion no lineal, y que, tras décadas de insistencia, consiguieron hacerse con el mencionado premio ImageNet, y con el suculento premio Adquisición de Tu Startup Por Google… Así que, más que por una renovación de enfoques teóricos, el punto de inflexión que ha llevado a esta primavera de la I.A. en la que nos encontramos, se ha producido por el espectacular incremento de la velocidad y potencia de procesamiento, que han hecho posibles redes y bases de datos más grandes, profundas e interactivas.

Lejos todavía de la inteligencia biológica

Pero este aprendizaje no debería pensarse como equivalente a la inteligencia humana, porque se trata de algo diferente. El Robot Learning Lab, de UC-Berkeley, es una guardería para robots donde intentan enseñarles a jugar con  juguetes o con unos bloques de Lego gigantes, o se les deja dentro de un parque de arena, va en serio, para ver lo que son capaces de aprender por sí mismos. Por ahora, “ni siquiera tienen las capacidades de aprendizaje de un niño de 2 años,” dice el experto en aprendizaje robot, Pieter Abbeel. Sí aprenden tareas sencillas, como hacer un nudo o doblar la colada y, desde hace tiempo, los robots industriales llevan a cabo tareas específicas, pero, por ejemplo, no son capaces de identificar un burullo de tela tirado sobre una mesa como una toalla, porque “no tienen sentido común, ni memoria de sus intentos previos por doblar toallas, ni concepto de lo que es una toalla; el robot sólo ve un lío de color.” Esto lo confirma el experto en redes neurales de Google, Greg Corrado. Dice que son lentas, que les lleva mucho tiempo aprender y todavía cometen errores inconcebibles para esas máquinas biológicas de aprendizaje que son los humanos.

En el laboratorio de Abbeel han desarrollado su propio algoritmo de aprendizaje-refuerzo, como el de DeepMind, llamado TRPO=Trust Region Policy Optimization. Y han conseguido resultados parecidos en aprendizaje generalista. Sin embargo, sigue siendo algo diferente a la inteligencia humana, porque, por muy compleja que sea la tarea, y aunque parezca que están viendo y entendiendo el mundo, las máquinas no tienen propósito ni motivaciones, no tienen consciencia de sí, ni necesidad de supervivencia, en realidad, no saben nada. Para que un robot aprenda a caminar, se le dan 3 objetivos al código: llegar lo más lejos posible, no caminar demasiado rápido y mantener el torso por encima de una altura determinada.

«No sabe lo que es andar, no sabe si tiene brazos o piernas, nada de eso. Sólo tiene sus objetivos y la tarea de ejecutarlos».

Coda

Mientras tanto, teniendo en cuenta lo importante que es la educación de los humanos para la sociedad, el aprendizaje orientado a personas biológicas ha entrado de alguna manera en bucle. Por una parte, parece que en la sociedad código, se estuviera produciendo un Big Crunch de las necesidades/oportunidades/demandas educativas hacia la mera habilidad informática o de currículum laboral centrado en tareas específicas. Por otra, la educación se encuentra demasiado acomodada en métodos decimonónicos, basados en jerarquías de aprendizaje como el que se intenta desarrollar en las máquinas, con el conocimiento encerrado todavía en disciplinas estancas y en un tipo de comunicación totalitaria de uno a muchos, incompatible con el paradigma red. Las redes neuronales biológicas están basadas en la emergencia de propiedades complejas a partir de la densa y simultánea interacción de elementos sencillos, sin tareas específicas y sin jerarquías. La red es el conocimiento. La descripción y la toma de decisiones es la red. En ella no hay profundidad, solo un Big Bang horizontal, paralelo.

Lo que tradicionalmente se impuso como canon de aprendizaje, fue medir la cantidad de conocimiento, algo que encaja en el enfoque por jerarquías y disciplinas, pero el verdadero aprendizaje es la capacidad para aprender a aprender lo que se ignora, y para pensar, es decir, para interconectar emociones, conocimientos, disciplinas y comunicación, con un propósito. Por eso el nuevo canon debería ser el porqué y para qué de las cosas. El aprendizaje máquina sólo sabe (y sabrá) cómo o qué y, francamente, querida, le importa un bledo. Las máquinas son extensiones de nosotros mismos que, por supuesto, no van a tomar el control, ni van a sustituir a los humanos, ni a dominar el mundo, a no ser que ese sea nuestro deseo. Somos las personas, con o sin su ayuda, quienes hemos de intentar resolver la complejidad de nuestros problemas en el impredecible y asombroso mundo real.


tintank es una plataforma de información en contexto.