Un innovador investigador explica el «aprendizaje profundo»

Palabras de moda como «aprendizaje profundo» y «redes neuronales» están en todas partes, pero gran parte de la comprensión popular está equivocada, dice terrence sejnowskiun neurocientífico computacional en el Instituto Salk de Estudios Biológicos.

Sejnowski, pionero en el estudio de los algoritmos de aprendizaje, es el autor de La revolución del aprendizaje profundo (que saldrá la próxima semana de MIT Press). Afirma que la exageración sobre la IA asesina o robots que nos hacen obsoletos ignora oportunidades emocionantes que ocurren en informática y neurociencia, y lo que puede suceder cuando la inteligencia artificial se encuentra con la inteligencia humana.

La frontera habló con Sejnkowski sobre cómo el «aprendizaje profundo» de repente se convirtió en todas partes, lo que puede y no puede hacer, y el problema de la exageración.

Esta entrevista se ha editado fácilmente para mayor claridad.

En primer lugar, me gustaría preguntar acerca de las definiciones. La gente lanza palabras como «inteligencia artificial» y «redes neuronales» y «aprendizaje profundo» y «aprendizaje automático» casi alternativamente. Pero estas son cosas diferentes, ¿puedes explicarlo?

La IA se remonta a 1956 en los Estados Unidos, donde los ingenieros decidieron escribir un programa de computadora que intentaría imitar la inteligencia. En IA, creció una nueva área llamada aprendizaje automático. En lugar de escribir un programa paso a paso para hacer algo, que es un enfoque tradicional de IA, recopila una tonelada de datos sobre algo que está tratando de comprender. Por ejemplo, imagine que está tratando de reconocer objetos, por lo que recopila muchas imágenes de ellos. Luego, con el aprendizaje automático, es un proceso automatizado que disecciona diferentes funciones y calcula que una cosa es un automóvil y la otra una grapadora.

El aprendizaje automático es un área muy amplia y se remonta a mucho tiempo atrás. Originalmente, la gente lo llamó «reconocimiento de patrones», pero los algoritmos se volvieron mucho más amplios y mucho más sofisticados matemáticamente. En el aprendizaje automático, hay redes neuronales inspiradas en el cerebro y luego el aprendizaje profundo. Los algoritmos de aprendizaje profundo tienen una arquitectura especial con muchas capas que fluyen a través de la red. Entonces, básicamente, el aprendizaje profundo es parte del aprendizaje automático y el aprendizaje automático es parte de la IA.

¿Qué puede hacer el aprendizaje profundo que otros programas no pueden?

Escribir un programa es extremadamente laborioso. En el pasado, las computadoras eran tan lentas y la memoria tan costosa que recurrían a la lógica, que es en lo que funcionan las computadoras. Es su lenguaje de máquina básico para manipular piezas de información. Las computadoras eran demasiado lentas y los cálculos demasiado costosos.

Pero ahora las computadoras son cada vez más baratas y la mano de obra es cada vez más cara. Y el uso de la computadora se hizo tan barato que se volvió mucho más eficiente dejar que una computadora aprendiera que dejar que una persona escribiera un programa. En ese momento, el aprendizaje en profundidad realmente comenzó a resolver problemas que ningún ser humano había escrito antes en un programa, en áreas como la visión por computadora y la traducción.

El aprendizaje es increíblemente exigente desde el punto de vista computacional, pero solo necesita escribir un programa y, al proporcionarle diferentes cantidades de datos, puede resolver diferentes problemas. No tienes que ser un experto en el dominio. Entonces hay miles de aplicaciones para todo donde hay muchos datos.

Foto: Prensa del MIT, 2018

El «aprendizaje profundo» parece estar en todas partes ahora. ¿Cómo llegó a ser tan dominante?

De hecho, puedo señalarlo en un momento especial de la historia: diciembre de 2012 a las reunión de NIPS, que es la conferencia de IA más grande. Donde, [computer scientist] Geoff Hinton y dos de sus estudiantes de doctorado demostraron que se podía tomar una gran cantidad de datos llamada ImageNet, con 10 000 categorías y 10 millones de imágenes, y reducir el error de clasificación en un 20 % mediante el uso del aprendizaje profundo.

Tradicionalmente, esa cantidad de datos reduce el error en menos del 1 por ciento en un año. En un año, pasaron 20 años de investigación. Realmente abrió las escotillas de polvo.

El aprendizaje profundo está inspirado en el cerebro. Entonces, ¿cómo trabajan juntas estas áreas (la informática y la neurociencia)?

La inspiración para el aprendizaje profundo realmente proviene de la neurociencia. Mire las redes de aprendizaje profundo más exitosas. Está redes neuronales convolucionaleso las CNN, desarrolladas por Yann Le Cun.

Si observa la arquitectura de CNN, no solo hay muchos dispositivos, sino que están conectados de una manera básica que refleja el cerebro. Una parte del cerebro que se estudia mejor en el sistema visual y el trabajo básico en la corteza visual muestra que hay células simples y complejas. Si observa la arquitectura de CNN, hay equivalentes a celdas simples y el equivalente a celdas complejas y proviene directamente de nuestra comprensión del sistema visual.

Yann no trató servilmente de duplicar la corteza. Probó muchas variantes diferentes, pero en las que convergió fueron las que naturaleza convergido a. Esta es una observación importante. La convergencia entre la naturaleza y la IA tiene mucho que enseñarnos y queda mucho más por hacer.

¿Cuánto depende nuestra comprensión de la informática de nuestra comprensión del cerebro?

Bueno, gran parte de nuestra IA actual se basa en lo que sabíamos sobre el cerebro en los años 60. Sabemos una cantidad increíble ahora y más de ese conocimiento se está incorporando a la arquitectura.

AlphaGo, el programa que venció al campeón de Go, incluía no solo un modelo de la corteza, sino también un modelo de una parte del cerebro llamada ganglio basal, que es importante para tomar una secuencia de decisiones para alcanzar una meta. Hay un algoritmo llamado diferencias horariasdesarrollado en los años 80 por Richard Sutton, quien, combinado con el aprendizaje profundo, es capaz de crear piezas muy sofisticadas que ningún ser humano ha visto antes.

A medida que aprendemos sobre la arquitectura del cerebro y comenzamos a comprender cómo se pueden integrar en un sistema artificial, brindará más y más oportunidades mucho más allá de donde estamos ahora.

¿Afectará la IA también a la neurociencia?

Son esfuerzos paralelos. Ha habido un enorme avance en la neurotecnología innovadora que ha pasado de registrar una neurona a la vez a miles de neuronas simultáneamente, y muchas partes del cerebro simultáneamente, lo que le abre por completo un mundo completamente nuevo.

He dicho que hay una convergencia entre la IA y la inteligencia humana. A medida que aprendamos más y más sobre cómo funciona el cerebro, se verá reflejado en la IA. Pero al mismo tiempo, en realidad crean toda una teoría del aprendizaje que se puede aplicar para comprender el cerebro y permitirnos analizar las miles de neuronas y cómo surgen sus actividades. Entonces, existe este circuito de retroalimentación entre la neurociencia y la IA que creo que es aún más emocionante e importante.

Su libro analiza tantas aplicaciones diferentes del aprendizaje profundo, desde automóviles autónomos hasta el comercio. ¿Hay alguna zona que te resulte más interesante?

Una aplicación en la que solo he quedado completamente impresionado es las redes generativas en conflicto, o GANS. Con las redes neuronales tradicionales, das una entrada y obtienes una salida. Los GAN son capaces de desarrollar actividad – salidas – sin entrada.

Vale, he oído hablar de esto en relación con estos redes que crean videos falsos. Realmente generan cosas nuevas que parecen realistas, ¿verdad?

En cierto modo, crean actividad interna. Esto resulta ser cómo funciona el cerebro. Puedes mirar hacia afuera y ver algo y luego puedes cerrar los ojos y puedes comenzar a imaginar cosas que no están ahí afuera. Tienes una imaginería visual, tienes ideas que te vienen cuando está tranquilo. Esto se debe a que tu cerebro es generativo. Y ahora esta nueva clase de redes puede generar nuevos patrones que nunca han existido. Entonces puedes darle, por ejemplo, cientos de imágenes de autos y crearía una estructura interna que puede generar nuevas imágenes de autos que nunca han existido y todos parecen autos.

Por otro lado, ¿qué ideas crees que podrían estar demasiado promocionadas?

Nadie puede predecir o imaginar lo que tendrá la introducción de esta nueva tecnología sobre cómo se organizarán las cosas en el futuro. Por supuesto que hay exageración. No hemos resuelto los problemas realmente difíciles. No tenemos inteligencia general, pero la gente dice que los robots están a la vuelta de la esquina y nos reemplazarán, aunque los robots están mucho más atrás que la IA porque el cuerpo resulta ser más complicado de replicar que el cerebro.

Veamos un solo avance tecnológico: el láser. Fue inventado hace unos 50 años y ocupaba toda la habitación. Pasar de esa sala al puntero láser que uso cuando doy una conferencia requiere 50 años de comercialización de tecnología. Debe avanzar hasta el punto en que pueda reducirlo y comprarlo por cinco dólares. Lo mismo sucederá con la tecnología publicitada, como los automóviles autónomos. No se espera que sea omnipresente el próximo año o probablemente no dentro de 10 años. Puede que sean 50, pero la cuestión es que habrá un avance gradual en el camino que lo hará cada vez más flexible, más seguro y más compatible con la forma en que hemos organizado nuestra red de transporte. Lo que está mal con la exageración es que la gente tiene la escala de tiempo equivocada. Esperan demasiado demasiado pronto, pero con el tiempo sucederá.

Deja una respuesta

Tu dirección de correo electrónico no será publicada.