En la actualidad, investigadores que estudian la IA están trabajando en una nueva forma y arquitectura para desarrollarla a futuro. Hoy en día, los principales enfoques y formas son simbólicos (basados en representaciones de problemas, lógica y búsqueda), redes Bayesianas (modelo probabilístico) y aprendizaje profundo. La mayoría de personas se encuentran familiarizadas con una aplicación de aprendizaje profundo que implica una noción explícita de modularidad y subrutinas como las Redes de Módulos Neuronales o los Intérpretes de Programación Neuronal como Google Translate (GT) que usa una gran red de memoria a corto plazo de extremo a extremo en la que el sistema <<aprende de millones de ejemplos>>.
El aprendizaje profundo potencia la función de desbloqueo de nuestro teléfono a través del reconocimiento facial. Por otro lado, si no fuera por el aprendizaje profundo, Spotify y Netflix no tendrían ningún recuerdo de lo que quieres oír o ver.
Sin embargo, ¿es realista en el futuro tener una arquitectura diferente para capturar la cognición? ¿O cuál será la arquitectura del futuro para la IA?
Para explorar estas preguntas el Instituto de Algoritmos de Aprendizaje de Montreal organizaron en diciembre un debate con dos renombrados investigadores: Gary Marcus, autor de best-sellers, empresario y Yoshua Bengio, profesor de la Universidad de Montreal, galardonado con el Premio Turing 2019 (Premio Nobel de Informática) y experto en Aprendizaje Profundo.
Durante el debate, tanto Gary Marcus como Yoshua Bengio coincidieron en que el campo de la IA podría verse beneficiado gracias a una articulación de sus acuerdos y desacuerdos. Ambos compartieron la idea de que permitir a los humanos entrenar interactivamente a los agentes artificiales para que entiendan las instrucciones del lenguaje es importante por razones de carácter práctico y científico.
Hoy en día no existen métodos de aprendizaje que entrenen a agentes de inteligencia artificial (IA) para que entiendan las instrucciones del lenguaje humano. Marcus y Bengio estuvieron de acuerdo en que este objetivo podría requerir esfuerzos de investigación substanciales. Ellos exponen la investigación y varios modelos con el fin de desarrollar estrategias para mejorar la eficiencia de los datos en el aprendizaje del lenguaje.
Según Bengio, el aprendizaje profundo ha progresado mucho en la percepción y una de sus principales ambiciones es diseñar algoritmos que aprendan mejores representaciones. Representaciones que deberían estar conectadas a los conceptos de alto nivel que usamos en el lenguaje. Pero esto no es algo que aún sepamos hacer con el aprendizaje que no es supervisado.
Bengio dijo: <<Para entender realmente una oración en lenguaje natural, se necesita tener un sistema que entienda a qué se refieren las palabras de la oración en la vida real, con imágenes, sonidos y percepción. Una idea más dentro de la conciencia previa es fundamentar esos conceptos y reglas de alto nivel en percepciones de bajo nivel. Las directrices de la investigación se dirigen a modelos de aprendizaje del lenguaje desde la raíz y a modelos de lenguaje multimodal en donde el aprendizaje no es sólo textos sino también de sus asociaciones con imágenes videos y percepciones sensoriales>>. (M)
Gary Marcus tiene un enfoque diferente en el que busca una forma que involucre la casualidad y la lógica. <<Siendo realistas, el aprendizaje profundo es sólo una parte del gran desafío de construir máquinas inteligentes. Tales técnicas carecen de formas de representar relaciones casuales (…) no tienen formas obvias de realizar inferencias lógicas, y también están muy lejos de integrar el conocimiento abstracto como es la información sobre qué son los objetos, para qué sirven, y cómo son utilizados típicamente>>. (Wikipedia)
Durante el debate, Bengio explicó brevemente su nueva investigación que implica el aprendizaje de representaciones de conceptos de alto nivel. Esta vendría a ser una especie de concepto manipulado con el lenguaje e integrando el conocimiento abstracto. Bengio llamó a este modelo Conciencia Previa.
Después del debate, hice algunas investigaciones para comprender mejor la relación entre aprendizaje profundo y la conciencia previa con la cognición humana.
El aprendizaje profundo y la conciencia previa en relación con la cognición humana
El aprendizaje profundo está estrechamente relacionado con una clase de teorías sobre el desarrollo del cerebro (específicamente el desarrollo neocortical) que fueron propuestas por neurocientíficos cognitivos a principios de los años 90. Diversos enfoques han sido utilizados para investigar la plausibilidad de los modelos de aprendizaje profundo desde una perspectiva neurobiológica. A pesar de que todavía no se ha establecido una comparación sistemática entre la organización del cerebro humano y la codificación neuronal en redes profundo, varias analogías han sido reportadas. Por ejemplo, los cálculos realizados por las unidades de aprendizaje profundo podrían ser similares a los de las neuronas y poblaciones neuronales. De manera similar las representaciones desarrolladas por los modelos de aprendizaje profundo son idénticos a aquellas que son medidas en el sistema visual de los primates tanto a nivel de unidad como de población. (Wikipedia)
El modelo de conciencia previo de Bengio está relacionado con la teoría del espacio de trabajo global. El enfoque de Bengio se basa en la idea de un regulador de incentivos para las representaciones y para forzarlas a tener la propiedad de extracción de ciertas dimensiones a la vez con el fin de hacer poderosas predicciones sobre el futuro. Esto es una forma de añadir una restricción extra al aprendizaje de las representaciones para que sean lo suficientemente buenas al expresar el conocimiento simbólico de la IA. La pregunta que Bengio hizo durante el debate era sobre <<mantener la atención>>. Por ejemplo, ¿cómo sería posible que un agente de aprendizaje continuo ajuste el mapeo mientras permite a los niveles superiores mantener su entendimiento sobre el nivel inferior?
En su investigación él dio el siguiente ejemplo; <<considere la posibilidad de predecir si una pila de bloques caerá sobre o fuera de una mesa. Esto implica un resultado mesurado que puede ser precedido fácilmente, incluso si los detalles de dónde caerán los bloques son muy difíciles de predecir inclusive para los humanos. En ese caso, predecir el futuro a nivel de pixeles sería algo extremadamente difícil dado a que los estados futuros tienen un alto nivel de entropía con una distribución altamente multimodal. Sin embargo, algunos aspectos del futuro pueden tener una baja entropía. Cabe mencionar, que estos aspectos tienen un gran impacto en la predicción de lo que vendrá a conituniacion (o en la toma de decisiones correctas por el momento), entonces la conciencia previa debería ser muy útil>>. (Bengio 2017)
Según mi estudio sobre el mecanismo de la conciencia y la sensación de presencia e inmersión que sienten los usuarios que interactúan en el espacio virtual (Farrell, 2008), los investigadores tendrían mucho por ganar si estudiaran el excepcional trabajo de Mario Rodríguez Cobos (Silo). Cobos trabaja en explicar en como la imagen dentro de la conciencia es una forma activa que coloca a la misma (como una estructura) en el mundo. En la psicología de la imagen, Rodríguez Cobos describe cómo la imagen actúa sobre el cuerpo y el <<cuerpo en el mundo>> gracias a la intencionalidad que está dirigida fuera de sí misma y no corresponde simplemente a uno mismo o a un <<natural>> reflejado en sí mismo. La imagen actúa dentro de una estructura temporoespacial y dentro de una <<espacialidad>> interna que ha sido denominada <<espacio de representación>>. Las diversas y a su vez complejas funciones realizadas por la imagen dependen generalmente de la posición que ocupada dentro de dicha espacialidad.
En la aportación de la obra al pensamiento, Rodríguez Cobos (Silo) da una justificación completa a la teoría del espacio de representación. Su trabajo explora también el mecanismo fundamental de la conciencia junto con el emplazamiento de la atención en un nivel superior de predicción. A esto, Rodríguez Cobos lo llamó la reversibilidad de la conciencia, que es la capacidad de la conciencia de dirigirse a través de la atención a fuentes de información. Así, para los sentidos, los mecanismos reversibles resultan en lo que él llama apercepción y para la memoria resultan en evocación. El funcionar de los mecanismos reversibles está directamente relacionado con el nivel de conciencia; a medida que se asciende en el nivel funcionan más, y a medida que se desciende funcionan menos. Desde luego los conceptos y la teoría de Rodríguez Cobos requieren una comprensión de la teoría de la conciencia descrita en la psicología del nuevo humanismo.
El aprendizaje profundo
El aprendizaje profundo es una faceta amigable del aprendizaje por máquina que permite a la Inteligencia Artificial clasificar datos e información de manera que emula la red neuronal del cerebro humano. En lugar de simplemente realizar algoritmos hasta completarlos, el aprendizaje profundo permite ajustar parámetros de un sistema de aprendizaje hasta que producir los resultados deseados. En 2019, el Premio Turing, otorgado por la excelencia en la investigación de la inteligencia artificial fue entregado a tres de los arquitectos más influyentes del aprendizaje profundo, Yann LeCun de Facebook, Geoffrey Hinton de Google y el profesor Yoshua Bengio. Ellos tres, junto con muchas otras personas en la última década, desarrollaron algoritmos, sistemas y técnicas responsables del ataque de los productos y servicios de la Inteligencia Artificial. (TNW)
Traducción del inglés por Silene Fuentes