Opinión

EN SALUD, ARTE Y SOCIEDAD

Lo humano como modelo, el cerebro autocopiándose

Según un estu­dio en revisión en Tendencias en Neurocien­cias, firmado por Rufin VanRulleny Ryo­ta Kanai —universidades de Tolouse, Francia y To­kio, Japón—, los avances “en el aprendizaje profun­do”, posibilitan que la In­teligencia Artificial (IA) alcance “desempeño cer­cano al nivel humano en muchas tareas sensoria­les, perceptivas, lingüísti­cas o cognitivas”.

La afirmación ilustra lo cerca o lejos que se está de ser parte del desarrollo, pe­se a cuyo estatuto persiste “una creciente necesidad de arquitecturas cognitivas novedosas inspiradas en el cerebro”.

Es decir, de cerebros au­to-copiándose artificial­mente.

Según definen, “La teo­ría del Espacio de trabajo global refiere un sistema a gran escala que integra y distribuye información en­tre redes de módulos es­pecializados para crear formas de cognición y con­ciencia de niveles superio­res”.

¡Consciencia artificial, máquinas discerniendo! Entre nosotros, tal “integra­ción y distribución” infor­mativa a gran escala la rea­liza el sórdido, despiadado, impenitente y extenso ca­liesaje, mediante tareas eminentemente análogas y chismosas. A todo nivel y estructura.

Sostienen que tal “nece­sidad de arquitecturas cog­nitivas novedosas” requie­re implementar técnicas de aprendizaje profundo cu­ya hoja de ruta proponen, basada en la “traducción neuronal previsada entre “múltiples espacios lanten­tes”. Estos son “redes neu­ronales entrenadas para distintas tareas, en distin­tas entradas sensoriales y/o modalidades”. El objetivo es “crear un único y amodal espacio de Trabajo Laten­te Global, que obliga a re­visar sus posibles ventajas funcionales e implicaciones neurocientíficas.

Esta modalidad de aprendizaje automático “utiliza redes neuronales artificiales con múltiples capas «ocultas» entre las ca­pas de entrada y salida”

En el caliesaje autócto­no, referiría el lleva-y-trae: intenciones y habilidades de provocar el diálogo del cuestionador para benefi­ciarse.

Los neurocientíficos es­tablecieron diferencias y similitudes “entre el cere­bro y estas profundas redes neuronales artificiales” —dicen—; posibilitando “la eficiente implementación informática de funciones cognitivas y perceptivas” hasta ahora inaccesibles.

Como la teoría del es­pacio de trabajo incor­pora aprendizaje pro­fundo y consciencia, los autores proponen una “Ho­ja de ruta hacia un espacio de trabajo latente global de aprendizaje profundo”.

Ilustran este “Espacio de trabajo global” concén­trico con un cerebro al que ingresan impulsos senso­riales para emitir resul­tados (output) motores mientras módulos espe­cializados procesan sepa­radamente estas informa­ciones bajo una “selección prominente” mediada por la atención. Así decide la tarea óptima. El procesa­miento informativo depen­de sensiblemente de una “interconectividad de lar­ga distancia” que posibilita el intercambio informati­vo entre módulos distintos. Así “En cualquier momen­to dado, un subconjunto de los módulos especializados se movilizan en el espacio de trabajo independiente­mente de los datos y las ta­reas”, donde “Los conteni­dos del espacio de trabajo global refleja nuestra con­ciencia fluctuante”.

Entonces, el “Espacio de trabajo latente global” —amodal por naturale­za, aclaran—, “es un es­pacio latente compartido colgante e intermedio, en­trenado para realizar, sin supervisión, traducciones neuronales entre los N es­pacios latentes de los mó­dulos especializados”.

Aunque “existen nume­rosos ejemplos de modelos de traducción multimodal en el aprendizaje profun­do”, enfatizan el “ciclo de coherencia”, como “prin­cipal objetivo del entrena­miento no supervisado pa­ra la traducción neuronal”, definiendo un sistema de “traducción optimizado” donde “sucesivas trans-tra­ducciones y retrotraduccio­nes siempre devuelven la entrada original”.

Aquí, el caliesaje ¿agrega o no un gustito?

Tags relacionados