EN SALUD, ARTE Y SOCIEDAD
Lo humano como modelo, el cerebro autocopiándose
Según un estudio en revisión en Tendencias en Neurociencias, firmado por Rufin VanRulleny Ryota Kanai —universidades de Tolouse, Francia y Tokio, Japón—, los avances “en el aprendizaje profundo”, posibilitan que la Inteligencia Artificial (IA) alcance “desempeño cercano al nivel humano en muchas tareas sensoriales, perceptivas, lingüísticas o cognitivas”.
La afirmación ilustra lo cerca o lejos que se está de ser parte del desarrollo, pese a cuyo estatuto persiste “una creciente necesidad de arquitecturas cognitivas novedosas inspiradas en el cerebro”.
Es decir, de cerebros auto-copiándose artificialmente.
Según definen, “La teoría del Espacio de trabajo global refiere un sistema a gran escala que integra y distribuye información entre redes de módulos especializados para crear formas de cognición y conciencia de niveles superiores”.
¡Consciencia artificial, máquinas discerniendo! Entre nosotros, tal “integración y distribución” informativa a gran escala la realiza el sórdido, despiadado, impenitente y extenso caliesaje, mediante tareas eminentemente análogas y chismosas. A todo nivel y estructura.
Sostienen que tal “necesidad de arquitecturas cognitivas novedosas” requiere implementar técnicas de aprendizaje profundo cuya hoja de ruta proponen, basada en la “traducción neuronal previsada entre “múltiples espacios lantentes”. Estos son “redes neuronales entrenadas para distintas tareas, en distintas entradas sensoriales y/o modalidades”. El objetivo es “crear un único y amodal espacio de Trabajo Latente Global, que obliga a revisar sus posibles ventajas funcionales e implicaciones neurocientíficas.
Esta modalidad de aprendizaje automático “utiliza redes neuronales artificiales con múltiples capas «ocultas» entre las capas de entrada y salida”
En el caliesaje autóctono, referiría el lleva-y-trae: intenciones y habilidades de provocar el diálogo del cuestionador para beneficiarse.
Los neurocientíficos establecieron diferencias y similitudes “entre el cerebro y estas profundas redes neuronales artificiales” —dicen—; posibilitando “la eficiente implementación informática de funciones cognitivas y perceptivas” hasta ahora inaccesibles.
Como la teoría del espacio de trabajo incorpora aprendizaje profundo y consciencia, los autores proponen una “Hoja de ruta hacia un espacio de trabajo latente global de aprendizaje profundo”.
Ilustran este “Espacio de trabajo global” concéntrico con un cerebro al que ingresan impulsos sensoriales para emitir resultados (output) motores mientras módulos especializados procesan separadamente estas informaciones bajo una “selección prominente” mediada por la atención. Así decide la tarea óptima. El procesamiento informativo depende sensiblemente de una “interconectividad de larga distancia” que posibilita el intercambio informativo entre módulos distintos. Así “En cualquier momento dado, un subconjunto de los módulos especializados se movilizan en el espacio de trabajo independientemente de los datos y las tareas”, donde “Los contenidos del espacio de trabajo global refleja nuestra conciencia fluctuante”.
Entonces, el “Espacio de trabajo latente global” —amodal por naturaleza, aclaran—, “es un espacio latente compartido colgante e intermedio, entrenado para realizar, sin supervisión, traducciones neuronales entre los N espacios latentes de los módulos especializados”.
Aunque “existen numerosos ejemplos de modelos de traducción multimodal en el aprendizaje profundo”, enfatizan el “ciclo de coherencia”, como “principal objetivo del entrenamiento no supervisado para la traducción neuronal”, definiendo un sistema de “traducción optimizado” donde “sucesivas trans-traducciones y retrotraducciones siempre devuelven la entrada original”.
Aquí, el caliesaje ¿agrega o no un gustito?