En los "robots invertebrados" sin memoria ni aprendizaje con costumbres simuladas por circu�tos electr�nicos, como los de Randall Beer, se observa la respuesta a condiciones cambiantes del entorno que significan verdaderas costumbres emergentes de dichos circu�tos neurales. Avanzando en la simulaci�n e incoprporando aprendizaje y memoria, como hace Christian Balkenius, las posibilidades de buen �xito se notan con facilidad. En esto se sigue tentativamente la v�a evolutiva, que fue maximizando el n�mero de costumbres de las especies zool�gicas m�s y m�s complejas segun el creciente �ndice de encefalizaci�n (Fig 6).
Un modelo para la termodin�mica del cerebro que puede ilustrar la v�a evolutiva y que se conoce bien, es el ya introducido de redes neurales de Hopfield. Se puede considerar un sistema en breve detalle, que se retoma mas adelante, para introducir ahora algunos conceptos basicos. El tema a estudiar en este y otros par�grafos, es el del reconocimiento, practicamente instantaneo, de una persona, que hace la red neuronal biologica. Se busca lograr esa proeza tambien con un reconocedor de imagenes logrado con una red neural artificial. Este tema es una ruta hacia la interpretaci�n que se le puede dar a la resoluci�n de muchas otras situaciones complejas m�s o menos similares.
Sea una red de Hopfield (Fig 17 y 19) que almacena imagenes y las puede volver a entregar. Cada pixel (o punto) de la imagen entregada corresponde a una neurona o amplificador operacional de la red. El nivel gris oscuro del pixel se representa por la activaci�n de una neurona [su potencial real Vij supera al potencial umbral Voi, ec.(5a)]. El nivel blanco es para el otro caso. Las neuronas de Hopfield son binarias. Cada neurona puede tomar una de dos activaciones o potenciales. Esto recuerda a los espines de los vidrios de espin, que microscopicamente pueden apuntar solo para arriba o para abajo. No hay capas de neuronas ocultas, todas las capas son visibles. Cada una de ellas corresponde a un pixel de la imagen. Las neuronas estan ligadas por conexiones. Las conexiones tienen su peso asociado. Ese peso especifica la importancia de la ligadura. Un peso nulo implica desconexion.
ENTRADAS ! ! ! ! ! MATRIZ DE SINAPSIS ------------------------X---X---X---X---+---------------------------> ! ! ! ! ! ! S ! --------------------X---X---X---+---X---------------------------> A ! ! ! ! ! ! ! L ! ! ----------------X---X---+---X---X---------------------------> I ! ! ! ! ! ! ! ! D ! ! ! ------------X---+---X---X---X---------------------------> A ! ! ! ! ! ! ! ! ! S ! ! ! ! -------+---X---X---X---X---------------------------> ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! O O O O O <-NODOS ! ! ! ! ! ! ! ! ! ! ! ! ! ! ------- ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ------------------ ! ! ! ! ! ! ! ! ! ! ! ------------------------ ! ! ! ! ! ! ! -------------------------------- ! ! ! -----------------------------------------
Fig 19 - Circu�to de Hopfield con cinco nodos (O) similares a A de la Fig 17 b, estableciendo entre ellos veinte sinapsis o pixels (X) de a dos. Segun el peso de las conexiones la matriz de veinte sinapsis o pixels modeliza el recuerdo de una dada imagen muy sencilla, recuerdo que sobrevive en epocas de no-uso aunque no circulen pulsos el�ctricos por el circu�to, ya que la imagen est� en los pesos y en la arquitectura esquematizada. Ese mismo recuerdo se activa cuando vuelven a acceder los pulsos el�ctricos. Cada nodo suma todos los efectos que ingresan a �l multiplicando la se�al de ingreso que ser� ya sea +1 (excitaci�n) o -1 (inhibici�n) por el valor del peso. As� si la se�al vale -1 y el peso vale 2, el efecto efluente del nodo ser� -2, mientras no cambien los valores. Pero los valores cambian si no est�n en su �ptimo y los c�lculos se repiten una y otra vez hasta lograr estabilidad o m�nima energ�a de c�mputo. Basta que se le proporcione una "pista" al circu�to, para que luego de varios intentos �ste se deslice hacia un m�nimo. La salida correcta coincide con el patr�n a recordar. La base de estas ideas est� en el modelo de los vidrios de esp�n de la f�sica.
una de dos activaciones o potenciales. Esto recuerda a los espines de los vidrios de espin, que microscopicamente pueden apuntar solo para arriba o para abajo. No hay capas de neuronas ocultas, todas las capas son visibles. Cada una de ellas corresponde a un pixel de la imagen. Las neuronas estan ligadas por conexiones. Las conexiones tienen su peso asociado. Ese peso especifica la importancia de la ligadura. Un peso nulo implica desconexion. En una red de Hopfield sin modificar, los pesos entre neuronas son sim�tricos: la conexi�n desde la neurona A a la B tiene el mismo peso que la conexi�n de B a A.
Existen dos t�cnicas basicas: sin aprendizaje y con el. En ambas los
SIN APRENDIZAJE - Aqu� los pesos son datos despejables a partir de correlaciones de los patrones a almacenar.
Para cada configuraci�n de los valores de potencial o activaci�n, se puede calcular la distancia entre la imagen en elaboraci�n y la imagen m�s cercana guardada. La incognita del c�lculo es el juego de potenciales oactivaciones coherente con la imagen almacenada. Esta b�squeda se realiza en un espacio de activaciones y el proceso de b�squeda, denominado en mecanica estadistica la din�mica del modelo de Hopfield, puede ser prescripto y descripto en dos niveles.
El nivel m�s bajo se preocupa de hallar la forma de actualizar las activaciones con el avance del tiempo. Las reglas se circunscriben a una zona restringida. La decisi�n de conectar o desconectar la activaci�n de una neurona depende solo de las activaciones de las neuronas cercanas y de los pesos cercanos.
El otro nivel m�s alto se preocupa de minimizar la energia de computo E, una cifra global que depende de las activaciones o potenciales y de los pesos de la red entera. Estos dos niveles son complementarios y se puede probar que si se actualizan correctamente las activaciones locales, desciende la energia E global.
Entregar una imagen correcta, sin aprendizaje, es un proceso que comienza proporci�n�ndole a la red, como input, una versi�n parcial y con ru�do de alguna imagen original, que junto con otras imagenes originales, ya estuviesen cargadas en dicha red. El objetivo es que iterando hasta el final de las etapas de un algoritmo de actualizaci�n de activaciones, se entregue la imagen resaltada y corregida correcta y no alguna otra. Este proceso equivale a que, como en la Fig 17 e, el input ingresado resbale en el interior de un pozo de energia (o un espacio de activaciones) hasta detenerse en el atractor m�s cercano. Un aspecto del modelo de Hopfield consiste entonces en revelarse como una m�quina que busca imagenes en unespacio de activaciones a traves de la actualizaci�n local de datos de activaci�n, donde la similitud a una imagen original guardada se describe mediante una funci�n energ�tica a minimizar, con producci�n de entropia.
Pero buscar un minimo es una operaci�n de optimizaci�n muy general que no se circunscribe al estrecho campo del reconocimiento de patrones. Cualquier otro problema de optimizaci�n es susceptible de ser encarado por la red. Y, basicamente, hasta una mera suma se puede replantear como una optimizaci�n, donde la diferencia entre el valor del resultado tentativo, menos el valor de la suma de los sumandos que ingresaron como inputs, debe tender a cero.
Una inacabable cantidad de problemas presimb�licos resultan accesibles a la elaboraci�n mediante una red pura. A ella se adiciona una gran cantidad de problemas simb�licos, mediante alguna estructura mixta con sistemas expertos (desarrollos de la inteligencia artificial que reproducen el razonamiento de un experto en algun campo del conocimiento). Las restricciones en una optimizaci�n pueden ser duras o blandas. Si fuesen duras, se las transforma en una penalidad que se suma a la energia de c�mputo, generando una energia efectiva a minimizar. Esta misma idea se usa en las redes que aprenden. En ellas surge un compromiso entre complejidad y error durante el entrenamiento: es inconveniente el agrupamiento de un excesivo numero de nubes o clusters de datos.
CON APRENDIZAJE - Durante el aprendizaje (segundo paradigma), con algun manipuleo, es posible hacer aparecer de nuevo una funci�n energ�tica a minimizar, asociada con el mal exito de las primeras tentativas de aprendizaje. La termodin�mica es entonces la misma, y la diferencia principal con las optimizaciones previamente explicadas reside solamente en que antes se buscaba optimizar en un espacio de activaciones Vi, ya que las activaciones o potenciales eran adaptivos. Ya no. Ahora hay que optimizar en un espacio de pesos ai pues la incognita es que peso adaptivo ponerle a las conexiones de la red, cuando las activaciones o potenciales son datos. Las m�quinas que no aprenden y carecen de capas ocultas se denominan circu�tos de Hopfield y las que si lo hacen y tienen capas ocultas se denominan maqu�nas de Boltzmann.
Ambas t�cnicas son casos de din�micas t�picas de la termodin�mica del desequ�librio. En el primero las redes son m�s lineales y en el segundo tienen fuertes no-linealidades (par. 19). Los detalles del aprendizaje se pueden comprender mediante el demo de OCR recomendado al principio del par�grafo 14. El reconocimiento de qu� significan fisicamente las cifras finales para las activaciones y sobre todo para los pesos que adqu�eren las redes que aprenden y que estan sujetas a cambios de inputs, es una ardua tarea, s�lo desentra�able si se plantean casos l�mites de extraordinaria sencillez.
Para qu�en se inicia en este campo, basta con reconocer que simplificando fuertemente la situaci�n real, se puede llegar a entender por qu� los pesos y las activaciones finalmente se han configurado en un juego de valores que reproduce correctamente lo deseado. El proceso barranca abajo (Fig 17 e) es esencialmente biotermodin�mico. La arqu�tectura de la red, en si misma muy modificable, se considera en el par�grafo 20.
Interesa discutir sobre la realidad biol�gica de todos los algoritmos asociados con este tema, por ejemplo la ley de representaci�n y las ecuaciones (5). El algoritmo m�s usado de avance barranca abajo, el de la retropropagaci�n, resulta ser, segun se�ala David Zipser, un buen m�todo para identificar y encasillar el problema al cual se aplica. Adem�s, al minimizar el error, llega a una soluci�n que por sus caracter�sticas generales se asemeja a las v�as naturales. Es un primer paso en la direcci�n correcta, que permitir� algun d�a comprender el a�n misterioso comportamiento - por lo intrincado - de las redes naturales tanto naturales como artificiales en v�as de aprendizaje. La hip�tesis psicof�sica sugiere por ahora que "gran parte" - y m�s comprometidamente para algunos autores "todos" - los atributos mentales emergen de las redes y subrredes neuronales en interacci�n, con la colaboraci�n de los signos detectados por los sensores que monitorean el medio externo. El �nfasis demasiado volcado a explicarlo todo con s�lo las redes, implica no tomar en debida cuenta los s�mbolos y signos (alarmas y seudo-alarmas) que tambien despiertan la actividad mental. No se sabe a�n en cu�l hip�tesis creer cuando se analiza el origen de los valores humanos, por citar un ejemplo. Pero es suficiente, a esta altura, reconocer que muchos fen�menos emergentes del cerebro responden a su arqu�tectura y que la psicof�sica explica con buen ritmo cada vez mayor cantidad de aspectos de las neurociencias. Como la termodin�mica del desequ�librio es la mejor candidata para desentra�ar el sentido general del avance barranca abajo, cabe solamente esperar que se vayan solucionando lo que hoy parecen restricciones insuperables, que tambien surgen en la mec�nica cu�ntica (el principio de Heisenberg) y en la mec�nica estad�stica (la flecha del tiempo).
Vuelta a �ndice de Biotermodin�mica del Cerebro
Ra�l Barral - Carlos von der Becke: Biotermodin�mica del Cerebro - 2000