Barral y v d Becke X - Temas Previos

64.

Se enumeran algunas etapas importantes. Ya al final del dia y de la vigilia, en la cama, el EEG muestra una onda compacta de baja frecuencia y bajo voltaje, tipica de todo el largo periodo de vigilia. Se presenta la primera transición de fase, vigilia/paradójico. Un corto período de sueño paradójico, primera etapa, sirve de puerta hacia la segunda transición de fase paradójico/no-paradójico, al final de la cual las ondas EEG dejan de ser compactas y se alargan. Aparecen dos ciclos iniciales (2) y (4) con ondas delta, que son de baja frecuencia o sea de ancha amplitud. No hay ensoñaciones durante el sueño no-paradójico. La presión sanguínea desciende y la respiración y el pulso son lentos, las pupilas se contraen. Hacia el final de cada uno de los cuatro típicos ciclos, se producen las transiciones reversas, o sea de no-paradójico a paradójico. Siguen las etapas significativas de sueño paradójico, con ensoñaciones. Los ojos se mueven rapidamente y las ondas son compactas y parecidas a las de la vigilia. A los pocos minutos se vuelve a las etapas de sueño más profundo, no-paradójico. El ciclo final pasa a la vigilia sin provocar ensueños. Los sueños recordables suelen ser los del penúltimo ciclo.

La sinergética dispone de doce transiciones de fase en cascada para interpretar. Esto es un esquema simplificado, ya que la típica etapa no paradójica presenta tres diferentes tipos de ondas, que modifican entonces la contabilidad.

Algunas pistas hay para explicar esas doce incógnitas.

La transición (1) se explica por la acción del ya mencionado somnífero tóxico.

La (2), (4), (6), (8) y (10) se explica por la coevolución de estados favorables energético-entropicamente, a veces cercanos al estado de coma o de hibernación.

La (3), (5), (7) y (9) se explica (a) por el decreciente tenor en somnífero, que sera catabolizado durante el sueño profundo, (b) por las ventajas evolutivas para el vertebrado primitivo de estar, aunque sea periodicamente, más cerca de despertar por los ruidos de un eventual depredador y (c) por la hipótesis de Emelyanov-Yaroslavski y Potopov: cuando aparecen ensoñaciones, ellas tambien, con sus inhibiciones sinápticas y excitaciones sinápticas complementarias, logran que el cerebro siga en un estado de mínima energia que no alcance a poner en peligro a todo el organismo que está controlando en niveles subconcientes.

Parece que la transición de fase al estado de vigilia, llamado tambien de atención y de conciencia, respeta exactamente las mismas leyes, aunque a un nivel de temperatura mayor. La vigilia le cuesta al cerebro apenas un mayor consumo que la ensoñación, consumo suficiente para subir el valor de consigna de los termostatos metabólicos, lo cual incluso sucede durante esas primeras etapas.

La (11) y (12) implica una ausencia total de somnífero y la descarga de cortisol por parte de las glandulas adrenales justo antes de despertar. Esta última descarga tarda días en reajustarse en los viajeros de un avion que han sido bruscamente transportados a otros husos horarios.

No es espontáneo dormirse de nuevo cuando decayó la toxina somnífera. La vigilia y la atención debe reemplazar a la economía de la ensoñación por otra equivalente en términos energéticos. Y esto se aprecia con los registros electroencefálicos. 65.

En la vigilia operan en forma permanente las excitaciones e inhibiciones sinápticas, involucrando con ello un estado estacionario natural y localmente entrópico, que no puede resbalar energéticamente a ningun otro estado de menor energía, ya que no existe. . Se trata del ingreso a la "etapa gestionadora de alarmas" (Fig 11). Se accede allí a un estado transitorio antinatural o antientrópico, al que resulta forzado el cerebro humano que saca ventajas de su inteligencia, como órgano de control y supervivencia, frente a una Umwelt o entorno complejo y generador de alarmas y problemas.

De manera alguna las periódicas etapas racionales o de pensamiento superior, pueden significar un estado estacionario. Es un corto estado transitorio que escapa de las condiciones de exagerado consumo de glucosa, "aceptando" la primera solución trivial a sus problemas racionales y conformandose con ella (Herbert Simon). "El pensamiento trata de abolir al pensamiento" (Edward DeBono), ya que el pensamiento no entrenado, normalmente termina en el primer atractor que encuentra. Esta breve introducción al tema de la bioenergética del pensamiento será amplificada al exponer el modelo de los autores.

20. REDES NEURONALES HUMANAS Y REDES NEURALES ARTIFICIALES.

La diferencia entre redes con sangre y redes secas no es pequeña: unas tienen neuroquímicos (par. 17 a 19) y otras carecen de ellos, la dinámica de las redes humanas es caótica y comparativamente muy multiconectada, mientras que la dinámica de las redes neurales es ordenada y, en general, mucho menos multiconectada. El caos controlado del cerebro no es una casualidad: quizas el caos es un índice de que en condiciones de fluctuaciones muy alejadas del equilibrio se generen como producto principal nuevos patrones de actividad, típicas transiciones de fase del desequilibrio. (Freeman JW, Fisiologia de la percepción, Investigación y Ciencia, N§ 175, abril 1991, p.30)

Pese a esas cruciales diferencias, en este parágrafo se reflejan en comparación con las redes humanas, algunos logros de las redes neurales artificiales, perfeccionadas siguiendo el camino señalado por Hopfield. Estas analogías se deducen no sólo a partir de la conducta normal de ambas, sino sobre todo en condiciones patológicas o de déficit. Aqui se elabora la idea de una red neural aplicada al reconocimiento de imágenes, con aprendizaje y con un "maestro", que ayudan a la red a corregir el mal éxito de las primeras tentativas de reconocimiento, par. 16. La red que se explica es una apta para el reconocimiento óptico de caracteres, OCR. Su empleo praactico es inmediato, ya que el input surge de un texto puesto en un "escaner" y el output son pulsos electrónicos que se pueden reinterpretar como letras a ser alojadas en la memoria magnética (como espines de los electrones de valencia del átomo de hierro). El tratamiento que sigue es muy revelador y permite avanzar hacia el objetivo de hallar

66.


LA LETRA A EN UNA RED.

                0 1 1 1 0
           (a)  1 0 0 0 1          (b) 0111010001111111000110001
                1 1 1 1 1
                1 0 0 0 1
                1 0 0 0 1 

Fig 20 - (a) Perfil de una letra A con los unos (1) de una grilla de 5 x 5. (b) Los 25 elementos de la grilla en fila, representando a la letra A, que activan a la capa de 25 neuronas de input, con una activación que vale 1 o 0 segun el estii‹mulo que le toque a cada neurona. Se pretende que el output de la red sea reconocer la letra A. ---------------------------------------------------------------------------

leyes biotermodinamicas sencillas para la comprensión del cerebro, con un salto en el conocimiento muy importante. Los buenos resultados que surgen explorando las arquitecturas de las redes neurales artificiales se suelen atribuir a su parecido con las redes neuronales cerebrales.

En la Fig 20 imaginese a la letra A con su baricentro a la mitad de una grilla de 5ú5. Forman dicha letra 11 ceros y 14 unos, completando las 25 contribuciones totales de esa grilla. Esas 25 señales activan a la capa de inputs, conectada a una capa intermedia oculta y a través de ella, a una capa de salidas. Cada nodo está conectado a todos los demás nodos de la capa siguiente, en este caso la capa que ocupa un nivel superior, ya que la de inputs se ubica abajo. El ensayo se inicia con pesos arbitrarios, tomados de una tabla de números locos, para cada una de las conexiones del patrón de conexiones. (No es posible atribuir cero a todos los pesos, porque las multiplicaciones del programa fracasan). Los inputs son procesados y el resultado del proceso emerge como actividades (potenciales) entre cero y uno de la capa superior de outputs. Generalmente se provee una capa para las neuronas que reciben los inputs, varias capas ocultas y una capa para las neuronas que emiten los outputs, más o menos como la Fig 21.

Sería una gran casualidad que de entrada las 25 contribuciones para la letra A se reconocieran como A. Se reconocerán, en cambio, como cualquier otra configuración que el "maestro" implícito en el algoritmo que comanda el entrenamiento de la red, encontrará errónea y que, al establecer que se debe llegar a llamar A, permitirá el recálculo de una segunda tentativa de pesos ai algo mejores que los previos, que se habían elegido al azar. La intención es disminuir el error, o sea la diferencia cuadrática entre la señal que salió con pesos incorrectos y la que tendría que haber salido con pesos correctos. Está claro que la red no solamente se especializa en la A, usada como ejemplo, sino tambien en el resto de las 27 letras hasta la Z y desde el 0 al 9. Aprende todas estas señales en paralelo, equivocándose fuertemente en todas las tentativas iniciales. Al final del primer intento, desde la capa superior desciende hacia abajo una corrección tanto más importante cuanto más grande sea el error (con su signo). Con ello, el período de aprendizaje resulta provechoso.

Cada nodo o neurona tiene un nivel de actividad entre cero y uno, que depende de los inputs que recibe de otras capas neuronales. Las conexiones entre las diversas neuronas o nodos tienen un peso ajustable que especifica la extensión con la cual el output de una neurona va a repercutir en la actividad de la neurona, ubicada maás arriba, a la cual alimenta la señal subsimbólica. La tarea de relacionar los inputs de señales primitivas o sin procesar con los outputs procesados, la satisface tanto la configuración o

67.


  O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O



          O   O   O   O   O   O   O   O   O   O   O   O   O   O   O



  O  O  O  O  O  O  O  O  O  O  O  O  O  O  O  O  O  O  O  O  O  O  O  O  O
La fila inferior tiene enlaces con cada nodo de la fila intermedia
y de nuevo la fila intermedia tiene enlaces con cada nodo de la fila superior

Fig 21 - Red neural donde cada nodo o neurona O de una fila i conecta con todos los de la fila superior j, como se indica en parte para no enmarañar el gráfico. La entrada o sea la fila inferior recibe señales eléctricas externas de todo tipo, en este caso 27 letras mayúsculas mas 10 dígitos con significado y miles sin él. La salida o fila superior filtra a partir de la señal de entrada de turno, su parecido con alguno de los 37 significados y entrega ese dato. Dicha capa superior tiene tantos nodos como outputs con significado: 27 letras (la primera de ellas es la A) y 10 números. Entre entrada y salida ocurren mecanismos de armado de los fragmentos de la información tipo rompecabezas con significado. Entre esos mecanismos juegan su papel los filtros de ruido. Son señales sin significado que el entrenamiento consigue eliminar. Todo el esquema se reduce a dos filas paralelas enfrentadas, una de entrada y otra de salida y entre ellas una "arquitectura" que "interpreta" la relación "salida/entrada". Resulta que el mecanismo más importante es el intermedio, que aquí consiste en quince nodos de la así llamada "capa oculta". Durante esta última década cada nodo es un amplificador operacional con toma a tierra de Hopfield (Fig 17). Entre ellos hay conexiones con pesos que se van modificando por aprendizaje. Se muestra el núcleo basico de un OCR. Las O de la gráfica equivalen a neuronas. Muchas de esas neuronas guardan pedazos de información. La memoria humana puede guardar, por analogía, pedazos de información subsimbólica que es posible transformar en simbólica (par. 12). La capa de abajo es subsimbólica, la superior es simbólica. Este mismo reconocimiento de imágenes puede ser lo que sucede con el mecanismo para recordar una melodía, un gusto (con sus cuatro componentes dulce, agrio, salado, amargo), un aroma, una textura, etc. Cada neurona O guarda una componente subsimbólica, un fragmento. Con esos fragmentos, otras capas arman un símbolo. (Ejemplo de capas de dispersión)


patrón de conexiones como los pesos que se acaban de describir. Dado un patrón fijo, la variable a optimizar a través del aprendizaje es la de cada uno de los pesos. Si la actividad se simboliza como Vi y los pesos como ai, cada neurona de la capa i recibe señales de la capa precedente j, cuya suma será (Sigma) aj Vj.

Ya se señaló que en cada ciclo de aprendizaje se sube desde la capa de neuronas que reciben los inputs, hacia varias capas ocultas y una capa para las neuronas que emiten los outputs. Si se produce error, algunos algoritmos de corrección retropropagan de arriba hacia abajo nuevos valores para los pesos.

Por biología se conoce el modelo por el cual, en los animales con sistema nervioso, hay dos fuentes para la conducta, el instinto y el aprendizaje (cultura).

Se establece para el instinto que su origen son las proteínas resultantes de los genes del mensaje genético y para la cultura aprendida su origen

68.


              Output: Señales simbólicas, sonidos bisilábicos
                     con una vocal como primera sílaba
                                    ^
                                    !
                                    ­
                                 FONEMAS
                                    ^
            ----------------------- !
           ­                        ­
     CAPA DE LIMPIEZA            SEMEMAS
           !                        ^
            ----------------------> !
                                 GRAFEMAS
                                    ^
                                    !
         Input: Señales subsimbólicas, relacionadas con trozos de
         tres letras representables como sucesión de ceros y unos.  


Fig 21 - Arquitectura en serie con un bucle hacia el costado. Capas de grafemas para input de señales gráficas, seguidas de capas de sememas que "comprenden" las grafemas aportadas e identifican su sentido a través de una memoria asociativa multidimensional y capas finales de fonemas, generadoras de sonidos. Se utiliza una capa de limpieza emergente de la capa de sememas, que revierte a esa misma capa. Los inputs son trozos de palabras bisilábicas y los outputs son dos sonidos (Hinton). En la nomenclatura típica de las redes neurales, las capas intermedias entre la capa de inputs y la de outputs se consideran capas ocultas o "hidden layers". Cada capa tiene numerosas neuronas, como se aprecia en la Fig. 15. Aplicado al razonamiento, Dennett (p.56) observa que al pensar uno "ve" la conclusión puesto que las grafemas son parte del razonamiento. -------------------------------------------------------------------------------------------

puntual son los memes de Dawkins, ideas replicantes, esto es, atrayentes y aptas para ser copiadas en un cerebro a partir de otro, unidades mentales de cultura, alteradas a veces por la contribución de la creatividad (con lo cual dejan de ser estrictamente memes). Las proteínas y genes son genéticos, los memes (sin creatividad añadida o con ella) se refieren a ideas seductoras y copiables o unidades de cultura que son aprendidas (o a veces son ideas creadas, en el otro caso), con lo cual un meme ya aceptado se lo puede imaginar al final como estructura cerebral configurable del tipo de las Fig 19 y 21.

Con Hinton y colaboradores se denominara a la capa de inputs, capa de grafemas, información subsimbólica relacionada con ideas de tipo gráfico, como la silueta de las letras AJO consideradas como un símbolo mixto. Otra alternativa arbitraria podría ser la silueta de las tres letras OCA tomadas como una unidad de unos y ceros que las representa.

ESPACIO SEMANTICO.

El bucle de realimentación introduce entonces una nueva característica frente a la conducta de una red conectada siempre hacia adelante. En comparación, una red sin bucles es estática y con bucles se vuelve dinámica, buscando un estado estacionario. Es conveniente imaginar que ese bucle se corresponde al concepto de un espacio semántico multidimensional, con tantas coordenadas como atributos semánticos se hayan incorporado a la red. Cada punto de ese espacio corresponde a un patrón específico de actividades entre las unidades de sememas. La manera sugerida por Hopfield para la organización de la memoria asociativa tiene una estructura similar.

69.

Uno puede acordarse de una fiesta por la compañia, por el sitio, por la fecha, por las anécdotas de todo tipo, etc. La memoria de la fiesta es un atractor relacionado con muchas coordenadas, cada una de las cuales es una dimensión. Evocada la dimensión, se converge hacia el atractor de ese sistema multivariable, atractor desde donde se pueden evocar muchas otras dimensiones.

Las primeras tres capas de una red toman entonces, como input, la forma física de la palabra de tres letras y la transforman en un punto en el espacio semántico, correspondiente a su más cercano significado. Ese punto cumple con la definición matemática y física de atractor, en el sentido que la señal de ingreso a ese espacio, con coordenadas que conducen a cierta región del espacio, llevarán con facilidad hacia el encuentro de esa posición en forma entrópica, esto es, con mínimo gasto energético.

DISLEXIAS NATURALES Y ARTIFICIALES

El concepto de un espacio semántico ocupado con atractores que representan el significado de las palabras permiten ubicar la tarea que satisface la red. El ser humano tiene una estructura similar en su cerebro, como lo sugiere lo que sucede cuando hay déficits mentales. Herido el cerebro pueden aparecer dislexias o confusiones de significado. Modificada la capa de limpieza de una red artificial, aparecen dislexias similares. El mecanismo artificial que produce los mismos resultados que el natural resulta así insinuador de como son las operaciones básicas del conocimiento.

Basta modificar los pesos de la capa de limpieza por otros pesos al azar, para que un atractor preexistente cambie su región de influencia y una zona previa que tenía un cierto atractor en el vecindario pasaría a ser atendida por otro atractor (esto es, significado de la palabra) distinto. Uva y Ajo, por ejemplo, pueden ser confundidos entre sí si se presenta déficit tanto en la red natural como en la red artificial. Semanticamente Ajo y Uva están bastante relacionados. Otra posibilidad es provocar la ruptura del paso programado desde la capa de inputs o sea desde las unidades de grafemas. En ese caso, después de la ruptura el significado semántico procesado no siempre coincidirá con el significado previo a la ruptura, aunque tendrá obvios parecidos en alguno de sus sentidos.

Con esta narrativa se clarifica un tipo de dislexia profunda de los humanos, por la cual un déficit en la ruta semántica lleva a un patrón casi regular de errores de lectura.

En los humanos, un daño cerca del input, por ejemplo en la parte visual del sistema de lectura, tiene como consecuencia llegar a significados parcialmente equivocados. Según estas explicaciones, las neuronas de limpieza de las redes humanas tratan de encontrarle significado a las señales emergentes del sector previo dañado. El concepto de atractores también ofrece una nueva riqueza: explica asimismo otra anomalía en los datos básicos. Casi todos los pacientes que incurren en errores semánticos (dislexia profunda) cometen errores visuales, como confundir la palabra Ama con Ana. Esos mismos pacientes no incurren en dislexia superficial como pronunciar Orro en lugar de Oro. Resulta extraña la asociación invariable entre errores visuales y errores semánticos. La intuición diría que al dañar la capa de limpieza de la zona semántica aparecerían errores semánticos puros sin combinación con errores visuales. Contrariamente a esa intuición, la experiencia de dañar la capa de limpieza lleva a un resultado sorprendente: dañándola siempre aparecen errores visuales.

70.

¿Por qué? Las capas de una red no dañada pueden discriminar Ama de Ana, guiando el flujo hacia significados diferentes, que son atractores diferentes del espacio semántico. La guia correcta es mérito de la capa de limpieza. Al dañar esta ultima capa, los perfiles y formas ubicadas en el espacio cambian y la salida de una unidad de sememas puede evolucionar hacia un atractor diferente del correcto, atractor que corresponde a una palabra visualmente similar pero semanticamente distinta, como Ano y Año. La region dominada por un atractor puede tener limites comunes con la region dominada por otro atractor, ya que en espacios de mucho más de veinte dimensiones, todos los veinte atractores se acercan entre sí, aunque correspondan a significados diferentes. El atractor de Ano puede estar cercano al atractor de Año sin que interfieran los otros dieciocho atractores, pues que no están en el medio de ambos. Evitar obstáculos es sencillo en espacios de muchas dimensiones.

Hinton y colaboradores ensayaron numerosas arquitecturas de conexiones entre nodos de las unidades, ya sea con conexiones muy extendidas como con conexiones muy ahorrativas, ya sea entre neuronas vecinas como también con neuronas de capas alejadas. Combinaron las capas de limpieza con las capas intermedias para adquirir nuevas experiencias. Le proveyeron un circuíto que pronunciaba las palabras cuyo significado ya había sido reconocido. Ese circuíto incluía una capa de fonemas. Cualquiera que fuese la arquitectura, para que aparezcan síntomas de dislexia profunda solamente se necesitaba que existiese una capa de limpieza más avanzada en el sentido del flujo, que la capa donde se produjo un daño. Esa capa de limpieza es la que enfatiza la condición de veinte atractores diferentes para significados diferentes en el espacio semántico. Recuerdese que el gran resultado de una capa de limpieza es mejorar la discriminación de significados.

Cabe señalar que errores muy sutiles típicos de la dislexia profunda, como el que resulta de una confusión semántica sumada a una confusión visual, como confundir simpatía con orquesta (seguramente usando como puente la voz sinfonía), también surgen en estas redes artificiales. Así, confunden Era con Ano (usando como puente Año). Exagerando el daño, la red artificial incurre en un extraño efecto que también surge en pacientes muy dañados en su cerebro. Las representaciones semánticas se distorsionan mas allá de todo reconocimiento ulterior y la palabra adecuada se le escapa al paciente. Hay palabras que éste intenta leer y no puede hacerlo, aunque reconoce que el significado o la categoría es "animal" o "alimento", por dar un ejemplo. Lo que se nota, por analogía, en la red artificial muy dañada, es que los límites entre atractores se han hecho muy borrosos y han llegado, incluso, a fundirse varios significados en un único atractor global. Esto rescata la posibilidad de que la categoria "animal" o "alimento" sea aún reconocible para la palabra inidentificada.

SIGNIFICADOS ABSTRACTOS Y CONCRETOS.

Una palabra más concreta (Uva, Ajo, Oso) tiene como promedio cuatro veces más atributos semánticos (sememas) que una palabra más abstracta (Uno, Era). Una red entrenada que sufre daños mas adelante en el sentido del flujo que la capa de limpieza, exhibe características más notables en el procesamiento de esas palabras abstractas, que otras palabras más concretas en su patrón semántico. La red dañada lee con mayor dificultad una palabra abstracta que una concreta. Esto permite señalar que la comprensión exhibida en el espacio semántico no es incoherente con la comprensión de la conducta disléxica del cerebro humano. Mientras no haya otro modelo, bastariiia correlacionar la arquitectura de una red artificial, fácil de estudiar, a la arquitectura de una red humana. Esto resulta ser una valiosa


Temas siguientes
Actualizado 20 de Octubre 1998

(Página en preparación)

Hosted by www.Geocities.ws

1