INTELIGENCIA ARTIFICIAL

Se considera generalmente que el orígen remoto de la "Inteligencia Artificial" se remonta a los intentos por crear autómatas, que simulasen la forma y las habilidades de los seres humanos. Pero el orígen inmediato del concepto y de los criterios de desarrollo de la "I.A." se remonta a la intuición del matemático inglés Alan Turing y el apelativo "Inteligencia Artificial" se debe a McCarthy, uno de los integrantes del "Grupo de Darmouth", un grupo de investigadores que se reunió en 1956 en el Darmouth College (Estados Unidos), para discutir la posibilidad de construir máquinas que no se limitaran a hacer cálculos prefijados sino operaciones genuinamente "inteligentes".

José Carlos Sarur Zanatta
Regresar a la página anterior











 

GUIA:
Los puntos interesantes a estudiar en IA son:

Regresar al inicio de esta página
 
 

LOS PRECURSORES:
Grecia
Se considera generalmente que el orígen remoto de la "Inteligencia Artificial" se remonta a los intentos por crear autómatas, que simulasen la forma y las habilidades de los seres humanos. Los griegos, además de la famosa paloma de Arquitas, crearon numerosos juguetes y artefactos automáticos como los que construyó Arquímedes para proteger a Siracusa del asedio de la flota romana.
Pero se debe a Herón de Alejandría la primera construcción de un autómata con forma humana: construyó actores artificiales que representaban una obra sobre la Guerra de Troya. Aunque, por cierto, la mitología griega atribuye a Hefaistos (dios del fuego y primer herrero) la fabricación de los primeros "robots" de forma humana.
Edad Media
Hay que esperar la Edad Media para encontrar la continuación de estos esfuerzos. San Alberto Magno tuvo un "mayordomo" que abría la puerta y saludaba al visitante, y Leonardo construyó un león que caminaba. También se cita habitualmente al "Golem", homínido hecho de barro, obra del rabino húngaro Low que lo "dotó de vida" en una ceremonia mágica (lo cual desvirtúa por cierto el valor científico del invento).
Era Moderna
En el Siglo XVII, los Droz, padre e hijo, construyeron tres androides: dos niños y una joven. Un niño escribía, el otro dibujaba y la joven tocaba el órgano y simulaba respirar. Esta realización (basada en mecanismos de relojería) les valió ser detenidos y encerrados por la Inquisición.
Las mejores realizaciones se deben a Vaucouson, entre ellas el "Tocador de Flauta" (que soplaba y movía los dedos, tocando hasta 12 melodías diferentes) y el Pato (que graznaba, batía las alas, comía y "digería" mecánicamente).
En la página sobre "Historia" hemos mencionado los avances del Siglo XIX y del Siglo XX en materia de nuevas máquinas automáticas. Los trabajos de Babbage y de Boole son fundamentales en este campo.
El orígen inmediato del concepto y de los criterios de desarrollo de la "Inteligencia Artificial" se remonta a la intuición de un genio matemático fallecido prematuramente: Alan Turing, inventor de la máquina descifradora de los mensajes de las tropas nazis. Turing, deseoso de crear un cerebro artificial, inventó la siguiente prueba:
Regresar al inicio de esta página
 

PRUEBA DE TURING:
Un interrogador permanece encerrado en una pieza, enviando mensajes por un buzón a dos interlocutores, un hombre y una mujer, siendo su objetivo determinar quién es el hombre y quién la mujer (sin preguntar, obviamente, por el sexo de cada uno). En el modelo inicial de la prueba, se supone que el varón quiere hacerse pasar por mujer. Luego se pregunta: ¿qué ocurrirá si el varón es reemplazado por una máquina? Si el diálogo que ocurra y el número de errores en la solución dada se acerca al número de errores ocurridos en la comunicación con un ser humano, se podrá estimar -según Turing- que estamos ante una máquina "inteligente". Esta es la -desde entonces- llamada "PRUEBA DE TURING".
Regresar al inicio de esta página
 

WIENER Y LA CIBERNETICA:
La Segunda Guerra Mundial ayudó a "apurar el paso", generando una necesidad urgente de nuevas técnicas destinadas a procesar datos (es decir obtener informaciones nuevas a partir de una "materia prima" de datos iniciales). No podemos terminar el relato de la época sin mencionar el nacimiento de una disciplina muy afín a la informática y gran "consumidora" de recursos computacionales: la cibernética.
Norbert WienerUn equipo interdisciplinario (antropólogos, fisiólogos, matemáticos, psicólogos y un economista), bajo la dirección de Norbert WIENER, se enfrentó al problema de las trayectorias de proyectiles dirigidos hacia objetos en movimientos, como los aviones enemigos. Para acertar, debe predecirse la posición futura del blanco, y corregirse la trayectoria si éste cambia de dirección.
El equipo de Wiener se dió cuenta que era un problema semejante al que resuelve el cerebro cuando conduce la mano para recoger un objeto (estático o en movimiento). Así formaron el propósito de crear un aparato que imitaría los procesos de control existentes en el ser humano (y eminentes fisiólogos fueron integrados al grupo). Este equipo -que recuperó el concepto de retroalimentación (feed-back) de Babbage-, al avanzar en sus trabajos echó las bases de la cibernética, disciplina hoy rectora de los procedimientos automáticos. De ella se valen las plantas industriales que utilizan robots (dispositivos activos controlados por computadores) en sus procesos de fabricación.
En 1949 fue publicado el resultado (teórico) de los trabajos del equipo de Wiener bajo el título de "Cybernetics". La naciente cibernética se definió como "teoría de la comunicación y autorregulación en sistemas probabilístas extremadamente complejos".
Regresar al inicio de esta página
 

EL GRUPO DE DARMOUTH:
En el verano de 1956, un grupo de investigadores -inspirados en la Prueba de Turing- se reunió en el Darmouth College (Estados Unidos) para discutir la posibilidad de construir máquinas que no se limitaran a hacer cálculos prefijados sino operaciones genuinamente "inteligentes".
Los integrantes del grupo eran Samuel, que había escrito un programa de juego de damas capaz de aprender de su propia experiencia; McCarthy, que estudiaba sistemas capaces de efectuar razonamientos de sentido común; Minsky, que trabajaba sobre razonamientos analógicos de geometría; Selfridge, que estudiaba el reconocimiento visual por computador, Newell, Shaw y Simon, que habían construído un programa para la demostración automática de teoremas, y algunos otros. Ellos fueron los verdaderos iniciadores en el campo de investigación que McCarthy bautizó como "Inteligencia Artificial".
Escuelas de la I.A.
A partir de este grupo inicial, se formaron dos grandes "escuelas" de I.A.: Newell y Simon lideraron el equipo de la Universidad de Carnegie-Mellon, proponiéndose desarrollar modelos de comportamiento humano con aparatos cuya estructura se pareciese lo más posible a la del cerebro (lo que posteriormente derivó en la llamada postura "conexionista" y en los trabajos sobre "redes neuronales" artificiales).
McCarthy y Minsky formaron otro equipo en el Instituto Tecnológico de Massachusett (MIT), centrándose más en que los productos del procesamiento tengan el carácter de inteligente, sin preocuparse por que el funcionamiento o la estructura de los componentes sean parecidas a los del ser humano.
Ambos enfoques sin embargo corresponden a los mismos objetivos prioritarios de la I.A.: "entender la inteligencia natural humana, y usar máquinas inteligentes para adquirir conocimientos y resolver problemas considerados como intelectualmente difíciles".
Regresar al inicio de esta página
 

CONEXIONISMO E "IA" BASADA EN LA NATURALEZA:
En la IA tradicional (Escuela del MIT) -que tuvo mayor auge en los primeros 20 años- los investigadores se encontraron con que sus sistemas sucumbían ante la creciente longitud y complejidad de su programación. Quienes tenían más presente las peculiaridades del cerebro humano y optaron por el enfoque propuesto en la Universidad de Carnegie-Mellon no fueron sorprendidos.

"Los neurocientíficos piensan que el procesamiento de la información consciente toma apenas un milésimo del poder de cómputo del cerebro humano; el resto se dedica casi en su totalidad a tratar aspectos de más bajo nivel relacionados con la supervivencia. Esto sugiere que la IA ha estado intentando construir una torre partiendo de arriba en vez de [...] intentar construir los fundamentos de tales capacidades." (Freedman, pp.23-24)
A comienzos de los años ochenta, Stewart Wilson, investigador del Instituto Roland (Mass.), se convenció de que algo andaba mal en el campo de la IA "tradicional". Preguntándose cuáles eran las raíces de la inteligencia,
"se convenció de que no se podía construir una réplica de la inteligencia mientras no se la situara en el contexto de la sobrevivencia de las criaturas simples. En cierto sentido, simplemente aplicaba un punto aceptado desde mucho antes entre biólogos y psicólogos: que la mejor manera de comprender cómo funciona algo en un ser humano, es comprenderlo primero en un animal más simple. Ya que, en última instancia, la IA intentaba hacer una réplica de la inteligencia humana, Wilson decidió que lo primero era duplicar la inteligencia animal. Se trataba de una idea que nunca había tenido mucha popularidad entre los investigadores de IA, pero él y otros pronto la transformaron en un primer principio informal de una nuevo enfoque de ésta, basado en la naturaleza." (Freedman, p.27)
Así surgieron los "anímatas", especies de insectos artificiales, en el desarrollo de los cuales jugó un papel importante Rodney Brooks, un australiano doctorado en Stanford en el campo de la visión de máquina. Los robots de Brooks demuestran cómo una conducta inteligente puede emerger a partir de una programación extremadamente reducida de comportamientos sencillos (como, por ejemplo, levantar una pata si un "bigote" choca con un escalón).
"A lo largo de la década de los ochenta diversos departamentos de investigación, especialmente el Instituto Santa Fe de Nuevo México, habían estado prestando atención al concepto de propiedades emergentes, las que se transformaron en un elemento clave para comprender los comportamientos de sistemas complejos que tenían que adaptarse al cambio. En particular, las propiedades emergentes parecían decisivas para el esquema de diseño de la naturaleza; el ejemplo más importante era el ADN, una molécula en la que se encontraban codificados los planes para crear un completo organismo viviente, un modelo de la complejidad emergente de la simplicidad. Este elegante concepto se transformó en el segundo principio del enfoque de la IA basado en la naturaleza: la inteligencia podía ser emergente, una propiedad de la interacción compleja de elementos más simples." (ibidem, p.33)
Los robots así construídos se componen de piezas que cumplen cada una una función y cuentan cada una con un programa muy elemental. El procesador se encarga de dirigir a cada componente la información que necesita y de compatibilizar las respuestas. Es lo que se llama "arquitectura de subsunción", cuya principal ventaja es el escaso poder computacional que requiere para operar, al contrario del método tradicional que centraliza e integra todos los datos, los confronta con modelos abstractos y luego emplea patrones para escoger la acción adecuada. Aquí se elimina toda esta etapa intermedia, conectando directamente la selección de la acción con la información de los sensores.
Como ha sido demostrado con estos autómatas, un sistema basado en las propiedades emergentes de muchos elementos sencillos interactuantes podría evitar el problema de la excesiva longitud y complejidad de la programación algorítmica gracias a la capacidad de autoorganización, mediante la cual el sistema forja un orden a partir de un aparente caos, fenómeno también demostrado en las investigaciones sobre sistemas "caóticos". La biología completa es un ejemplo de este tipo de sistema.
"Podemos pensar no porque hayamos sido cargados con un programa que deletrea las especificidades y matices de la inteligencia, sino porque nuestras neuronas siguen reglas de conexión e interacción que hacen surgir la inteligencia capa a capa, cada una de ellas autoorganizándose" (Freedman, p.86).
Ramón y Cajal (1852-1934, Premio Nobel 1906) descubrió hace un siglo la estructura y el modo de funcionar de las neuronas. Advirtió que le cerebro se reorganiza constantemente, reforzando y debilitando una multiplicidad de sinapsis. Estos descubrimientos, el desarrollo posterior de la neurofisiología y trabajos como los de John Eccles y Gerald Edelman están en la base o incluso confirman las principales hipótesis en que descansa esta rama de la I.A. llamada "conexionista" en razón de que las conexiones y sus manipulaciones constituyen el factor central de sus sistemas. Parte de un principio propuesto por Donald Hebb en 1949. Para explicar el aprendizaje por autoprogramación, Hebb propuso una regla muy simple: si dos neuronas conectadas se disparan al mismo tiempo o casi, la conexión entre ellas se hará más fuerte. Al contrario, la falta prolongada de estímulo hará que la conexión se debilite (Freedman, p.87).
La arquitectura neuronal de computación intenta imitar de más cerca esta estructura del cerebro y su forma de operar. Una máquina neuronal se compone de elementos equivalentes a las neuronas y que imitan sus conexiones en red. En cuanto a la forma de operar, imita el proceso de aprendizaje relacionado con el cambio de estado de las conexiones entre las neuronas. De este modo, una máquina neuronal no se programa en la forma tradicional (traduciendo algoritmos en secuencias de órdenes y operaciones), sino que se ajusta progresivamente en función del uso, a modo de proceso de aprendizaje.
La compañía Fujitsu fabricó en 1988 el primer chip neuronal, con 32 neuronas (1024 conexiones). Por su parte, la Universidad de California (San Diego) anunció hace algún tiempo la fabricación de un prototipo electroóptico, mientras los laboratorios Bell, de la ATT, anunciaron un chip experimental con 256 neuronas y hasta 32.000 sinapsis, cuyos estados pueden cambiarse hasta 320 mil millones de veces por segundo. Sin embargo la mayor parte de las experiencias y desarrollos se han realizado hasta ahora mediante simulaciones en (super)computadores tradicionales.
Regresar al inicio de esta página
 

INTELIGENCIA:
Definir la inteligencia no es cosa fácil y, de hecho, existen numerosas definiciones de la misma. Wégnez presenta más de 20, para terminar resumiéndolas diciendo que "es la facultad de percibir, comprender, interpretar, juzgar y reaccionar de una manera que responde a ciertos criterios supuestamente superiores". Esta alusión a criterios externos nos remite evidentemente a la intuición de Turing y es vital a la hora de plantearse la factibilidad de una inteligencia "artificial".
De gran importancia es la definición dada por el psicopedagogo suizo Piaget:

Esta visión debe ser hoy complementada por la de la Biología del Conocimiento, de Humberto Maturana, que también visualiza la inteligencia en la capacidad de interacción (y adaptación) adecuada entre un sistema (vivo) y su entorno.
 Las discusiones que aún perduran acerca de la factibilidad de la IA se resumen en esencia a saber si la condición de ser vivo (o sistema "autopoiético", en los términos de Maturana) es o no esencial para poder hablar de inteligencia. Pero, como lo señala P.Lévy, parece descartado que se pueda considerar al ser vivo como una máquina que calcula (o un tipo muy sofisticado de computador). En efecto, el cálculo (como el que realiza la máquina de Turing) es una operación discreta sobre elementos atómicos. Los procesos biológicos al contrario -como se sabe hoy- actúan en un marco espacio-temporal contínuo (la velocidad de una reacción enzimática es contínua, la configuración topológica de la espiral de ADN también lo es, así como la modificación de forma de las proteinas, todos factores fundamentales en cómo el ser vivo "procesa" información). No se descarta que un tipo de máquina pueda simular a la otra, pero sí que puedan ser consideradas como equivalentes. El estado interno de un autómata (siempre reproductible) no parece, en modo alguno, comparable al de un ser vivo, único e irrepetible. Mientras el computador opera sobre la base de la lógica binaria y las operaciones son independientes de la naturaleza de los componentes físicos de la máquina, el pensamiento parece indisociable de los componentes físico-químicos y de la historicidad del sujeto que piensa.
Regresar al inicio de esta página
 

APRENDIZAJE:
Cualquiera sea la opción respecto al concepto de inteligencia, las máquinas que han de simularla requieren cumplir una condición esencial: deben poder recoger y conservar información a partir de sus interacciones pasadas, lo cual implica la capacidad de aprender, es decir de acumular y conservar información acerca de las experiencias pasadas en función de su reiteración.
Esto, conforme a la teoría biológica del conocimiento, ocurre como resultado de la transformación que ocurre en el sujeto como consecuencia de sus interacciones con el ambiente. Un programa que "aprende" es, por lo tanto, un programa que se automodifica a medida que acumula más información y de acuerdo al uso que se haga de él.
Regresar al inicio de esta página
 

COMPRENSION ARTIFICIAL:
Un ordenador que opere en el llamado nivel de la "comprensión cognoscitiva" -meta de la I.A.-, debiera poder hacer las siguientes cosas:

Estas son evidentemente altas exigencias, pero no imposibles (y aunque se logren, no permiten afirmar que el computador "entiende").
El desarrollo teórico de la I.A. es el fruto de numerosos esfuerzos experimentales por desarrollar procesos que sean ejemplos de "comprensión cognoscitiva", en algunos temas acerca de los cuales se entrega información a la máquina. Se verifica cada vez cuánta información se ha de darle y cuantas reglas han de programarse para que el resultado muestre la esperada "comprensión". La explicitación de estas reglas y del modo en que se aplican es el principal fruto de la investigación y el aporte de la I.A. al desarrollo del conocimiento acerca del ser humano y de su inteligencia. Dice Roger Schank, un importante investigador en IA: Regresar al inicio de esta página
 

PROCESAMIENTO DEL LENGUAJE:
El procesamiento del lenguaje es, a nuestro entender, el que mejor demuestra, por ahora, los avances y las posibilidades de la I.A. Es también, por cierto, el que presenta el mayor interés para los comunicadores, ya que se relaciona directamente con el problema de la transmisión y del uso de la información.

1. Palabras-claves
Uno de los primeros intentos de lograr la Prueba de Turing utilizando el lenguaje natural (es decir el lenguaje común diario) con un computador -y el más famoso- ha sido el proggrama ELIZA creado por Weizenbaum en 1966, en el Instituto Tecnológico de Massachusetts. Pretendía simular una conversación entre un siquiátra y su paciente. Fue posiblemente el primer programa que logró dar la apariencia de un diálogo entre el usuario y la máquina. Pero, por cierto, a la larga cualquier usuario inteligente terminaba descubriendo que "algo andaba mal". Como lo expresó un siquiátra que probó sus virtudes: "El interlocutor (la máquina) tenía una muy seria lesión cerebral".
No había en este caso ni un mínimo de captación de sentido, sino solo una hábil previsión de palabras-claves, acompañada de reglas para formular oraciones únicamente destinadas a inducir otra afirmación por parte del sujeto humano en interacción con él. En ausencia de alguna palabra-clave, entraban a jugar reglas de repetición o de inserción de alguna palabra aún sin uso, lo cual podía aparecer fácilmente como una preocupación fuera de contexto. Era, por lo tanto, un automatismo expresivo sin verdadero contenido significativo.

2. Análisis gramatical
Hasta este momento, el computador sólo "sabe" ejecutar órdenes dadas en un lenguaje especial y sólo puede reproducir, como mensaje al usuario, ciertas palabras que se incluyen en su programa o junto a él a modo de "datos" constantes. Se pensó que para una interracción en lenguaje natural habría que "enseñarle" un amplio vocabulario, la sintáxis y la gramática.
Los programas basados en el análisis gramatical, que sucedieron a ELIZA, no lograron progresos significativos por no considerar que el niño no aprende a hablar a partir de las reglas gramaticales, sino captando por un lado el significado y por otro las mútiples maneras de expresarlo. Llega a la gramática sabiendo ya manejar los significados. Por lo tanto, la comprensión no se demuestra por la capacidad de análisis gramatical. Así, los intentos de la época (como las primeras traducciones automáticas) fracasaron estrepitosamente.
Los progresos siguientes implican analizar el significado más que analizar las expresiones.

3. Procesamiento del significado
 El primer paso verdaderamente importante se dió cuando los investigadores descubrieron que los problemas de comprensión (sentido) no son idénticos a los de expresión (sintaxis). La comprensión del lenguaje se demuestra fundamentalmente en la capacidad de parafrasear, es decir de referirse a un mismo contenido cambiando su forma de expresión.
Como consecuencia, el estudio ha avanzado hacia el nivel del procesamiento conceptual. Para que éste pueda ocurrir, se ha de "informar al computador" acerca del sentido de las palabras, para lo cual se ha de dotarlo de algo que rinda cuenta de la estructura de un área del conocimiento, en que las relaciones son de suma importancia. Así, por ejemplo, se ha de explicar lo que es un "regalo" relacionando este término con muchos otros como dar, recibir, donación, gratuidad, explicando que la propiedad del objeto es transferida de la primera persona a la segunda, que se da generalmente con oportunidad de un acontecimiento festivo, que es grato, que se ha de agradecer, etc. Todo ello de modo estrictamente formal (mediante reglas de asociación y sustitución de símbolos), ya que un sistema de cálculo no tiene posibilidad alguna de acceder al "sentido" de los símbolos.
Toda información inicial (o pregunta) habrá entonces de ser traducida y vertida en un modelo fundamental que represente los múltiples aspectos del significado, independientemente de la gramática del lenguaje verbal. El programa deberá permitir utilizar este modelo de múltiples maneras, a fin de relacionar los datos de un modo nuevo y, así, generar una paráfrasis o una respuesta a una pregunta acerca de los datos, es decir realizar una inferencia a partir del conocimiento.
Pero si bien se debe poder partir de las palabras y regresar a ellas al contestar, los modelos del conocimiento han de alejarse de las palabras llegando a la estructura más profunda del conocimiento, basada sobre rasgos comunes a diferentes significados (llamados "primitivas" semánticas) y sobre las acciones lingüísticas que pueden realizarse con palabras relacionadas con estas primitivas. Además, las acciones lingüísticas son "meta-acciones": acciones acerca de lo que hace el hombre. Y cada una de las acciones que hace el hombre puede caracterizarse de tal modo que el computador reconozca sus componentes.
Este desarrollo es una nueva "estructura de conocimiento" -típicamente humana- que ha sido llamada un "guión". Se ha lleguado ya a guiones complejos que encadenan múltiples acciones y consideran situaciones o "escenarios" complejos, como por ejemplo todo lo que implica "comer en un restaurante" (escoger mesa, sentarse, mirar el menú, llamar al garzón, ordenar, qué puede ocurrir si se dice al cliente que no hay lo que pide, etc...). La descripción previa de tales guiones con escenarios es fundamental para que el computador pueda manejar adecuadamente el sentido de los relatos que luego se le entreguen. ¡Todo lo que nosotros sabemos por experiencia ha de ser registrado -a nivel estructural, o sea "teórico"- en la memoria del computador! Como dice también Schank: ¡es mucho más difícil instruir a un computador que a un niño de diez años!

4. Procesamiento de planes
Salta a la vista la dificultad de crear programas polivalentes: no podemos esperar para muy luego un software de análisis aplicable a cualquier relato. No sólo sería difícil acumular todos los guiones conocidos: hay que pensar que siempre pueden darse nuevas circunstancias con nuevas acciones o sea guiones improvisados. Esto también es propio de la vida humana. ¿Quién no ha tenido que improvisar la primera vez que se presentó a pedir trabajo? En otras palabras: los guiones son útiles en casos comunes pero insuficientes en situaciones más excepcionales. Tampoco pueden describir secuencias de acciones muy largas. En ambos casos, el ser humano procede a fijarse un objetivo y a diseñar un plan de acción. Este es el tercer nivel de estructuración de los modelos del conocimiento.
Como dice Schank: "Los ordenadores tienen que saber qué necesita y desea la gente. ... Un ordenador que lee los periódicos tendrá que saber que dos grandes países pueden fabricar -destructivas- bombas nucleares como parte de un plan para mantener la paz, si es que ha de entender los artículos de política internacional."
Si no queremos provocar desconcierto o respuestas absurdas, la información computarizada debe indicar cursos de acción cuando los hechos no ocurren de acuerdo con un plan. Para ello deberían "saber" como se generan los planes, es decir conocer el tipo de objetivos que tienen las personas en función de los cuales deciden sus acciones. Pero aquí ya vemos claramente que estamos llegando a un nivel donde resulta muy difícil pensar en un aparataje artificial.
Regresar al inicio de esta página
 
 

José Carlos Sarur Zanatta
Regresar a la página anterior

Hosted by www.Geocities.ws

1