Se considera generalmente que el orígen remoto de la "Inteligencia Artificial" se remonta a los intentos por crear autómatas, que simulasen la forma y las habilidades de los seres humanos. Pero el orígen inmediato del concepto y de los criterios de desarrollo de la "I.A." se remonta a la intuición del matemático inglés Alan Turing y el apelativo "Inteligencia Artificial" se debe a McCarthy, uno de los integrantes del "Grupo de Darmouth", un grupo de investigadores que se reunió en 1956 en el Darmouth College (Estados Unidos), para discutir la posibilidad de construir máquinas que no se limitaran a hacer cálculos prefijados sino operaciones genuinamente "inteligentes".
GUIA:
Los puntos interesantes a estudiar en IA son:
LOS PRECURSORES:
Grecia
Se considera generalmente que el orígen remoto de la "Inteligencia
Artificial" se remonta a los intentos por crear autómatas, que simulasen
la forma y las habilidades de los seres humanos. Los griegos, además
de la famosa paloma de Arquitas, crearon numerosos juguetes y artefactos
automáticos como los que construyó Arquímedes para
proteger a Siracusa del asedio de la flota romana.
Pero se debe a Herón de Alejandría la primera construcción
de un autómata con forma humana: construyó actores artificiales
que representaban una obra sobre la Guerra de Troya. Aunque, por cierto,
la mitología griega atribuye a Hefaistos (dios del fuego y primer
herrero) la fabricación de los primeros "robots" de forma humana.
Edad Media
Hay que esperar la Edad Media para encontrar la continuación
de estos esfuerzos. San Alberto Magno tuvo un "mayordomo" que abría
la puerta y saludaba al visitante, y Leonardo construyó un león
que caminaba. También se cita habitualmente al "Golem", homínido
hecho de barro, obra del rabino húngaro Low que lo "dotó
de vida" en una ceremonia mágica (lo cual desvirtúa por cierto
el valor científico del invento).
Era Moderna
En el Siglo XVII, los Droz, padre e hijo, construyeron tres androides:
dos niños y una joven. Un niño escribía, el otro dibujaba
y la joven tocaba el órgano y simulaba respirar. Esta realización
(basada en mecanismos de relojería) les valió ser detenidos
y encerrados por la Inquisición.
Las mejores realizaciones se deben a Vaucouson, entre ellas el "Tocador
de Flauta" (que soplaba y movía los dedos, tocando hasta 12 melodías
diferentes) y el Pato (que graznaba, batía las alas, comía
y "digería" mecánicamente).
En la página sobre "Historia" hemos mencionado los avances del
Siglo XIX y del Siglo XX en materia de nuevas máquinas automáticas.
Los trabajos de Babbage y de Boole son fundamentales en este campo.
El orígen inmediato del concepto y de los criterios de desarrollo
de la "Inteligencia Artificial" se remonta a la intuición de un
genio matemático fallecido prematuramente: Alan Turing, inventor
de la máquina descifradora de los mensajes de las tropas nazis.
Turing, deseoso de crear un cerebro artificial, inventó la siguiente
prueba:
Regresar al inicio de esta página
PRUEBA DE
TURING:
Un interrogador permanece encerrado en una pieza, enviando mensajes
por un buzón a dos interlocutores, un hombre y una mujer, siendo
su objetivo determinar quién es el hombre y quién la mujer
(sin preguntar, obviamente, por el sexo de cada uno). En el modelo inicial
de la prueba, se supone que el varón quiere hacerse pasar por mujer.
Luego se pregunta: ¿qué ocurrirá si el varón
es reemplazado por una máquina? Si el diálogo que ocurra
y el número de errores en la solución dada se acerca al número
de errores ocurridos en la comunicación con un ser humano, se podrá
estimar -según Turing- que estamos ante una máquina "inteligente".
Esta es la -desde entonces- llamada "PRUEBA DE TURING".
Regresar al inicio de esta página
WIENER Y
LA CIBERNETICA:
La Segunda Guerra Mundial ayudó a "apurar el paso", generando
una necesidad urgente de nuevas técnicas destinadas a procesar datos
(es decir obtener informaciones nuevas a partir de una "materia prima"
de datos iniciales). No podemos terminar el relato de la época sin
mencionar el nacimiento de una disciplina muy afín a la informática
y gran "consumidora" de recursos computacionales: la cibernética.
Un
equipo interdisciplinario (antropólogos, fisiólogos, matemáticos,
psicólogos y un economista), bajo la dirección de Norbert
WIENER, se enfrentó al problema de las trayectorias de proyectiles
dirigidos hacia objetos en movimientos, como los aviones enemigos. Para
acertar, debe predecirse la posición futura del blanco, y corregirse
la trayectoria si éste cambia de dirección.
El equipo de Wiener se dió cuenta que era un problema semejante
al que resuelve el cerebro cuando conduce la mano para recoger un objeto
(estático o en movimiento). Así formaron el propósito
de crear un aparato que imitaría los procesos de control existentes
en el ser humano (y eminentes fisiólogos fueron integrados al grupo).
Este equipo -que recuperó el concepto de retroalimentación
(feed-back) de Babbage-, al avanzar en sus trabajos echó las bases
de la cibernética, disciplina hoy rectora de los procedimientos
automáticos. De ella se valen las plantas industriales que utilizan
robots (dispositivos activos controlados por computadores) en sus procesos
de fabricación.
En 1949 fue publicado el resultado (teórico) de los trabajos
del equipo de Wiener bajo el título de "Cybernetics". La naciente
cibernética se definió como "teoría de la comunicación
y autorregulación en sistemas probabilístas extremadamente
complejos".
Regresar al inicio de esta página
EL GRUPO
DE DARMOUTH:
En el verano de 1956, un grupo de investigadores -inspirados en la
Prueba de Turing- se reunió en el Darmouth College (Estados Unidos)
para discutir la posibilidad de construir máquinas que no se limitaran
a hacer cálculos prefijados sino operaciones genuinamente "inteligentes".
Los integrantes del grupo eran Samuel, que había escrito un
programa de juego de damas capaz de aprender de su propia experiencia;
McCarthy, que estudiaba sistemas capaces de efectuar razonamientos de sentido
común; Minsky, que trabajaba sobre razonamientos analógicos
de geometría; Selfridge, que estudiaba el reconocimiento visual
por computador, Newell, Shaw y Simon, que habían construído
un programa para la demostración automática de teoremas,
y algunos otros. Ellos fueron los verdaderos iniciadores en el campo de
investigación que McCarthy bautizó como "Inteligencia Artificial".
Escuelas de la I.A.
A partir de este grupo inicial, se formaron dos grandes "escuelas"
de I.A.: Newell y Simon lideraron el equipo de la Universidad de Carnegie-Mellon,
proponiéndose desarrollar modelos de comportamiento humano con aparatos
cuya estructura se pareciese lo más posible a la del cerebro (lo
que posteriormente derivó en la llamada postura "conexionista" y
en los trabajos sobre "redes neuronales" artificiales).
McCarthy y Minsky formaron otro equipo en el Instituto Tecnológico
de Massachusett (MIT), centrándose más en que los productos
del procesamiento tengan el carácter de inteligente, sin preocuparse
por que el funcionamiento o la estructura de los componentes sean parecidas
a los del ser humano.
Ambos enfoques sin embargo corresponden a los mismos objetivos prioritarios
de la I.A.: "entender la inteligencia natural humana, y usar máquinas
inteligentes para adquirir conocimientos y resolver problemas considerados
como intelectualmente difíciles".
Regresar al inicio de esta página
CONEXIONISMO
E "IA" BASADA EN LA NATURALEZA:
En la IA tradicional (Escuela del MIT) -que tuvo mayor auge en los
primeros 20 años- los investigadores se encontraron con que sus
sistemas sucumbían ante la creciente longitud y complejidad de su
programación. Quienes tenían más presente las peculiaridades
del cerebro humano y optaron por el enfoque propuesto en la Universidad
de Carnegie-Mellon no fueron sorprendidos.
"Los neurocientíficos piensan que el procesamiento de la información consciente toma apenas un milésimo del poder de cómputo del cerebro humano; el resto se dedica casi en su totalidad a tratar aspectos de más bajo nivel relacionados con la supervivencia. Esto sugiere que la IA ha estado intentando construir una torre partiendo de arriba en vez de [...] intentar construir los fundamentos de tales capacidades." (Freedman, pp.23-24)A comienzos de los años ochenta, Stewart Wilson, investigador del Instituto Roland (Mass.), se convenció de que algo andaba mal en el campo de la IA "tradicional". Preguntándose cuáles eran las raíces de la inteligencia,
"se convenció de que no se podía construir una réplica de la inteligencia mientras no se la situara en el contexto de la sobrevivencia de las criaturas simples. En cierto sentido, simplemente aplicaba un punto aceptado desde mucho antes entre biólogos y psicólogos: que la mejor manera de comprender cómo funciona algo en un ser humano, es comprenderlo primero en un animal más simple. Ya que, en última instancia, la IA intentaba hacer una réplica de la inteligencia humana, Wilson decidió que lo primero era duplicar la inteligencia animal. Se trataba de una idea que nunca había tenido mucha popularidad entre los investigadores de IA, pero él y otros pronto la transformaron en un primer principio informal de una nuevo enfoque de ésta, basado en la naturaleza." (Freedman, p.27)Así surgieron los "anímatas", especies de insectos artificiales, en el desarrollo de los cuales jugó un papel importante Rodney Brooks, un australiano doctorado en Stanford en el campo de la visión de máquina. Los robots de Brooks demuestran cómo una conducta inteligente puede emerger a partir de una programación extremadamente reducida de comportamientos sencillos (como, por ejemplo, levantar una pata si un "bigote" choca con un escalón).
"A lo largo de la década de los ochenta diversos departamentos de investigación, especialmente el Instituto Santa Fe de Nuevo México, habían estado prestando atención al concepto de propiedades emergentes, las que se transformaron en un elemento clave para comprender los comportamientos de sistemas complejos que tenían que adaptarse al cambio. En particular, las propiedades emergentes parecían decisivas para el esquema de diseño de la naturaleza; el ejemplo más importante era el ADN, una molécula en la que se encontraban codificados los planes para crear un completo organismo viviente, un modelo de la complejidad emergente de la simplicidad. Este elegante concepto se transformó en el segundo principio del enfoque de la IA basado en la naturaleza: la inteligencia podía ser emergente, una propiedad de la interacción compleja de elementos más simples." (ibidem, p.33)Los robots así construídos se componen de piezas que cumplen cada una una función y cuentan cada una con un programa muy elemental. El procesador se encarga de dirigir a cada componente la información que necesita y de compatibilizar las respuestas. Es lo que se llama "arquitectura de subsunción", cuya principal ventaja es el escaso poder computacional que requiere para operar, al contrario del método tradicional que centraliza e integra todos los datos, los confronta con modelos abstractos y luego emplea patrones para escoger la acción adecuada. Aquí se elimina toda esta etapa intermedia, conectando directamente la selección de la acción con la información de los sensores.
"Podemos pensar no porque hayamos sido cargados con un programa que deletrea las especificidades y matices de la inteligencia, sino porque nuestras neuronas siguen reglas de conexión e interacción que hacen surgir la inteligencia capa a capa, cada una de ellas autoorganizándose" (Freedman, p.86).Ramón y Cajal (1852-1934, Premio Nobel 1906) descubrió hace un siglo la estructura y el modo de funcionar de las neuronas. Advirtió que le cerebro se reorganiza constantemente, reforzando y debilitando una multiplicidad de sinapsis. Estos descubrimientos, el desarrollo posterior de la neurofisiología y trabajos como los de John Eccles y Gerald Edelman están en la base o incluso confirman las principales hipótesis en que descansa esta rama de la I.A. llamada "conexionista" en razón de que las conexiones y sus manipulaciones constituyen el factor central de sus sistemas. Parte de un principio propuesto por Donald Hebb en 1949. Para explicar el aprendizaje por autoprogramación, Hebb propuso una regla muy simple: si dos neuronas conectadas se disparan al mismo tiempo o casi, la conexión entre ellas se hará más fuerte. Al contrario, la falta prolongada de estímulo hará que la conexión se debilite (Freedman, p.87).
INTELIGENCIA:
Definir la inteligencia no es cosa fácil y, de hecho, existen
numerosas definiciones de la misma. Wégnez presenta más de
20, para terminar resumiéndolas diciendo que "es la facultad de
percibir, comprender, interpretar, juzgar y reaccionar de una manera que
responde a ciertos criterios supuestamente superiores". Esta alusión
a criterios externos nos remite evidentemente a la intuición de
Turing y es vital a la hora de plantearse la factibilidad de una inteligencia
"artificial".
De gran importancia es la definición dada por el psicopedagogo
suizo Piaget:
APRENDIZAJE:
Cualquiera sea la opción respecto al concepto de inteligencia,
las máquinas que han de simularla requieren cumplir una condición
esencial: deben poder recoger y conservar información a partir de
sus interacciones pasadas, lo cual implica la capacidad de aprender, es
decir de acumular y conservar información acerca de las experiencias
pasadas en función de su reiteración.
Esto, conforme a la teoría biológica del conocimiento,
ocurre como resultado de la transformación que ocurre en el sujeto
como consecuencia de sus interacciones con el ambiente. Un programa que
"aprende" es, por lo tanto, un programa que se automodifica a medida que
acumula más información y de acuerdo al uso que se haga de
él.
Regresar al inicio de esta página
COMPRENSION
ARTIFICIAL:
Un ordenador que opere en el llamado nivel de la "comprensión
cognoscitiva" -meta de la I.A.-, debiera poder hacer las siguientes cosas:
PROCESAMIENTO
DEL LENGUAJE:
El procesamiento del lenguaje es, a nuestro entender, el que mejor
demuestra, por ahora, los avances y las posibilidades de la I.A. Es también,
por cierto, el que presenta el mayor interés para los comunicadores,
ya que se relaciona directamente con el problema de la transmisión
y del uso de la información.
1. Palabras-claves
Uno de los primeros intentos de lograr la Prueba de Turing utilizando
el lenguaje natural (es decir el lenguaje común diario) con un computador
-y el más famoso- ha sido el proggrama ELIZA creado por Weizenbaum
en 1966, en el Instituto Tecnológico de Massachusetts. Pretendía
simular una conversación entre un siquiátra y su paciente.
Fue posiblemente el primer programa que logró dar la apariencia
de un diálogo entre el usuario y la máquina. Pero, por cierto,
a la larga cualquier usuario inteligente terminaba descubriendo que "algo
andaba mal". Como lo expresó un siquiátra que probó
sus virtudes: "El interlocutor (la máquina) tenía una muy
seria lesión cerebral".
No había en este caso ni un mínimo de captación
de sentido, sino solo una hábil previsión de palabras-claves,
acompañada de reglas para formular oraciones únicamente destinadas
a inducir otra afirmación por parte del sujeto humano en interacción
con él. En ausencia de alguna palabra-clave, entraban a jugar reglas
de repetición o de inserción de alguna palabra aún
sin uso, lo cual podía aparecer fácilmente como una preocupación
fuera de contexto. Era, por lo tanto, un automatismo expresivo sin verdadero
contenido significativo.
2. Análisis gramatical
Hasta este momento, el computador sólo "sabe" ejecutar órdenes
dadas en un lenguaje especial y sólo puede reproducir, como mensaje
al usuario, ciertas palabras que se incluyen en su programa o junto a él
a modo de "datos" constantes. Se pensó que para una interracción
en lenguaje natural habría que "enseñarle" un amplio vocabulario,
la sintáxis y la gramática.
Los programas basados en el análisis gramatical, que sucedieron
a ELIZA, no lograron progresos significativos por no considerar que el
niño no aprende a hablar a partir de las reglas gramaticales, sino
captando por un lado el significado y por otro las mútiples maneras
de expresarlo. Llega a la gramática sabiendo ya manejar los significados.
Por lo tanto, la comprensión no se demuestra por la capacidad de
análisis gramatical. Así, los intentos de la época
(como las primeras traducciones automáticas) fracasaron estrepitosamente.
Los progresos siguientes implican analizar el significado más
que analizar las expresiones.
3. Procesamiento del significado
El primer paso verdaderamente importante se dió cuando
los investigadores descubrieron que los problemas de comprensión
(sentido) no son idénticos a los de expresión (sintaxis).
La comprensión del lenguaje se demuestra fundamentalmente en la
capacidad de parafrasear, es decir de referirse a un mismo contenido cambiando
su forma de expresión.
Como consecuencia, el estudio ha avanzado hacia el nivel del procesamiento
conceptual. Para que éste pueda ocurrir, se ha de "informar al computador"
acerca del sentido de las palabras, para lo cual se ha de dotarlo de algo
que rinda cuenta de la estructura de un área del conocimiento, en
que las relaciones son de suma importancia. Así, por ejemplo, se
ha de explicar lo que es un "regalo" relacionando este término con
muchos otros como dar, recibir, donación, gratuidad, explicando
que la propiedad del objeto es transferida de la primera persona a la segunda,
que se da generalmente con oportunidad de un acontecimiento festivo, que
es grato, que se ha de agradecer, etc. Todo ello de modo estrictamente
formal (mediante reglas de asociación y sustitución de símbolos),
ya que un sistema de cálculo no tiene posibilidad alguna de acceder
al "sentido" de los símbolos.
Toda información inicial (o pregunta) habrá entonces
de ser traducida y vertida en un modelo fundamental que represente los
múltiples aspectos del significado, independientemente de la gramática
del lenguaje verbal. El programa deberá permitir utilizar este modelo
de múltiples maneras, a fin de relacionar los datos de un modo nuevo
y, así, generar una paráfrasis o una respuesta a una pregunta
acerca de los datos, es decir realizar una inferencia a partir del conocimiento.
Pero si bien se debe poder partir de las palabras y regresar a ellas
al contestar, los modelos del conocimiento han de alejarse de las palabras
llegando a la estructura más profunda del conocimiento, basada sobre
rasgos comunes a diferentes significados (llamados "primitivas" semánticas)
y sobre las acciones lingüísticas que pueden realizarse con
palabras relacionadas con estas primitivas. Además, las acciones
lingüísticas son "meta-acciones": acciones acerca de lo que
hace el hombre. Y cada una de las acciones que hace el hombre puede caracterizarse
de tal modo que el computador reconozca sus componentes.
Este desarrollo es una nueva "estructura de conocimiento" -típicamente
humana- que ha sido llamada un "guión". Se ha lleguado ya a guiones
complejos que encadenan múltiples acciones y consideran situaciones
o "escenarios" complejos, como por ejemplo todo lo que implica "comer en
un restaurante" (escoger mesa, sentarse, mirar el menú, llamar al
garzón, ordenar, qué puede ocurrir si se dice al cliente
que no hay lo que pide, etc...). La descripción previa de tales
guiones con escenarios es fundamental para que el computador pueda manejar
adecuadamente el sentido de los relatos que luego se le entreguen. ¡Todo
lo que nosotros sabemos por experiencia ha de ser registrado -a nivel estructural,
o sea "teórico"- en la memoria del computador! Como dice también
Schank: ¡es mucho más difícil instruir a un computador
que a un niño de diez años!
4. Procesamiento de planes
Salta a la vista la dificultad de crear programas polivalentes: no
podemos esperar para muy luego un software de análisis aplicable
a cualquier relato. No sólo sería difícil acumular
todos los guiones conocidos: hay que pensar que siempre pueden darse nuevas
circunstancias con nuevas acciones o sea guiones improvisados. Esto también
es propio de la vida humana. ¿Quién no ha tenido que improvisar
la primera vez que se presentó a pedir trabajo? En otras palabras:
los guiones son útiles en casos comunes pero insuficientes en situaciones
más excepcionales. Tampoco pueden describir secuencias de acciones
muy largas. En ambos casos, el ser humano procede a fijarse un objetivo
y a diseñar un plan de acción. Este es el tercer nivel de
estructuración de los modelos del conocimiento.
Como dice Schank: "Los ordenadores tienen que saber qué necesita
y desea la gente. ... Un ordenador que lee los periódicos tendrá
que saber que dos grandes países pueden fabricar -destructivas-
bombas nucleares como parte de un plan para mantener la paz, si es que
ha de entender los artículos de política internacional."
Si no queremos provocar desconcierto o respuestas absurdas, la información
computarizada debe indicar cursos de acción cuando los hechos no
ocurren de acuerdo con un plan. Para ello deberían "saber" como
se generan los planes, es decir conocer el tipo de objetivos que tienen
las personas en función de los cuales deciden sus acciones. Pero
aquí ya vemos claramente que estamos llegando a un nivel donde resulta
muy difícil pensar en un aparataje artificial.
Regresar al inicio de esta página