HISTORIA
Introducción
Filosofia
Historia
Tendencias
Bibliografia y Contacto

Turing

Congreso en Dartmount

Prineras experiencias comerciales

Proyecto Norte Americano y Japones

Tropiesos

Acontecimientos I.A. clasica

Redes Neuronales

Actualidad

Alan Turing

Turing puede considerarse como el padre I.A., aunque este nombre no se usase hasta después de 1956. Turing estudió lógica matemática en la universidad de Cambridge. En 1937 publicó una ponencia sobre "números computables" donde expuso el concepto de la "maquina universal de Turing" afirmando que la maquina puede desarrollar cualquier procedimiento matemático siempre que se le proporcione una tabla adecuada de instrucciones.

Durante la segunda guerra mundial lidero el proyecto británico para descifrar el código militar Alemán "enigma",el resultado de este proyecto fueron las maquinas electromecánica Robinson y la maquina electrónica Colossus, que fueron vitales para los aliados para descifrar los mensajes alemanes durante la 2 guerra,echo por el cual nunca recibió en vida reconocimiento alguno de la sociedad a la que tanto ayudo en sus momentos difíciles.
Después de la 2 guerra marcho al National Physical Laboratory, en Teddington, para contribuir en el diseño de ACE(Automatic Computing Engine).
Condenado a causa de su Homosexualidad a un tratamiento, o tortura, médico-farmaceutica equivalente a la castración, Turing se suicidó por envenenamiento en 1954.

 

 

 

Congreso en Darmount (USA) Volver

En le año de 1956 se celebro un congreso en Dartmount(New Hampshire) U.S.A., John McCarthy , Marvin Minsky, Nathaniel Rochester y Claude Shannon convencidos por el primero, lograron que la fundacion Rockefeller financiase el seminario de 2 meses, donde todos los participantes tenían una metodología en común; el uso de ordenadores como instrumento para comprender y simular el comportamiento de las "Maquinas pensantes", aunque en el congreso se utilizaron otros términos el que mas fuerza tomo y es el que utilizamos ahora es el de INTELIGENCIA ARTIFICIAL, termino acuñado por MaCarthy en la conferencia.
Aunque el seminario de Dartmount no significase, desde el punto de vista estrictamente científico nada espectacular, relacionó entre ellos a las que fueron las grandes personalidades de la I.A. los cuales dominaron en las primeras décadas de la naciente ciencia, entre los cuales están; Ray Salomonoff, Oliver Selfridge, Trenchand More, Arthur Samuel, Herbert Simon y Allen Newell. El mas importante trabajo presentado durante la conferencia fue el de Herbert Simon y Allen Newell, el programa LT (Logical Theorist), que "razonaba" como un lógico y para el que debieron inventar un lenguaje especial, el programa poco después del seminario, fue capaz de demostrar por su cuenta muchos de los teoremas del segundo capitulo del influyente libro sobre teoría de conjuntos, "Principia Mathematica" de Bertrand Russell y Alfred North Whitehead , el programa dio una prueba de manera original de un importante teorema que hasta entonces no se había logrado resolver.

Primeras experiencias comerciales Volver

En la década de los 80, comenzaron las primeras industrias con fines comerciales de I.A. El sistema experto comercial, R1, inicio sus actividades en Digital Equipment Corporation( McDermont, 1982). El programa en la elaboración de nuevos pedidos de nuevos sistemas de computación. Para 1986, el grupo de I.A. de la DEC había distribuido ya 40 sistemas expertos. Du Pont utilizaba ya 100 y estaba en etapa de diseño de 500 mas. Casi todas las compañías importantes de USA contaban con su propio grupo de I.A, donde la tecnología se basaba en sistemas expertos

Proyecto Norte Americano y Japones Volver

Un echo importante fue que en 1981 el gobierno japonés anuncio el proyecto de la "quinta generación", un plan de 10 años para construir computadoras inteligentes en los que corriese prolog, de manera idéntica a como las computadoras comunes corren código de maquina.
En USA el proyecto Japonés suscitó el temor en de que los japonés tomaran el dominio en este campo, lo cual genero un apoyo para la inversión en investigaciones en I.A. en Estados Unidos se fundo el MCC (Microelectronic and Computer Technology Corporation) para contrarrestar el proyecto japonés.

Tropiesos Volver

Los existos iniciales crearon expectativas falsas sobre la I.A. por ejemplo Simon y Newell en un trabajo de 1958 titulado "Heuristic Problem Solving:The next Advance in Operation Research", predice que en 10 años (1968) seria campeón de ajedrez y donde también afirma "Actualmente hay en el mundo maquinas de pensar que aprenden y crean. Ademas, su capacidad de estas cosas crecerá rápidamente hasta que-en un futuro cercano- el abanico de problemas que puedan manejar sea coextensivo del abanico al que se a aplicado la mente humana".

El no cumplimiento de estas metas y otros factores como las criticas como la de Marvin Minski y Seymour Papert que en uno de sus libros "Perceptons" consideraron que la extensión a perceptrones multinivel (El perceptrón original solo poseía una capa) era completamente estéril y el fracaso de las investigaciones financiadas por el gobierno Norte Americano para la traducción automática de textos, frenaron el auge inicial de la I.A durante varios años.

En estos mismos años alex Bernstein, trato de enseñarle a un ordenador de IBM a jugar damas. El programa de Berstein llegó a conocimiento público a través de la prensa y en la junta de accionistas de IBM el presidente de la compañía fue increpado por algunos socios, que dudaba de que IBM debiera gastar dinero en la investigación de asuntos "frívolos", con el añadido de que un informe de los técnicos de marketing avisaba un posible cambio de tendencia en los compradores , aparentemente asustado por lo que decía que podían hacer las maquinas. Estos factores causaron un alejamiento entre IBM y la I.A. Que duró bastantes años.

Acontecimientos I.A. clasica Volver

John McCarthy publico en 1958 el articulo "programas con sentido común " donde propuso la utilización del calculo de predicados como un lenguaje para representar el conocimiento por medio de un sistema llamado " sistema consejero "(advicer taker), sistema que en lugar de programarlo , había que decirle lo que necesitaba saber para resolver un problema.
En 1958 Minsky trabajo en el MIT, donde ya estaba McCarthy, quien Hizo ese año otra aportaciones fundamental para la I.A: Definió el lenguaje Lisp(List processing), lenguaje dominante de la I.A por mas de 25 años.

Durante el final de la década de los cincuenta el trabajo mas significativo fue el solucionador general de problemas GTP (General Problem Solver) de Allen Newell,Cliff Shaw y Herbert Simon,programa para la demostración de teoremas que utilizaba símbolos en sustitución de cantidades numéricas, deacuerdo con los protocolos que los sicólogos tenia de como los humanos resolvían problemas o armaban puzzles, el GTP fue el primer programa que incorporo un modo de razonar similar al humano.

Minsky al final de los 60 y principio de los 70 trabajo en problemas definidos en ámbitos limitados pero que parecían requerir inteligencia, tales ámbitos se conocen como Micro mundos. El micro mundo mas famoso fue el MUNDO DE BLOQUES, consistente en un conjunto de bloques sólidos sobre un tablero simulado, con la tarea de reagrupar los bloques por medio de un brazo mecánico que podía coger un bloque cada vez.

En 1975, Minsky publico el articulo, cuya traducción es "Un marco para representar conocimientos". Donde Teoriza en como reproducir el pensamiento ordinario y el sentido común.
En los últimos años de los 70 y los primeros de los 80, se enfatizo en el desarrollo de programas que contenían el conocimiento necesario para mimetizar el comportamiento humano en tareas tales como el diagnostico, el diseño y el análisis. Para esto se necesitaba recoger grandes cantidades de conocimiento. DENDRAL desarrollado por Edwar Feigenbaum se considera el pionero en este sentido, es un programa para predecir la estructura de las moléculas orgánicas a partir de su formula química y de su espectro grama de masas.

El 11 de mayo de 1997, un programa de ordenador de IBM, denominado DEEP BLUE, consiguió vencer al entonces campeón del mundo de ajedrez, Gary Kasparov, por 3,5 a 2,5 en un encuentro a 6 partidas.

Redes Neuronales Volver

Aunque algunos autores consideran la tesis doctoral echa por Marvin Minsky el SNARC, un ensamble de neuronas artificiales que simulaba el cerebro de una rata aprendiendo a cruzar un laberinto, como la primera red neuronal( y efectivamente lo es), podríamos decir que el trabajo que comenzó Frank Rosenblatt en 1957, el Perceptrón es la mas antigua red neuronal estructurada, y se usa hoy en día de varias formas para la aplicación como reconocedor de patrones.

En 1959 , Bernard Widrow y Marcial Hoff, desarrollaron el modelo ADALINE(ADAptive LINear Elements).Esta fue la primera red neuronal aplicada a un problema real( filtros adaptativos para eliminar ecos en las lineas telefónicas).

En 1967 Stephen Grossberg realizo una red neuronal, Avalancha, que consistía en elementos discretos con actividad que varia con el tiempo que satisface las ecuaciones diferenciales continuas, para resolver actividades tales como reconocimiento continuo del habla y aprendizaje de los movimientos de los brazos de un robot.

Actualidad Volver

En la actualidad las investigaciones en I.A tienen un nuevo impulso y son tan diversas que seria prácticamente imposible saber cual es la tendencia actual. Actualmente es mas común construir sobre teorías ya existentes que proponer teorías totalmente novedosas, tomar como rigurosos teoremas o solidas evidencias experimentales mas que la intuición, y demostrar la utilidad de las aplicaciones en el mundo real mas que en crear ejemplos de juguete.
Podemos hablar de redes neuronales, vida artificial, algoritmos genéticos, sistemas expertos, softbots (agentes de software que recorren internet buscando información que ellos que creen que puede ser de interés para el usuario), Autoregeneracion, etc. Es importante entender que la I.A. Va cogida de la mano con las nuevas tecnologías de frontera de la computación y el avance en estas también implica nuevas fronteras para la inteligencia artificial, entre las nuevas tecnologías podemos mencionar: la computación óptica que emplea corrientes de fotones, la computación molecular que aprovecha la molécula de ADN para la computación, la utilización de cristales tridimensionales , Utilización de nanotubos , moléculas microscópicas de carbono extremadamente fuertes, en la nanoingenieria y la computación cuántica que utiliza los fundamentos de al mecánica cuántica.

 

 

 

 

Hosted by www.Geocities.ws

1