Deoxy.-

La matemática es mucho más compleja que la computación actual

29-12-2006 15:06:07
Articulo Completo: http://www.lanacion .com.ar/853416

Entrevista exclusiva de LA NACION con Guillermo Martínez, escritor y
doctor en lógica matemática

Las computadoras no pueden desarrollar todo el complejo mundo matemático,
dejan afuera muchos resultados. "Ni siquiera desarrollan una parte tan elemental
de la ciencia como lo es la teoría de los números naturales. Siempre queda algo
fuera del poder de cálculo de la computadora. Aunque lo que demuestran
es correcto no alcanza, faltan enunciados", revela Guillermo Martínez,
escritor y doctor en lógica matemática. El estuvo a cargo de la charla
introductoria del evento Snoop Update 06 ( www.update06. com.ar )
que se realizó el 18 del actual en el Paseo La Plaza.

Observa después que actualmente se está desarrollando una nueva
generación de computadoras: las cuánticas. "El gran problema
tecnológico de la computación actual tiene que ver con lo que se llama
la complejidad algorítmica, es decir, la cantidad de tiempo que debe
invertir una computadora para resolver un problema. Esa limitación se
aprovecha para hacer codificaciones y encriptamientos en los que el
proceso de decodificació n sea, computacionalmente, trabajoso",
explica. Efectivamente, los especialistas en seguridad utilizan la
encriptación y codificación para obstaculizar la intromisión de
delincuentes informáticos.

Según Martínez, se utilizan tipos de encriptamiento cuya dificultad en
computación sea del orden exponencial. "Justamente los cálculos
exponenciales marcan una línea divisoria entre lo que se puede llegar
a realizar en la práctica cotidiana y lo que queda fuera del alcance
actual de las computadoras. Si un problema tiene una complejidad del
orden 2 a la n, rápidamente liquida toda la memoria posible de una
computadora clásica. Pero la computación cuántica trataría de resolver
esa cuestión", explica.

La última idea que Martínez destaca como otra de las principales
cuestiones que quedan fuera del alcance de la computación actual es el
azar. "Actualmente se están intentando desarrollar dispositivos y
métodos de algoritmos para tratar de capturar la noción de azar. Se
está buscando cómo hacer para generar números que sean aleatorios.
Cómo fabricar algo que sea azaroso", dice el escritor.

Ocurre que, contrariamente a lo que se cree, a medida que aumenta la
sucesión van apareciendo rachas cada vez más largas. Es decir, si se
arroja una moneda al aire, a medida que aumenta la cantidad de veces
que se tira la moneda, también se incrementa la longitud de
seguidillas de la misma cara. "En la computación todos los
procedimientos que uno supone son al azar, en realidad no lo son. Son
procesos seudoaleatorios" , detalla Martínez. Otra limitación actual de
las computadoras es que no hay manera de generar números al azar.

En resumen, la computación es una rama de la matemática aplicada que
tiene que hacer sus simplificaciones para poder funcionar. "Las
computadoras proceden según un programa. Cualquiera que conozca a
fondo el programa puede predecir la corrida que va a hacer.
Necesitaría tener dentro del software una ruleta para poder incorporar
la idea de azar -dice el matemático-. La matemática, en su desarrollo
teórico, es mucho más compleja que la computación."

Link corto: http://www.lanacion .com.ar/853416

Comments