Universidad Nueva Esparta
Maestría en Gerencia Tecnológica
Cátedra: ELECTRONICA, ROBOTICA Y REDES DE COMUNICACION


Prólogo

La unidad con que se inicia este curso, ha sido tema fascinante para mí desde la adolescencia. Aquéllos que tienen alrededor de 40 años de edad, han visto como la ciencia de la computación y la cibernética ha dado pasos agigantados y hoy en día se pueden realizar tareas con una simplicidad que hace apenas 10 años nos hubieran mantenido atados a un equipo procesador por muchas horas.

Recuerdo cuando siendo estudiante de "Programming Language 1" (PL/1) en el primer semestre de ingeniería eléctrica, sufría horrores haciendo "compilar" un programa simple que había perforado en tarjetas y que debía llevar al "computador de la Universidad del Zulia" (el IBM más moderno de la época), colocadas en una vieja caja de zapatos. Recuerdo también como debía esperar hasta el día siguiente el listado del programa para ver si había corrido. El programa casi siempre tenía un error de sintaxis y eran pocos los que corrían con la suerte de "corriera" la primera vez.

Dos semestres después observábamos atónitos el primer "PC", marca IBM. El mismo se programaba en Lenguaje "Basic", mucho más sencillo y amigable (aún no se usaba el término) que el otrora "monstruo" oculto detrás de las puertas de la Universidad. Este PC estaba instalado en una empresa de telecomunicaciones de renombre en Maracaibo, y solamente tenían PC's las empresas de alta tecnología en telecomunicaciones y sectores muy tecnificados de la industria petrolera nacional.

Corría el año de 1984 cuando por primera vez vi lo que era un microprocesador. Jamás pensé que este pequeño dispositivo iba a tener tanta trascendencia en mi vida, y que representaría los sinsabores y triunfos de la culminación de una carrera universitaria. Me lancé entonces decidido a realizar una tesis de "alta tecnología".

Mi tesis duró un año, y en 1985 había permanecido prácticamente encerrado en un laboratorio de la entonces filial de PDVSA, Corpoven, S.A.; en un sótano de las Torres Petroleras en El Saladillo, para desarrollar un pequeño (no en aquel entonces) programa en lenguaje "assembler" que leía datos de un puerto serial RS 232 en un taladro de perforación remoto, pasaba por un multiplexor, un módem y luego era transmitido vía microondas al Centro Petrolero en Maracaibo, donde era pasado por el módem, el multiplexor y entraba a mi pequeño microprocesador prototipo Intel® 8085. Este programa pretendía descifrar todos los datos que una empresa francesa llamada "Teledrill" tomaba localmente en el taladro, tales como revoluciones por minutos de la mecha, caudal de lodo de perforación que entra y sale del pozo, temperatura de la mecha, profundidad de la mecha, etc. Los franceses estaban ofreciendo a Corpoven la transmisión de datos a un precio más allá de lo que se consideraba razonable y se tenían las esperanzas puestas en un grupo de pasantes tesistas que desarrollaban distintos prototipos de protocolos de comunicación, usando equipos de la época.

Esta fue sin duda un época fascinante y los recuerdos están vivos. En fin, tomé un poco esta introducción para situarme en el tema de cómo han influenciado los microcomputadores lo cotidiano, y qué tan dependientes somos nosotros hoy en día del trabajo que los mismos ejecutan.

Los Microprocesadores

Hoy en día encontramos procesadores digitales (computadoras) en todos los ámbitos de la vida. En la casa, en la oficina y el la industria. Muchos de éstos se usan para las tareas puramente de cálculo tales como el manejo de cuentas y el control de inventarios; así como para tareas que requieran procesamiento de palabras. Sin embargo, encontramos que el otro uso de importante es en los sistemas de control y en la maquinaria automática.

Al principio, los cálculos a gran escala y el procesamiento de datos se llevaron a cabo en computadoras llamadas en inglés "main-frame", las cuales eran máquinas bastante grandes localizadas en cuartos especiales con aire acondicionado. Estas tareas continuaron siendo realizadas por algunos años, con un computador sirviendo a varios sectores de un negocio. Sin embargo, estos grandes computadores fueron sustituidos eventualmente por minicomputadores.

Estos microcomputadores eran un poco más grandes que un archivador, tenían un poco menos de poder computacional y memoria de almacenaje que un "mainframe", pero eran mucho más económicos y podían ser operados en recintos ordinarios. De esta forma, las pequeñas empresas podían tener acceso a este tipo de equipos; y las grandes firmas podían tener varios operando en diferentes departamentos.

El advenimiento en 1971 del microprocesador, pronto llevó a la construcción de microcomputadores, que consisten en computadores personales de poco tamaño, para escritorio. Al principio, su poder computacional era modesto, pero los microprocesadores avanzados de hoy en día ofrecen en microcomputador el poder de un "mainframe". Hoy en día, este el área de aplicación general de los microprocesadores.
 
 

  IBM PC de 512K RAM con anexo de disco duro de 20 megabytes

¿Qué es un microprocesador?

Un microprocesador (1) es un pequeño computador, a menudo contenido en unas pocas pastillas silicona. En Noviembre de 1971, la empresa Intel introdujo al mercado el primer microprocesador comercial. Se denominaba el 4004. El mismo fue desarrollado e inventado por tres ingenieros de Intel. Este microprocesador, primitivo en comparación con los estándares actuales, contenía unos 2300 transistores y era capaz de ejecutar unas 60.000 operaciones o cálculos por segundo.

25 años después, el microprocesador es uno de los productos de consumo masivo más complejos producidos, con más de 5,5 millones de transistores que ejecutan cientos de millones de operaciones por segundo. Estos han sido posibles gracias al desarrollo de circuitos integrados altamente miniaturizados, que permite la combinación de muchas funciones electrónicas. A continuación se observa un dibujo de cómo se fabrican los microprocesadores:

Los microprocesadores de hoy en día son el "cerebro" de su computador personal. En esa pequeña "pastilla de silicona existen millones de interruptores y pasajes que ayudan a su computador a tomar decisiones y a ejecutar tareas útiles. Y, los microprocesadores no solamente "piensan" para los computadores; se pueden encontrar microprocesadores en muchos dispositivos de uso cotidiano como el teléfono, el automóvil, relojes digitales, los sistemas de control de emisiones en automóviles, los vídeo juegos, los termostatos caseros, los sistemas de seguridad, calculadoras, etc.

Volviendo a 1971, los ingenieros electrónicos de Intel habían identificado que ciertas funciones de programación podían ser diseñadas como circuitos lógicos dentro de una tarjeta electrónica, de manera que funcionaran como un programa. Esto requeriría de circuitería adicional, pero permitiría que una tarjeta electrónica tuviera multitud de aplicaciones. Precisamente esa tarjeta electrónica fue que lo se denominó y comercializó como un microcomputador. Esta circuitería fue desarrollada posteriormente e incorporada en una pastilla de silicona, que se denominó como microprocesador. El principio general de su funcionamiento era lógico.

El proceso que permitió tanta miniaturización fue la microlitografía. Los circuitos se colocan con la ayuda de computadores, y luego se fotografían a un 1/100 del tamaño de un cabello humano.

Para comprender cómo funciona un microprocesador, veamos cuál es su estructura básica; que se compone de una unidad lógica y aritmética (ALU), los registros y los canales (buses) de comunicación. Esta unidad ALU también es llamada CPU, de las siglas en inglés Central Processing Unit, o unidad central de procesamiento.

Unidad Lógica - Aritmética (CPU): es la unidad que ejecuta operaciones lógicas y aritméticas, tales como SUMA, RESTA, MULTIPLICACIÓN Y DIVISIÓN. Esto es lo que en lógica se llama Algebra de Boole, y podemos ver representada estas operaciones en una compuerta lógica como la que se muestra en la gráfica siguiente:

En el gráfico anterior, A, B y X representan dígitos binarios (bits). En un microprocesador, se requieren manejar operaciones lógicas en cantidades grandes, de modo que en el mismo existen numerosas compuertas lógicas que manejan grupos de 8-bits, llamados bytes. La combinación de todas estas compuertas lógicas se puede observar en el siguiente gráfico:

Registros: los registros representan espacios de memoria que sirven de ACUMULADORES, para las operaciones típicas donde se "lleva" valores, por ejemplo en las sumas o en los productos. Esto permite realizar sumas de sumas, y por ende entonces es posible encadenar las operaciones. Véase entonces la representación en el siguiente gráfico:
 
 

Podemos entonces esquematizar un microprocesador modelo de 8-bits, y a pesar de que maneja principalmente la información de 8-bits, es posible manejar grupos de 16-bits y 32-bits; siempre en grupos de a 8-bits. Véase la siguiente ilustración:

Canales (Buses): los registro y el ALU no se encuentran permanentemente conectados. Sin embargo, pueden unirse mediante un canal de comunicación llamado BUS de DATOS. Este permite la transmisión de datos en el ALU y los registros; y viceversa. En general, cualquier dispositivo que requiere leer o escribir datos, deberá hacerlo por intermedio del bus de datos. La circuitería de sincronización y control se encarga de que solamente un par de dispositivos se comuniquen a la vez (uno leyendo y el otro escribiendo). De esta manera, un bus de datos se define como un juego de cables paralelos (que pueden estar impresos en la tarjeta del chip) que transmiten información. Adicionalmente, existen buses de dirección, que se encargan de ubicar el sitio (lógico) donde será leída o la información.

Basado en lo anterior, solamente resta la programación. En el caso de los microprocesadores con el objeto de simplificar las complicaciones que representaría programarlo, se utilizó el artificio de un lenguaje de programación que pudiera tomar las ventajas de manejar los procesos binarios, pero que a la vez permitiera una administración más efectiva en el ingreso y transferencia de datos.

Como un computador solamente "entiende" ceros y unos, nos podemos imaginar el trabajo laborioso que era al principio operar interruptores para ingresar ceros y unos.

El lenguaje elegido fue el hexadecimal (llamado en inglés assembler). Este lenguaje como su nombre lo indica maneja datos en grupo de 16-bits, cantidad bastante conveniente para manejar ceros y unos. El lenguaje es de bajo nivel pero permite una comunicación bastante efectiva con el computador.

Con el pasar del tiempo se desarrollaron diferentes tipos de programas de alto nivel, con el objeto de que las personas pudieran interactuar con el computador sin necesidad de entrar en las complicaciones del assembler.

¿Cómo influyen los microcomputadores en la vida humana?

Los computadores han influido de forma impresionante en la vida humana. La primera aplicación la encontramos en los procesos de cálculo. Desde la invención del ábaco, el hombre ha estado en la búsqueda de un dispositivo que le permita facilitar los cálculos; y el computador lo ha logrado.

El concepto del computador moderno fue esbozado por primera vez por Charles Babbage en 1833 (1). Su diseño de una máquina analítica consistía de un almacén (memoria), un molino (el CPU) y dispositivos de salida. Sin embargo, Babbage solamente concibió esto teóricamente y nunca llegó a construir tal máquina.

En 1896, el inventor norteamericano Herman Hollerith (1) inventó una máquina tabuladora que calculaba mediante el ingreso de instrucciones en tarjetas perforadas. Su uso fue de aplicación inmediata en los censos de población, y la empresa se llamó en inglés Tabulating Machine Company, que después de algunos años y asociaciones de convirtió en la International Business Machines; conocida hoy en día como IBM.

IBM dominó el mercado de las sumadoras y máquinas de cálculo hasta los años sesenta, cuando nuevos desarrollos sustituyeron a las máquinas operadas por tarjetas.

El desarrollo de los computadores digitales tuvo su auge durante la Segunda Guerra Mundial, y el inventor norteamericano Howard Aiken (1) desarrollo un calculador secuencial que permitía cálculos balísticos de precisión. Este aparato usaba relés electromecánicos para las operaciones de interrupción.

El primer computador totalmente electrónico fue desarrollado por el inglés Alan Turing en 1943 (1), y consistía de tubos de vacío. El mismo se utilizaba para descifrar códigos secretos militares de los alemanes.

Ahora bien el primer computador propiamente dicho fue el ENIAC (véase la fotografía)

ENIAC, del inglés significaba Electronic Numerical Integrator and Calculator, y fue desarrollado por dos ingenieros norteamericanos (1) John W. Mauchly y J. Presper Eckert, Jr.. ENIAC podía manejar 100.000 operaciones por segundo. Su primera aplicación estuvo relacionada con el estudio de factibilidad de la bomba de hidrogeno.

De aquí en adelante los desarrollo han ido miniaturizando los computadores como se ha descrito al inicio de este trabajo.

La Revolución de los Computadores

A partir de los años 70, los microchips y los microcomputadores redujeron drásticamente el costo de los componentes electrónicos requeridos en un computador.

El Altair 88000 fue el primer computador accesible comercialmente en el años de 1974. Luego, en 1977 la Tandy Corporation introdujo el primer computador personal.

Pronto, hombres como Steve Jobs Stephen Wozniak fundaron la empresa Apple Computer, produciendo un computador personal superior.

En 1981, IBM introdujo el primer Computador Personal, denominado PC, y desde entonces muchos empezaron a copiarlos o "clonarlos", lo cual redujo drásticamente el precio de los mismos.

Las aplicaciones hoy en día son numerosas; desde sistemas de realidad virtual para aplicaciones en simuladores de vuelo, hasta las aplicaciones Multimedia de enseñanza y diversión.

La red mundial de computadores, llamada Internet es la expresión máxima, hasta ahora de esta revolución tecnológica. La información hoy en día está disponible en la red, prácticamente para todo quien pueda tener acceso a ella. El mundo entero, tiene información de toda naturaleza: es estado del tiempo, la bolsa de valores, enciclopedias, etc. Asimismo, se han desarrollado sistemas de inteligencia artificial que pueden ser usados, por ejemplo, en la traducción de textos de un idioma a otro.

Existen dos tendencias actualmente en el desarrollo de computadores; una es la miniaturización; que van en la búsqueda de menores tamaños; sin embargo las limitaciones de disipación de temperatura han frenado un poco esa expansión.

La segunda tendencia es en la robótica, con aplicaciones para ayudar a hacer la vida más fácil. Estas aplicaciones tienen uso en sistemas de ensamblaje y otros desarrollos industriales.

En fin, el desarrollo de los computadores ha cambiado drásticamente la vida del hombre, y las posibilidades de aplicación cada día se hacen más evidentes en la vida diaria. Hoy en día la mayoría de los dispositivos electrónicos que nos hacen la vida más fácil, llevan un chip, de manera que ya no existen forma de desligarnos de ellos.
 
 
 
 

  1. BIBLIOGRAFIA CONSULTADA y REFERENCIAS EN INTERNET


Preparado por: Armando Bermúdez
9 de mayo de 1999
Hosted by www.Geocities.ws

1