|
INTRODUCCIÓN A LA COMPUTACIÓN
TERMINOLOGÍA BÁSICA
Definición y origen del término Informática.
El término
Informática se creó en Francia en el año 1962 bajo la denominación
INFORMATIQUE y procede de la contracción de las palabras INFORmation
autoMATIQUE. Posteriormente fue reconocido por el resto de países, siendo
adoptado en España en 1968 bajo el nombre de INFORMÁTICA que, como puede
deducirse fácilmente, viene de la contracción de las palabras Información
autoMÁTICA. En los países anglosajones se conoce con el nombre de Computer
Science.
COMPUTADORA (ordenador) es una máquina compuesta de elementos físicos, en
su mayoría de origen electrónico, capaz de realizar una gran variedad de
trabajos a gran velocidad y con gran precisión, siempre que se le den las
instrucciones adecuadas.
El conjunto de órdenes que se dan a una computadora para realizar un
proceso determinado se denomina programa, mientras que el conjunto de uno o
varios programas más la documentación correspondiente para realizar un
determinado trabajo, se denomina aplicación informática.
El término sistema informático se utiliza para nombrar al conjunto de
elementos necesarios (computadora, terminales, impresoras, etc.) para la
realización y explotación de aplicaciones informáticas.
La información es el elemento que hay que tratar y procesar cuando en una
computadora ejecutamos un programa, y se define como todo aquello que
permite adquirir cualquier tipo de conocimiento: por tanto, existirá
información cuando se da a conocer algo que se desconoce.
INFORMÁTICA Y COMPUTACIÓN.
Derivada de la palabra información, se tiene informática. Esta palabra
comenzó a emplearse apenas hace unos cuarenta años, relacionada con el uso
de las computadoras en las empresas.
La informática es una disciplina que trata sobre el uso de las
computadoras, y es un apoyo para que la gente resuelva sus problemas de
manera eficiente.
En algunas ocasiones se emplea el término computación en lugar de
informática y en otras como algo diferente. Estas diferencias de términos
se originan en la relativa juventud de esta disciplina; para aclararlos
conviene revisar de donde provienen tales términos.
Cuando se comenzó a formar la disciplina encargada de aprovechar la
computadora, en inglés se le dio el nombre de Computer Science; más
adelante han surgido otros términos relacionados, como Computer Engineering
e Informatics. En cada país, por distintas razones se fue eligiendo un
nombre semejante o equivalente. En los diccionarios multilingües aparece
informática como la palabra adecuada, semejante a Informatik e Informatics
en otros idiomas. En México se comenzó a usar «Computación» y también
«Informática»; finalmente, se difundió más el término informática y es el
reconocido a partir del Plan de Desarrollo Informático 1995-2000 del
Gobierno Federal, publicado por el INEGI en 1996. Sin embargo, hay personas
que consideran que el término computación denota un uso más científico,
mientras que informática se orienta a usos empresariales.
Para ampliar la definición de informática, agregamos otra:
«Informática (Inglés: Computer Science, Informatics. Francés:
Informatique). Disciplina técnica y científica dedicada al estudio y
procesamiento de la información, particular mediante procesimientos y
máquinas automáticas. Sinónimo de computación».
Los datos que maneja un programa son en un principio informaciones no
elaboradas y una vez procesados (ordenados, sumados, comprados, etc.)
constituyen lo que se denomina información útil o simplemente resultados.
Para que una información sea tratada necesita transmitirse o trasladarse de
un lugar a otro, y para que exista transmisión de información son
necesarios tres elementos:
·
El emisor que da origen a la información
·
El medio que permite la transmisión
·
El receptor que recibe la información
|
Al conjunto de
operaciones que se realizan sobre una información se le denomina
tratamiento de la información.
Tratamiento de la información
|

|
Entrada
Proceso
Salida
|



|
Recogida de datos
Depuración de datos
Almacenamiento de datos
Aritmético
Lógico
Recogida de datos
Distribución de datos
|
En términos generales, se denomina entrada al conjunto
de operaciones cuya misión es tomar los datos del exterior y enviarlos a la
computadora; para ello en ocasiones es necesario realizar operaciones de
depuración o validación de los mismos. Estos datos deben quedar en la
memoria de la computadora para su posterior tratamiento.
Al conjunto de operaciones que elaboran los datos de entrada para obtener
los resultados se le llama proceso o algoritmo, y consiste
generalmente en una combinación adecuada de operaciones de origen
aritmético y test de tipo lógico.
Por último, se denomina salida al conjunto de operaciones que
proporcionan los resultados de un proceso a las personas correspondientes.
Se engloban en la salida también aquellas operaciones que dan forma a los
resultados y los distribuye adecuadamente.
El algoritmo necesario para la resolución de un problema queda definido
cuando una aplicación informática es analizada, de tal forma que
posteriormente cada proceso se codifica en un lenguaje que sea reconocible
por la máquina (directa o indirectamente), y tras una preparación final
obtendremos una solución ejecutable por la computadora. La automatización
de un problema para que pueda ser desarrollado por una computadora se
representa en el esquema a continuación:
Planteamiento de
un problema
|

|
Análisis del
mismo
|

|
Algoritmo de
resolución
|

|
Ejecución por
computadora
|
Seguidamente,
vamos a definir los tres pilares básicos en que se sustenta la Informática:
Estos pilares son:
·
El elemento físico (hardware)
·
El elemento lógico (software)
·
El elemento humano (personal informático)
|
Actualmente se
utiliza el término firmware para denominar cierta parte del software que
las computadoras traen pregrabadas desde su fabricación y que puede estar
en memorias de sólo lectura (tipo ROM-read Only Memory) o incorporada en su
propia circutería. El programa más conocido de este tipo es el que entra en
funcionamiento cuando se conecta una computadora y que permite el arranque
de la misma; se denomina arrancador o bootstrap.
Tipos de computadoras
Desde el punto de vista de construcción, existen dos tipos de
máquinas capaces de ejecutar algoritmos:
Máquinas
con lógica cableada. En ellas, el algoritmo está interiormente
implementado en el cableado de sus circuitos o en memorias de sólo lectura
(ROM-Read Only Memory). Las más conocidas son:
* Las calculadoras. Son máquinas para ejecutar un
determinado número de algoritmos predefinidos de tipo matemático (sumas,
restas, multiplicaciones, divisiones, funciones trigonométricas,
logaritmos, funciones estadísticas, etc.)
* La computadoras analógicas. Son máquinas destinadas al
control de procesos y a la simulación. En la actualidad se encuentran
instaladas en cadenas de fabricación y en mercados, como el de la
automoción entre otros.
Máquinas con lógica programada. Son las computadoras
convencionales que admiten programación de algoritmos por medio de
lenguajes de programación; por ello son máquinas de propósito general, pues
se pueden aplicar a cualquier tipo de procesos. Estas computadoras tienen
las siguientes características:
1. Gran velocidad de cálculo
2. Gran capacidad de almacenamiento
3. Gran precisión
4. Versatilidad o posibilidad de realizar multitud de trabajos de distintos
tipos.
5. Automatización, pues la mano del hombre interviene relativamente poco en
el trabajo final que realiza la computadora.
6. Asiduidad, puesto que en ellas no existe el cansancio y ejecutan con la
misma rapidez y precisión la primera y la última operación.
Una computadora de lógica programada sólo puede realizar tres tipos de
operaciones:
- Operaciones
aritméticas (suma y resta)
- Operaciones lógicas (comparaciones)
- Almacenar o recuperar información
La versatilidad de una computadora se obtiene al reducir cualquier problema
simple o complejo en una combinación adecuada de esta operaciones.
Antes de hacer una clasificación formal de las computadoras según el tipo
de señales que manejan, vamos a definir los conceptos fundamentales que
intervienen en la misma.
Se dice que un suceso es de tipo continuo cuando la escala de
manifestaciones en sus variables no tiene discontinuidades. Estos sucesos
se denominan analógicos.
Si la escala de manifestaciones de las variables de un suceso sólo tiene
determinados valores, se dice que es de tipo discreto y recibe el nombre de
digital.
Por tanto, atendiendo a la configuración o estructura interna de una
computadora, pueden clasificarse de la siguiente forma:
Computadoras analógicas. Son aquellas que manejan señales
eléctricas analógicas proporcionales a medidas físicas de tipo continuo. Su
programación de la mayoría de los casos está en su propio cableado y se
utilizan fundamentalmente para controlar procesos y en problemas de
simulación.
Computadoras digitales. Manejan señales eléctricas de tipo
digital. Se programan por medio de lenguajes de programación y su
utilización comprende cualquier tipo de trabajos; por tanto, configuran el
grupo de computadoras de tipo general. En la actualidad, más del 95 por 100
de las computadoras son de este tipo.
Computadoras híbridas. Poseen características de las dos
anteriores. Suelen estar constituidas por una computadora digital que
procesa información analógica, para lo cual tiene sus entradas y salidas
controladas por medio de convertidores analógico-digitales y
digital-analógicos.
Las computadoras digitales, por su potencia de cálculo, capacidad de
almacenamiento interno y número de periféricos que pueden soportar, se
clasifican en cuatro grandes grupos:
Supercomputadoras (supercomputer). Es una máquina diseñada
especialmente para cálculos que precisan una gran velocidad de proceso.
Generalmente poseen un gran número de procesadores que trabajan en
paralelo, con lo que se consiguen realizar billones de operaciones por
segundo.
Computadora o mainframe. Es una máquina diseñada
principalmente para dar servicio a grandes empresas y organizaciones. Su
potencia de cálculo es inferior a la de las anteriores, cifrándose en la
ejecución de varios millones de operaciones por segundo. Una de sus
características principales es la de soportar un gran número de terminales
o estaciones de trabajo. Además pueden intervenir en procesos distribuidos
en los que se conectan dos o más computadoras en paralelo, de tal forma que
se reparten todo el trabajo a realizar
Minicomputadora. Son máquinas de tipo medios, es decir, su
capacidad de proceso es inferior a la de las anteriores y por tanto pueden
controlar un menor número de terminales.
Microcomputadora. Se trata de una máquina cuyo funcionamiento
interno se basa en el uso de un microprocesador, y con él se consigue una
serie de prestaciones, que en potencia, manejabilidad, probabilidad,
precio, etc., cubren la gama más baja de necesidades en el mundo de la
informática. Hoy se puede decir que el mundo de la microinformática o el de
las microcomputadoras es el más importante y también el más popular. Dentro
de las microcomputadoras se pueden distinguir dos grupos importantes:
- Computadora personal (personal computer – PC)
- Estación de trabajo (workstation)
La computadora personal es una microcomputadora fácil de usar
y con grandes prestaciones. Generalmente posee un solo puesto de trabajo,
aunque puede tener varios. Actualmente la mayor gama de equipos hardware y
de aplicaciones software que existen en el mercado pertenecen al grupo de
computadoras personales.
Una estación de trabajo es una microcomputadora de gran
potencia que se utiliza para trabajos de ingeniería o similares y permite
la conexión a través de una red con una computadora de mayor potencia.
Dentro del grupo de computadoras personales, existe una clasificación según
el tamaño, prestaciones, precio, etc. Los tipos o variantes de computadoras
personales diferentes del modelo clásico son los siguientes:
- Portátil o transportable. Se trata de una computadora de
características físicas que permiten fácilmente su transporte de un sitio
para otro sin perder ninguna de las cualidades de una computadora personal
clásica.
- Laptop. Consiste en una computadora personal portátil de
pequeño tamaño, gran potencia y muy manejable en todos los sentidos. La
característica principal es su peso que oscila entre 1 y 2 kilogramos.
- Notebook. Es una computadora personal similar al laptop,
pero aún más pequeña, de menor peso y más especializada; es decir, está
preparada para realizar funciones de computadora personal, servir de ayuda
a estudiantes ofreciéndoles una capacidad de cálculo rápido importante,
ofrecer a comerciales funciones de agenda muy evolucionadas, etc.
- Pocket-PC o palmtop. Es una pequeña computadora personal de
mano que viene a ser la última versión de calculadora científica
programable.
Usos de la computadora
·
La medicina moderna usa computadoras en muchas
formas: Por ejemplo, las computadoras se usan para asistir en
procedimientos quirúrgicos y para diagnosticar enfermedades.
·
Los educadores están interesados en las computadoras
como herramientas para el aprendizaje interactivo. Los avances en la
tecnología de computadoras y la comunicación han hecho posible el
aprendizaje a distancia en dos direcciones dentro del salón de clases.
·
La comunidad científica usa computadoras para hacer
investigaciones e intercambiar información con colegas en todo el mundo.
·
Los ingenieros y arquitectos usan computadoras para diseñar
objetos y estructuras con ayuda de herramientas y técnicas CAD.
·
Los abogados usan computadoras para crear y tener
acceso a bases de datos que contienen registros de casos y datos antiguos
relacionados con los actuales.
·
Los gobiernos son los usuarios principales de las
computadoras; muchas agencias gubernamentales ahora tienen sus propios
sitios en World Wide Web.
·
Los músicos pueden usar MIDI para combinar o crear
sonidos en forma electrónica, ya sea en el estudio de grabación o durante
presentaciones en vivo.
·
Los cineastas usan computadoras para crear efectos
especiales.
|
Generalidades
(bit, byte & chip), archivo e información.
Es difícil definir el término información, ya que tiene muchos
significados. De acuerdo con varias definiciones tradicionales, información
quiere decir comunicación que tiene valor porque informa, sin embargo, en
el lenguaje de la teoría de la comunicación y la información, el término información
puede aplicarse a casi cualquier cosa que pueda comunicarse, tenga o no
valor. Según esta definición, la información se presenta de muchas
maneras. Las palabras, los números y las imágenes que aparecen en esta
página son símbolos que representan información. Si usted subraya esta
frase, añadirá información a la página. Los sonidos y las imágenes que
emite un televisor llevan información. (Recuerde que no toda la información
tiene valor).
La información es digital en el mundo de las computadoras: se
compone de unidades discretas (es decir, unidades que pueden contarse), por
tanto puede subdividirse. En muchas situaciones, hay que reducir la
información a unidades más sencillas para poder usarla de manera efectiva.
Por ejemplo, un niño que intenta interpretar una palabra con la cual no
está familiarizado, puede pronunciar cada letra en forma individual antes
de atacar toda la palabra.
Una computadora no entiende palabras, número, imágenes, notas musicales, ni
siquiera las letras del alfabeto. Como un lector incipiente, una
computadora no puede procesar información sin dividirla en unidades más
pequeñas. De hecho, las computadoras sólo pueden digerir información que ha
sido dividida en bits. Un bit (del inglés binary digit: dígito
binario) es la unidad de información más pequeña. Un bit sólo puede tener
uno de dos valores: encendido o apagado. También se pueden considerar estos
valores como sí o no, cero o uno, blanco o negro, o casi cualquier otra
cosa que le ocurra.
Si pensamos en las entrañas de una computadora como una colección de
microscópicos conmutadores de encendido/apagado, es fácil comprender porqué
procesan la información bit a bit. Con cada conmutador se almacena una
pequeña cantidad de información; por ejemplo, una señal para encender una
luz o la respuesta a la pregunta de tipo “sí/no”.
Durante la Guerra de la Independencia estadounidense, Paul Revere hizo una
cabalgata nocturna que pasó a la historia. Él y sus compañeros de
conspiración emplearon una linterna para transmitir uno de dos mensajes:
“Uno, si es por tierra; dos, si es por mar”, para referirse a la llegada de
los ingleses. Esta era una opción binaria y la linterna comunicaba un bit
de información. Aunque en teoría es posible enviar un mensaje como éste con
una sola linterna, “Uno, si es por tierra; cero, si es por mar”, no habría
funcionado muy bien en el cielo nocturno de Boston. Si los independentistas
hubieran deseado enviar un mensaje más complejo, podrían haber empleado más
linternas (“Tres, si es por metro”).
En una forma muy parecida, un computador puede procesar, grandes trozos de
información tratando grupos de bits como unidades. Por ejemplo, una
colección de ocho bits, a la que suele llamársele byte, puede representar
256 mensajes diferentes (256 = 28). Si consideramos a cada bit como una luz
que puede estar encendida o apagada, podemos hacer que las diferentes
combinaciones de luces representen mensajes distintos. (Los científicos de
la computación por lo general hablan de ceros y unos, en lugar de encendido
y apagado, pero el concepto no cambia). La computadora tiene una ventaja
con respecto a Paul Revere: no sólo ve el número de luces encendidas, sino
también su orden, de manera que 01 (apagado-encendido) es distinto de 10
(encendido-apagado).
Construcción con bits.
¿Qué significa para la computadora una combinación de bits como 01100110?
No hay una respuesta única para esta pregunta; depende del contexto y el
convenio. Una cadena de bits puede ser interpretada como un número, una
letra del alfabeto o casi cualquier cosa.
Los bits como números. Como las computadoras se construyen a
partir de dispositivos de conmutación que reducen toda la información a
ceros y unos, pueden representar los números con el sistema numérico
binario, un sistema que denota todos los números con combinaciones de dos
dígitos. Al igual que el sistema numérico decimal que usamos todos los
días, el sistema binario tiene reglas claras y consistentes para cada
operación aritmética.
Para casi nadie es práctico leer número binarios, por lo que las
computadoras cuentan con software que convierte automáticamente los números
decimales en número binarios y viceversa. Como resultado, el procesamiento
de números binarios del computador es totalmente invisible para el usuario
humano.
Los bits como códigos. Las computadoras actuales trabajan casi
tanto con texto como con números. Para que las palabras, frases y párrafos
se ajusten a los circuitos exclusivamente binarios de la computadora, se
han creado códigos que representan cada letra, dígito y carácter especial
como una cadena única de bits.
El código más común ASCII (abreviatura de American Estándar Code for
Information Interchange: Código estándar estadounidense para el intercambio
de información, pronunciado usualmente como “asqui”), representa cada
carácter como un código único de siete bits (más un octavo cuyo valor está
determinado, por cuestiones técnicas, por los valores de los otros siete).
Con los patrones de una cadena de siete bits se pueden obtener 128 códigos
únicos, suficientes para asignar un código a cada una de las letras (mayúsculas
y minúsculas), número y caracteres especiales usados en la comunicación
escrita en inglés. Como el mundo se hace cada vez más pequeño y crecen
nuestras necesidades de información, cada vez más usuarios de las
computadoras encuentran que los 128 caracteres del código ASCII no son
suficientes, por lo cual se están elaborando nuevos esquemas de
codificación. Para facilitar la computación multibilingüe, es probable que
los fabricantes cambien algún día del ASCII a un esquema de codificación
más rico en información, como el conjunto de 65 000 caracteres de UniCode.
Un grupo de bits también puede representar colores, sonidos, mediciones,
cuantitativas del ambiente o casi cualquier otro tipo de información que
pueda llegar a procesar una computadora.
Los bits como instrucciones en los programas. Hasta ahora
hemos visto las formas en que se pueden usar los bits para representar
datos, es decir, información de una fuente externa que será procesada por
la computadora. Sin embargo, hay otro tipo de información igual de
importante para la computadora: los programas que le indican qué hacer con
los datos que le proporcionamos. La computadora almacena los programas como
colecciones de bits, lo mismo que los datos.
Los programas, al igual que los caracteres, se representan en notación
binaria, utilizando códigos. Por ejemplo, el código 01101010 puede indicar
a la computadora que sume dos números. Otro grupo de bits (instrucciones en
el programa) contendrían códigos para indicar a la computadora dónde hallar
esos números y donde almacenar el resultado.
Bits, bytes y otros términos.
Tratar de aprender sobre las computadoras examinando su operación a nivel
de bits es un poco como tratar de aprender la apariencia o las acciones de
la gente estudiando las células humanas; ello arroja mucha información,
pero no es la manera más eficiente de averiguar lo que necesitamos saber.
Por fortuna, casi todos podemos usar las computadoras sin tener que pensar
en términos de bits. No obstante, en el trabajo informático cotidiano sí se
emplea algo de terminología relacionada con los bits. Específicamente, la
mayoría de los usuarios de computadoras necesitan conocer, aunque sea en
forma somera, los términos siguientes:
Byte: grupo de ocho bits. Si la mayor parte de su trabajo
tiene que ver con palabras, puede pensar en un byte como un carácter de
información.
K (kilobyte): aproximadamente 1000 bytes de información. Por
ejemplo, se requieren unos 5K de memoria para contener 5000 caracteres de
texto. (Técnicamente, 1K es 1024 bytes, ya que 1024 es 210, lo cual
facilita la aritmética para las computadoras binarias. Para quienes no
pensamos en binario, 1000 es una buena aproximación).
MB (megabyte) (en ocasiones llamado mega): aproximadamente
1000K, o sea, un millón de bytes.
GB (gigabyte): Aproximadamente 1000 megabytes. Esta unidad de
medición astronómica se aplica a los dispositivos de almacenamiento más
grandes que pueden conseguirse en la actualidad.
Las abreviaturas K y MB se usan para describir la capacidad de algunos
componentes de computadoras que analizaremos en este capítulo. Por ejemplo,
para describir una computadora puede decirse que tiene 512K de memoria y
que un disco duro tiene 40MB de capacidad de almacenamiento. Con estos
mismos términos se cuantifica el tamaño de los archivos de la computadora.
Un archivo es una colección organizada de información, como un artículo o
un conjunto de nombres y direcciones, almacenada en una forma que puede
leer la computadora.
CARACTER
|
CÓDIGO BINARIO
ASCII
|
CARACTER
|
CÓDIGO BINARIO
ASCII
|
A
|
01000001
|
S
|
01010011
|
B
|
01000010
|
T
|
01010100
|
C
|
01000011
|
U
|
01010101
|
D
|
01000100
|
V
|
01010110
|
E
|
01000101
|
W
|
01010111
|
F
|
01000110
|
X
|
01011000
|
G
|
01000111
|
Y
|
01011001
|
H
|
01001000
|
Z
|
01011010
|
I
|
01001001
|
0
|
00110000
|
J
|
01001010
|
1
|
00110001
|
K
|
01001011
|
2
|
00110010
|
L
|
01001100
|
3
|
00110011
|
M
|
01001101
|
4
|
00110100
|
N
|
01001110
|
5
|
00110101
|
O
|
01001111
|
6
|
00110110
|
P
|
01010000
|
7
|
00110111
|
Q
|
01010001
|
8
|
00111000
|
R
|
01010010
|
9
|
00111001
|
HARDWARE
Esquema básico del elemento físico (hardware)
El hardware es el elemento físico de un sistema informático, es decir,
todos los materiales que lo componen, como la propia computadora, los
dispositivos externos, los cables, los soportes de la información y en
definitiva todos aquellos elementos que tienen entidad física. La figura a
continuación muestra los componentes más elementales del hardware:
Procesador. Es el elemento encargado del control y ejecución de las
operaciones y está formado por:
* Unidad de Control (CU, Control Unit). Es la parte del procesador
encargada de gobernar al resto de las unidades, además de interpretar y
ejecutar las instrucciones controlando su secuencia.
* Unidad Aritmético-Lógica (ALU, Arithmetic-Logical Unit). Es la
parte del procesador encargada de realizar todas las operaciones
elementales de tipo aritmético y de tipo lógico.
* Memoria Central (CM, Central Memory). También denominada memoria
interna o principal (main memory), es el elemento de la unidad central de
proceso encargado de almacenar los programas y los datos necesarios para
que el sistema informático realice un determinado trabajo. Es importante
decir aquí que para que un programa pueda ser ejecutado en una computadora
tiene que estar en esta memoria, así como los datos que necesiten ser
procesados en ese momento.
Elementos de entrada. También llamados periféricos o unidades de
entrada, son los dispositivos encargados de introducir los datos y los
programas desde el exterior a la memoria central para su utilización. Estos
dispositivos, además de recibir la información del exterior, la preparan
para que la máquina pueda entenderla de forma correcta. Un ejemplo lo
constituye el teclado.
Memoria auxiliar. Son los dispositivos de almacenamiento masivo de
información que se utilizan para guardar datos y programas en el tiempo
para su posterior utilización. La característica principal de los soportes
que manejan estos dispositivos es la de retener la información a lo largo
del tiempo mientras se desee, recuperándola cuando sea requerida y sin que
se pierda, aunque el dispositivo quede desconectado de la red eléctrica.
También se denomina memoria secundaria. Ejemplos: disquetes, discos duros,
discos ópticos, cintas, etc.
Elementos de salida. Son aquellos dispositivos cuya misión es
recoger y proporcionar al exterior los datos de salida o resultados de los
procesos que se realicen en el sistema informático. También se denominan
periféricos o unidades de salida. Ejemplos: monitor, impresora, etc.
SOFTWARE
Esquema básico del elemento lógico (software)
El software de un sistema informático es el conjunto de elementos lógicos
necesarios para que se puedan realizar las tareas encomendadas al mismo. Se
puede definir de la siguiente forma:
El software es la parte lógica que dota al equipo físico de capacidad para
realizar cualquier tipo de trabajos.
Tiene su origen en ideas y procesos desarrollados por el elemento humano,
plasmadas sobre un soporte determinado del hardware y bajo cuya dirección
trabaja siempre la computadora.
Una primera aproximación al concepto de software es la representada en la
figura a continuación:
Software
|

|
Ideas
Datos o informaciones
Conjunto de órdenes
|
En los primeros años de la existencia de las computadoras, tuvo mayor peso
específico el hardware que el software puesto que se disponía de grandes
computadoras, caras y complejas, que desarrollaban el trabajo definido por
unos pocos y pequeños programas. En la actualidad, en un sistema
informático tiene mayor peso específico el software que el hardware para ir
adquiriendo día a día, el primero, una mayor importancia en todos los
aspectos (costo, mantenimiento, etc.).
Un elemento
lógico, para estar presente en un sistema informático, debe almacenarse en
un soporte físico. Estos soportes son los siguientes: La memoria central y
las memorias auxiliares.
El elemento lógico de un sistema informático puede clasificarse como
aparece representado en el esquema a continuación:
Software
|

|
Software básico (sistema
operativo)
Software de aplicación
|

|
Programas
+
Datos
|
El software
básico es el conjunto de programas que el equipo físico necesita para tener
la capacidad de trabajar. Estos programas en su conjunto configuran lo que
se denomina en un sistema informático el sistema operativo (OS, Operating
System). Una definición muy general del sistema operativo es la siguiente:
El sistema operativo es el soporte lógico que controla el funcionamiento
del equipo físico, ocultando los detalles del hardware y haciendo sencillo
el uso de la computadora.
La figura a continuación representa los componentes de un sistema
operativo.
Sistema operativo
|

|
Programas de control
Programas de utilidad (utilidades)
|

|
Gestión de información
Gestión de memoria
Gestión de entrada y salida
Gestión del procesador
Gestión de trabajos
|
El conjunto de programas de un sistema operativo cuya misión es controlar
al equipo físico en todos sus aspectos, se denomina programas de control.
Existen igualmente otros programas cuya misión es la de ayudar al usuario
en algunos trabajos típicos, como el dar formato a disquetes, manejo de
archivo, etc.; estos programas se denominan utilidades.
Tipos de sistemas operativos.
Una manera de clasificar a un sistema operativo es con base en el número de
usuarios que pueden utilizarlo de manera simultánea. Esto produce las
categorías monousuario y multiusuario:
El sistema
operativo es monousuario cuando puede ser utilizado por sólo un
usuario, como en el caso de las computadoras personales. Ejemplo de este
tipo es el MS-DOS (Microsoft Disk Operating System), cuyo concepto es el
siguiente:
Sistema operativo diseñado por Microsoft para las microcomputadoras
IBM/PS o compatibles basado en comandos.
Presenta una interfaz basada en comandos, por lo que no es muy
amigable.
Características:
* Administra el uso de los recursos de la computadora
* Coordina la ejecución de los programas
* Permite organizar eficientemente la información en el almacenamiento
secundario.
* Facilita el uso de los dispositivos periféricos.
Conceptos básicos:
* Archivos
* Directorios
* Comando
Qué es un ARCHIVO?
Colección de datos y/o información, que tienen un propósito común y que se
almacenan en un diskette o en disco duro, bajo un nombre que los
identifique.
Ejemplos de archivos:
* Una carta: JUAN.WPS
* Un programa fuente en Pascal: TAREA1.PAS
* Un código ejecutable: TAREA1.EXE
* Una base de datos: AMIGOS.DAT
* Una gráfica o dibujo: PAISAJE.TIF
Nombres de archivos
* Conjunto de hasta 8 caracteres
* Parte opcional llamada extensión (hasta 3 caracteres)
* No usar: ³ < > [ ] / | \ . , ; : + =
* Referencia: unidad: nombre.extensión
Qué es un DIRECTORIO?
Es una agrupación de archivos (y/o directorios), bajo un nombre que los
identifica como grupo.
La finalidad de utilizar directorios es la de organizar los archivos,
cuando la cantidad de éstos en un disco es grande.
El DOS, al igual que la mayoría de sistemas operativos, utiliza una
estructura de tipo jerárquico, para organizar sus directorios y
archivos.
Conceptos relacionados con directorios:
* Estructura Jerárquica de un Arbol Genealógico
* Estructura Jerárquica de archivos
* Trayectoria o Ruta de acceso (PATH)
* Unidades de disco
Qué es un COMANDO?
Un comando es una orden que especifica al DOS, una acción que tiene que
realizar.
Los comandos del DOS son una palabra o abreviatura, con un formato
definido, para ser interpretado por el mismo sistema.
COMANDOS INTERNOS: Se encuentran residentes en la memoria de la computadora
y son las que se usan con más frecuencia.
COMANDOS INTERNOS
|
FUNCIÓN
|
SINTAXIS
|
COPY
|
COPIA ARCHIVOS O
GPO. ARCHIVOS
|
COPY EXA.DOC
EX.DOC COPY PER.DAT A: COPY MATE.WK1 PRAC\MATE.WK1 COPY MATE.WK1 B:\PRAC\MET.WK1
COPY *.DAT B:
|
DEL
|
BORRA ARCHIVO O
GPO. ARCHIVOS
|
BORRA ARCHIVO O
GPO. ARCHIVOS
|
REN
|
RENOMBRA UN
ARCHIVO
|
REN VACA.TXT
VAC.TXT REN B:\CLASE\EJER.DAT EJE.DAT
|
VER
|
VISUALIZA LA
VERSIÓN DEL SISTEMA OPERATIVO
|
VER
|
CD
|
CAMBIA DE UN
DIRECTORIO A OTRO
|
CD MAMA CD.. CD
B:\PADRE
|
MD
|
CREA UN
DIRECTORIO
|
MD NUEVO MD
B:\MENSAJE\MEMO
|
DIR
|
MUESTRA ARCHIVOS
Y DIRECTORIOS DEL DISCO
|
DIR DIR/P DIR/W
|
RD
|
BORRA UN
DIRECTORIO
|
RD MAMA
|
DATE
|
PROPORCIONA LA
FECHA Y MODIFICA
|
DATE
|
TIME
|
PROPORCIONA LA
HORA
|
TIME
|
CLS
|
LIMPIA LA
PANTALLA
|
CLS
|
TYPE
|
VISUALIZA ARCHIVO
|
TYPE MAMA.DOC
|
COMANDOS EXTERNOS: No se encuentran cargadas en la memoria de la
computadora, por lo que para ser usadas deben encontrarse disponibles en
alguna de las unidades ya sea A:, B:, o C:
COMANDOS EXTERNOS
|
FUNCIÓN
|
SINTAXIS
|
ATTRIB
|
FIJA O VISUALIZA
LOS ATRIBUTOS DE UN ARCHIVO
|
ATTRIB [+R]
[NOMBRE DEL ARCHIVO] R LECTURA H OCULTO A ARCHIVO S SISTEMA EL SIGNO +
LOS ACTIVA EL SIGNO - LOS DESACTIVA
|
DISKCOMP
|
COMPARA EL
CONTENIDO DE DOS DISCOS
|
DISKCOMP [UNIDAD]
[UNIDAD]
|
DISKCOPY
|
HACE COPIA DE UN
DISCO CON FORMATO
|
DISKCOPY [ORIGEN]
[DESTINO]
|
FORMAT
|
DA FORMATO AL
DISCO
|
FORMAT [UNIDAD]
FORMAT [UNIDAD]/S
|
LABEL
|
PARA CREAR
ETIQUETA
|
LABEL [UNIDAD]
[ETIQUETA]
|
TREE
|
MUESTRA ARBOL DE
DIRECTORIOS
|
TREE [UNIDAD]
TREE [UNIDAD]/F
|
Comandos
básicos del MS-DOS:
·
DIR. Listar los archivos de un directorio
·
CD <vía de acceso y nombre del directorio>.
Cambiar de un directorio específico (del inglés Change Directory).
·
DEL. Borrar (en inglés Delete).
·
MD. Crear directorio (del inglés Make Directory).
·
COPY. Copiar
·
CLS. Limpiar la pantalla (del inglés Clean
Screen)
·
RUN. Ejecutar programa.
|
El sistema
operativo es multiusuario cuando tiene la capacidad de atender a
varios usuarios, generalmente en computadoras conectadas en red. Ejemplos
de este tipo de sistema son:
Windows NT,
desarrollado por Microsoft para desarrollo de trabajo en red. Este tema de
profundizará más adelante.
OS/2, desarrollado por Microsoft e IBM para computadoras personales.
Office una interfaz gráfica, aplicaciones de 32 bits, multitarea y un sistema
de comunicaciones robusto.
Mac OS, creado por Apple para computadoras de la plataforma
Macintosh y Power PC. Este sistema llevó a la computadora personal en uso
de una interfaz gráfica (el uso de iconos, ventanas y punteros para emitir
comandos) que originalmente había diseñado Xerox para su propias máquinas.
Novell, creado por Netware, presenta la ventaja de poseer estaciones
inteligentes sin disco duro, lo que reduce los costos de equipamiento.
Unix, Desarrollado por los laboratorios Bell en 1969, fue diseñado
para compartir de manera eficiente los recursos del sistema de computación
con base en la multitarea. Su sistema de archivos proporciona un método
sencillo para la organización de los mismos y permite su protección. Hay
diferentes sistemas basados en Unix diseñados por distintas compañías, por
ejemplo Sun Os y Solaris para equipos con arquitectura Sun; Aix para
equipos IBM, etc.
Linux, desarrollado por el proyecto GNU de Free Software Fundation,
este S.O. es una versión de Unix; una de sus principales ventajas radica en
que es de uso gratuito, razón por la que es utilizado por cientos de miles
de usuarios, ya que constituye una excelente alternativa para las personas
u organizaciones que no disponen de presupuesto para adquirir programas cuyas
licencias son muy costosas.
Comandos básicos del Linux:
Date: muestra la fecha del sistema.
Ls: lista directorios y archivos
Cp file: copia archivos
Dl file: borra archivo
Mv file: mueve o cambia de nombre archivo
Pwd: muestra el directorio actual
Cd: cambia de directorio
Mk dir: crea un directorio
El software de aplicación, o aplicaciones, son las herramientas de
software que permiten usar un computador para fines específicos. Muchas de
las aplicaciones en los terrenos científico, gubernamental, administrativo
y artístico son tan especializadas y técnicas que no son de utilidad o
interés para quienes no se ocupan de esos campos. Por otra parte, algunas
aplicaciones son tan flexibles que pueden servir a casi cualquier persona.
Es probable que usted, sin importar sus antecedentes o aspiraciones, se vea
beneficiado si conoce algo sobre estas aplicaciones.
Procesamiento de textos y publicación electrónica. El procesamiento
de textos es fundamental para cualquier persona que se comunique en forma
escrita; y es, por mucho, la aplicación principal de que se valen los
estudiantes. En la publicación electrónica se usa el computador personal
para transformar cualquier texto en una publicación refinada, con atractivo
visual.
Hojas de cálculo y otras aplicaciones de procesamiento numérico. En
las empresas, la hoja de cálculo electrónica es la aplicación de
computadores personales que paga el alquiler o que al menos lo calcula. Si
usted trabaja con números de cualquier tipo, las hojas de cálculo y el
software para estadísticas pueden ayudarlo a convertir cantidades
abstractas en conceptos concretos.
Bases de datos para almacenamiento y recuperación de información. Si
los procesadores de textos y las hojas de cálculo son las aplicaciones más
populares de los computadores personales, las bases de datos predominan en
el mundo de los macrocomputadores. Por supuesto, las bases de datos también
son comunes en los computadores personales. Cada vez más bibliotecas,
bancos y otras instituciones adoptan las bases de datos para almacenar
información, por lo cual la persona común tiene más razones para aprender
sus conceptos básicos.
Telecomunicaciones y redes. Cada día hay más computadores conectados
en redes, de manera que puedan intercambiar información; estamos entrando
en una era en la que las redes se han convertido en la norma. Una conexión
en red es una puerta a un mundo de buzones electrónicos, tableros de
noticias, servicios de bases de datos comerciales y otras herramientas de
comunicación. Muchos expertos creen que la telecomunicación (la
comunicación a grandes distancias) será la función más importante de los
computadores en un futuro no muy lejano.
Graficación por computador. Los computadores no solo trabajan con
textos y números; también pueden generar todo tipo de gráficos, desde los
diagramas y gráficas de las hojas de cálculo hasta animaciones
tridimensionales realistas. Las habilidades de comunicación visual son cada
vez más importantes, ya que aumentan la disponibilidad de las herramientas
gráficas.
Multimedia e hipermedia. Muchos de los visionarios de la industria
de la computación han cerrado sus objetivos en estas dos tecnologías
relacionadas. Las herramientas multimedia para computadores personales
permiten combinar audio y video con los textos y gráficos tradicionales,
añadiendo nuevas dimensiones a la comunicación por computador. Las
herramientas de hipermedia se centran en las capacidades interactivas de
los computadores. A diferencia de los libros, videos y otros medios
lineales, diseñados para consumirse de principio a fin, con los hipermedia
los usuarios pueden explorar diversas trayectorias por las fuentes de
información. La combinación de multimedia e hipermedia tiene un potencial
casi inimaginable para transformar la manera en que vemos la información y
trabajamos con ella.
Inteligencia artificial. La inteligencia artificial es la rama de
las ciencias de la computación que explora el uso de computadores en tareas
que requieren inteligencia, imaginación e introspección, tareas que
tradicionalmente han sido realizadas por seres humanos y no por máquinas.
Hasta hace poco, la inteligencia artificial no era más que una disciplina
académica, un campo de estudio reservado para investigadores y filósofos.
Sin embargo, hoy podemos ver algunos de los frutos de estas investigaciones
en aplicaciones comerciales que exhiben inteligencia y que pronto podrá
usar usted.
Resolución de problemas generales. Los computadores se usan para
resolver problemas. La mayoría emplea software de aplicación escrito por
programadores profesionales, pero algunos tipos de problemas requieren
programación personalizada. Los lenguajes de programación no son
aplicaciones, sino herramientas que permiten construir y adecuar
aplicaciones. Muchos usuarios de computadores han descubierto que sus máquinas
son más versátiles y valiosas cuando aprenden un poco de programación.
El lenguaje de los computadores.
Todos los computadores procesan instrucciones en un lenguaje de máquina
nativo. El lenguaje de máquina emplea códigos numéricos para representar
las operaciones básicas del computador: suma de números, resta de números,
comparación de números, movimiento de números, repetición de instrucciones,
etc. Los primeros programadores estaban forzados a escribir los programas
en lenguaje de máquina, traduciendo tediosamente cada instrucción a código
binario. Este proceso era el preludio de la locura: trate de imaginar la
dificultad de encontrar un carácter mal escrito en una página llena de
ceros y unos. Hoy en día, casi todos los programadores usan lenguajes de
programación como BASIC, COBOL, FORTRAN y C, que ocupan una posición
intermedia entre los lenguajes naturales humanos y los precisos lenguajes
de máquina. Estos lenguajes permiten que los científicos, ingenieros y
hombres de negocios resuelvan problemas utilizando una terminología y una
notación familiares, en lugar de oscuras instrucciones de máquina. Para que
un computador pueda comprender un programa escrito en uno de estos
lenguajes; tiene que usar un programa de traducción para convertir las instrucciones
parecidas al inglés en los ceros y unos del lenguaje máquina.
En las últimas décadas ha sido constante la evolución de los lenguajes de
programación. La nueva generación de lenguajes facilita la tarea de
programación, al asumir más del trabajo detallado, ocultándolo del
programador. Pero no han desaparecido las duras exigencias del computador
en cuanto a detalles técnicos, simplemente son manejados en forma
automática por el software de traducción. Gracias a ello, la programación
es más sencilla y menos propensa a errores. Al ir aumentando la complejidad
de los traductores, los programadores pueden comunicarse en lenguajes de
computación que se parecen cada vez más a los lenguajes naturales, los
lenguajes con los cuales hablamos y escribimos en nuestras actividades
cotidianas.
Incluso con los lenguajes de computación de vanguardia, la programación
exige una considerable inversión de tiempo y esfuerzo mental. Por fortuna,
muchas aplicaciones de software de fácil uso, como los procesadores de
textos, las hojas de cálculo y los programas gráficos. Los lenguajes de
programación aún se emplean para resolver problemas que no pueden manejarse
con aplicaciones comerciales de software, pero la mayoría de los usuarios
se las arreglan para hacer su trabajo sin tener que programar. En la
actualidad, en su mayor parte, la programación es realizada por creadores
profesionales de software, quienes usan los lenguajes de programación para
crear y refinar las aplicaciones y otros programas empleados por los
usuarios en sus actividades diarias.
Clasificación de los lenguajes de programación.
Una primera clasificación, atendiendo a su proximidad al lenguaje de la
máquina o al lenguaje de las personas (lenguaje natural), establece los
tres siguientes grupos:
· Lenguajes de bajo nivel (máquina)
· Lenguajes intermedios (ensambladores)
· Lenguajes de alto nivel (evolucionados)
En cuanto a los lenguajes de alto nivel, existen varios cientos de
ellos, siendo bastante difícil establecer una clasificación general de los
mismos, ya que en cualquiera que se realice habrá lenguajes que pertenezcan
a más de uno de los grupos establecidos. Una clasificación muy extendida,
atendiendo a la forma de trabajar de los programas y a la filosofía con que
fueron concebidos, es la siguiente:
* Lenguajes imperativos. Utilizan instrucciones como unidad de trabajo de
los programas (COBOL, PASCAL, C, ADA)
* Lenguajes declarativos. Los programas se construyen mediante
descripciones o expresiones lógicas (LISP, PROLOG)
* Lenguajes orientados a objetos. El diseño de los programas se basa más en
los datos y su estructura. La unidad de proceso es el objeto y en èl se
incluyen los datos (variables) y las operaciones que actúan sobre ellos
(SMALLTALK, C++).
* Lenguajes orientados al problema. Diseñados para problemas específicos,
principalmente de gestión, suelen ser generadores de aplicaciones.
* Lenguajes naturales. Están desarrollándose nuevos lenguajes con el
principal objetivo de aproximar el diseño y construcción de programas al
lenguaje de las personas.
Por otro lado, se puede establecer una clasificación atendiendo al desarrollo
de los lenguajes desde la aparición de las computadoras, que sigue un
cierto paralelismo con las generaciones establecidas en la evolución de las
mismas:
* Primera generación. Lenguaje máquinas y ensambladores.
* Segunda generación. Primeros lenguajes de alto nivel imperativos
(FORTRAN, COBOL).
* Tercera generación. Lenguajes de alto nivel imperativos. Son los más
utilizados y siguen vigentes en la actualidad (ALGOL 68, PL/1, PASCAL,
MODULA)
* Cuarta generación. Orientado básicamente a las aplicaciones de gestión y
al manejo de bases de datos (NATURAL, SQL)
* Quinta generación. Orientados a la inteligencia artificial y al procesamiento
del lenguaje natural (LISP, PROLOG)
Lenguaje máquina. El lenguaje máquina es el único que entiende
directamente la computadora. Utiliza el alfabeto binario, que consta de los
dos únicos símbolos 0 y 1, denominados bits (abreviatura inglesa de dígitos
binarios). Fue el primer lenguaje utilizado en la programación de
computadoras, pero dejó de utilizarse por su dificultad y complicación,
siendo sustituido por otros lenguajes más fáciles de aprender y utilizar,
que además reducen la posibilidad de cometer errores.
Generalmente, en la codificación de los programas se empleaba el sistema
hexadecimal para simplificar el trabajo de escritura
Instrucciones en lenguaje máquina y sus equivalentes en sistema
hexadecimal.
0000
|
0001
|
1010
|
0001
|
01
|
A1
|
1000
|
1001
|
1001
|
1010
|
89
|
9A
|
0011
|
1010
|
1001
|
1100
|
3A
|
9C
|
0111
|
0100
|
0111
|
0000
|
74
|
70
|
1110
|
1001
|
0010
|
0000
|
E9
|
20
|
Lenguaje ensamblador. El lenguaje ensamblador es el primer intento
de sustituir el lenguaje máquina por otro más similar a los utilizados por
las personas. En este lenguaje, cada instrucción equivale a una instrucción
en lenguaje máquina, utilizando para su escritura palabras nemotécnicas en
lugar de cadenas de bits.
Instrucciones en lenguaje ensamblador.
INICIO: ADD
B, 1
MOV A, B
CMP A,
E
JE FIN
JMP INICIO
FIN: END
Este lenguaje presenta la mayoría de los inconvenientes del lenguaje
máquina:
- Cada modelo de computadora tiene un lenguaje ensamblador propio diferente
del de los demás, por lo cual un programa sólo puede utilizarse en la
máquina para la que se programó.
- El programador ha de conocer perfectamente el hardware del equipo, ya que
maneja directamente las posiciones de memoria, registros del procesador y
demás elementos físicos.
- Todas las instrucciones son elementales, es decir, en el programa se
deben describir con el máximo detalle todas las operaciones que se han de
efectuar en la máquina para la realización de cualquier proceso.
Por otro lado, tanto el lenguaje máquina como el ensamblador gozan de la
ventaja de mínima ocupación de memoria y mínimo tiempo de ejecución en
comparación con el resultado de la compilación del programa equivalente
escrito en otros lenguajes.
Lenguajes de alto nivel. Los lenguajes de alto nivel, también
denominados lenguajes evolucionados, surgen con posterioridad a los
anteriores con los siguientes objetivos, entre otros:
1. Lograr independencia de la máquina, pudiendo utilizar un mismo
programa en diferente equipos con la única condición de disponer de un
programa traductor o compilador, que es suministrado por el fabricante,
para obtener el programa ejecutable en lenguaje binario de la máquina que
se trate. Además, no es necesario conocer el hardware específico de dicha
máquina.
2. Aproximarse al lenguaje natural, para que el programa se pueda
escribir y leer de una forma más sencilla, eliminando muchas de las
posibilidades de cometer errores que se daban en el lenguaje máquina, ya
que se utilizan palabras (en inglés) en lugar de cadenas de símbolos sin
ningún significado aparente.
3. Incluir rutinas de uso frecuente, como las de entrada/salida,
funciones matemáticas, manejo de tablas, etc., que figuran en una especia
de librería del lenguaje, de manera que se puedan utilizar siempre que se
quiera sin necesidad de programarlas cada vez.
Se puede decir que el principal problema que presentan los lenguajes de
alto nivel es la gran cantidad de ellos que existen actualmente en uso,
además de las diferentes versiones o dialectos que se han desarrollado de
algunos de ellos.
Esquema básico del elemento humano.
El elemento humano es el más importante de los que constituyen la
informática. Sin personas estas máquinas serían totalmente inútiles.
El elemento humano, denominado comúnmente profesional informático, es el
conjunto de personas que desarrollan las distintas funciones relacionadas
con el uso de las computadoras en una empresa. En general, se denomina
usuario a la persona que utiliza en última instancia la computadora y el
software de aplicación como herramienta para desarrollar su trabajo o
ayudarse en su actividad; y por ello, no se considera en un principio como
elemento perteneciente al personal informático. Este personal informático
se puede clasificar en una primera aproximación, de la siguiente manera:
Personal de dirección. Es el encargado de dirigir y coordinar un
departamento de informática o centro de proceso de datos o alguna división,
sección, área o proyecto dentro del mismo para obtener un rendimiento
adecuado a los recursos disponibles.
Personal de análisis. Es el encargado del desarrollo de aplicaciones
en lo que respecta a su diseño y obtención de los algoritmos, así como de
analizar las posibles utilidades y modificaciones necesarias de los
sistemas operativos para una mayor eficacia de un sistema informático. Otra
misión de estas personas es dar apoyo técnico a los usuarios de las
aplicaciones existentes.
Personal de programación. Es el encargado de transcribir en un
determinado lenguaje de programación los algoritmos diseñados en el
análisis de una aplicación de usuario o del propio sistema, así como
realizar la traducción de estos programas al lenguaje nativo de la máquina
para poder probarlos y ponerlos a punto, utilizando los juegos de ensayo
que son proporcionados por el personal de análisis.
Personal de explotación y operación. Este grupo se ocupa de ejecutar
los programas o aplicaciones existentes, distribuyendo los resultados
obtenidos y realizando el mantenimiento diario de los equipos y sistemas
existentes.
NACIMIENTO Y EVOLUCIÓN DE LAS COMPUTADORAS.
Los seres humanos nos caracterizamos por nuestra capacidad de adaptación,
así como por la inteligencia, la creatividad y el ingenio que nos permiten
resolver problemas. Las computadoras, como otros inventos, se han
perfeccionado a través del tiempo, gracias a la investigación y al
desarrollo tecnológico generado con base en las ideas, el empeño y la
dedicación de innumerables personas y equipos de trabajo.
Precursores de las computadoras.
Para poder contar con instrumentos de procesamiento de la información tan
sofisticados como las computadoras actuales, ha sido necesario recorrer un
camino tan largo como la historia misma de la humanidad. Desde sus
orígenes, el hombre se ha esforzado en inventar mecanismos para realizar
cálculos y otras tareas en forma automática y eficiente.
El ábaco es uno de los primeros instrumentos ideados con la finalidad de
realizar operaciones numéricas y obtener resultados con rapidez y
precisión. Fue inventado por los chinos hacia el año 3000 antes de nuestra
era, y aún en la actualidad sigue siendo utilizado. Posteriormente,
diversos inventores continuaron desarrollando máquinas para dar solución a
problemas matemáticos, obteniendo grandes avances que sentarían las bases
para el desarrollo de las computadoras. A continuación, presentamos los
principales precursores.
MÁQUINA DE PASCAL
|
MÁQUINAS QUE
USABAN TARJETAS PERFORADAS
|
MÁQUINA DE
BABBAGE
|
En 1642, Blaise Pascal, matemático
francés, inventó una máquina mecánica para calcular que utilizaba una
serie de ruedas de diez dientes (cada diente representaba un código),
conectadas de tal manera que era posible sumar las cantidades haciendo
avanzar el número de dientes correspondiente.En 1670, el filósofo y
matemático alemán Gottfried Wilhelm Leibniz perfeccionó la máquina de
Pascal, logrando que también pudiera multiplicar y dividir. Otra
aportación de Leibniz fue el desarrollo de la teoría del sistema binario
e investigaciones para el desarrollo de la lógica matemática, elementos
básicos para el funcionamiento de las computadoras.
|
Joseph Marie Jacquard utilizó tarjetas
perforadas para controlar el diseño del tejido de un telar
automatizado.En la década de 1880, el estadístico estadounidense Herman
Hollerith tuvo la idea de utilizar tarjetas perforadas que pasaban sobre
contactos eléctricos para procesar datos; así consiguió compilar las
información estadística del censo de población de Estados Unidos.
|
En el siglo XIX, el matemático e
inventor británico Charles Babbage inventó dos máquinas diseñadas para
solucionar problemas matemáticos complejos:· La máquina diferencial,
capaz de calcular tablas matemáticas.· La máquina analítica, que ya
contaba con características que poseen las computadoras actuales, incluía
entrada de datos, en forma de paquetes de tarjetas perforadas, memoria para
almacenar datos, procesador para las operaciones matemáticas, impresora
para hacer permanente el registro.
|
Generaciones de computadoras
Con el propósito de entender la forma en que han evolucionado las
computadoras, su desarrollo histórico se ha clasificado en generaciones,
tomando como base la época y las características que presentan (componentes
electrónicos, tareas o aplicaciones, velocidad de procesamiento, etc.).
Dentro de la primera generación podemos mencionar diversas
computadoras que fueron creadas, fundamentalmente, para utilizarse en
estrategias militares.
La primera computadora digital fue desarrollada por un equipo de
científicos y matemáticos. Este primer sistema, denominado Colossus, ya era
funcional en el año de 1943; una de sus aplicaciones fue la decodificación
de mensajes de radio de los alemanes. Paralelamente, en el año de 1939,
otro equipo con el liderazgo de Atanasoff y Clifford Berry en el Iowa State
Colage construyó otro prototipo de computadora.
La computadora de primera generación con mayor reconocimiento fue la
desarrollada en el periodo comprendido entre 1943 y 1946 (durante la
Segunda Guerra Mundial), por los científicos Eckert, Mauchly y Goldstine de
la Universidad de Pensylvania, denominada ENIAC (Electronic Numerical Integrator
and Calculator). Se fabricó por encargo de funcionarios del gobierno de
Estados Unidos, con el objeto de determinar trayectorias balísticas y
descifrar mensajes codificados enviados por los países contrincantes. Dado
que su fabricación terminó cuando ya había concluido la guerra, se utilizó
para realizar cálculos astronómicos.
Esta computadora
* realizaba 5,000 sumas por segundo,
* retenía hasta 20 números de 10 dígitos,
* tenía 1,500 interruptores electromecánicos y 18,000
bulbos (por lo que requería enormes sistemas de
enfriamiento).
* era tan grande que debía ser alojada en una habitación
de 9 por 30 metros.
En 1947, siguiendo los mismos principios, se construyó la EDVAC (Electronic
Discrete Variable Computer). Eckert y Mauchly fundaron una compañía que, en
1950, colocó en el mercado la primera computadora comercial denominada
UNIVAC I (Universal Automatic Computer).
Primera
generación
|
Segunda
generación
|
Tercera
generación
|
Cuarta generación
|
Bulbo
|
Transistor
|
Circuito
integrado LSI
|
Microprocesadores
VLSI y ULSI
|
Válvula termoiónica desarrollada, toma
como base la lámpara eléctrica.Este componente generaba mucho calor, era
voluminoso y caro.
|
Elaborado con base en materiales
semiconductores. Su función es amplificar señales y controlar
interrupciones.
|
Circuito integrado LSI.Se denomina
también chip, está formado por transistores y resistencias de tamaño
microscópico, lo que permite integrar en un espacio muy reducido gran
cantidad de componentes.LSI (Large Scale Integration)Lenguajes de
programación:
|
Circuito electrónico miniaturizado, lo
que permite que el procesador completo esté contenido en un circuito.VLSI
(Very Large Scale Integration)ULSI (Ultra Scale Integration)
|
LENGUAJES DE PROGRAMACIÓN
|
Binario, Lenguaje máquina
|
Ensamblador de alto nivel (Fortran,
Cobol, Algol)
|
Sistemas operativos, lenguajes
estructurados (Pascal, C, etc.)
|
Paquetes computacionales, programas de
aplicación específica.
|
10 Kips**miles de instrucciones por
segundo
|
100 a 200 Kips
|
1 a 5 Mips**millones de instrucciones
por segundo
|
10 a 2000 Mips
|
Tarjetas perforadas
|
Cintas magnéticas
|
Cintas y discos magnéticos
|
Discos duros, CD Rom, DVD Rom
|
Para que tengas
un panorama general de las generaciones de las computadoras, te presentamos
una línea del tiempo en donde destacamos el componente electrónico clave
para el desarrollo de cada generación, con la finalidad de que percibas la
tendencia de desarrollo de la informática.
Año en que se desarrollan los componentes
1890
1947
1958
1971
==|================|================|================|================>
==========|============|==================|============|==============>
1943
1957
1964
1977
Año en que inicia la generación de las computadoras
Cada componente,
en su momento, se destacaba por su eficiencia, funcionalidad, precio y
tamaño.
La quinta generación de computadoras se encuentra aún en desarrollo, dado
que la principal característica y reto que se planteó fue que contaran con
inteligencia artificial, área que si bien ha reportado grandes avances, aún
no logra obtener los resultados deseables en su instrumentación, traducida
a características como la capacidad de resolver problemas complejos en
formas creativas, mediante el reconocimiento de voz y de patrones visuales,
síntesis del habla (capacidad de producir lenguaje oral), además del
razonamiento matemático que permita el aprendizaje de nuevos conceptos y la
autoprogramación.
NOTA: No existe un acuerdo general sobre los límites entre una y otra
generación de computadoras, hay autores que indican que existe, incluso la
sexta generación; en tanto otros afirman que nos encontramos en la cuarta.
|