INTRODUCCIÓN A LA COMPUTACIÓN

TERMINOLOGÍA BÁSICA

Definición y origen del término Informática.

El término Informática se creó en Francia en el año 1962 bajo la denominación INFORMATIQUE y procede de la contracción de las palabras INFORmation autoMATIQUE. Posteriormente fue reconocido por el resto de países, siendo adoptado en España en 1968 bajo el nombre de INFORMÁTICA que, como puede deducirse fácilmente, viene de la contracción de las palabras Información autoMÁTICA. En los países anglosajones se conoce con el nombre de Computer Science.

COMPUTADORA (ordenador) es una máquina compuesta de elementos físicos, en su mayoría de origen electrónico, capaz de realizar una gran variedad de trabajos a gran velocidad y con gran precisión, siempre que se le den las instrucciones adecuadas. 

El conjunto de órdenes que se dan a una computadora para realizar un proceso determinado se denomina programa, mientras que el conjunto de uno o varios programas más la documentación correspondiente para realizar un determinado trabajo, se denomina aplicación informática.

El término sistema informático se utiliza para nombrar al conjunto de elementos necesarios (computadora, terminales, impresoras, etc.) para la realización y explotación de aplicaciones informáticas.

La información es el elemento que hay que tratar y procesar cuando en una computadora ejecutamos un programa, y se define como todo aquello que permite adquirir cualquier tipo de conocimiento: por tanto, existirá información cuando se da a conocer algo que se desconoce.

INFORMÁTICA Y COMPUTACIÓN.

Derivada de la palabra información, se tiene informática. Esta palabra comenzó a emplearse apenas hace unos cuarenta años, relacionada con el uso de las computadoras en las empresas.

La informática es una disciplina que trata sobre el uso de las computadoras, y es un apoyo para que la gente resuelva sus problemas de manera eficiente.

En algunas ocasiones se emplea el término computación en lugar de informática y en otras como algo diferente. Estas diferencias de términos se originan en la relativa juventud de esta disciplina; para aclararlos conviene revisar de donde provienen tales términos.

Cuando se comenzó a formar la disciplina encargada de aprovechar la computadora, en inglés se le dio el nombre de Computer Science; más adelante han surgido otros términos relacionados, como Computer Engineering e Informatics. En cada país, por distintas razones se fue eligiendo un nombre semejante o equivalente. En los diccionarios multilingües aparece informática como la palabra adecuada, semejante a Informatik e Informatics en otros idiomas. En México se comenzó a usar «Computación» y también «Informática»; finalmente, se difundió más el término informática y es el reconocido a partir del Plan de Desarrollo Informático 1995-2000 del Gobierno Federal, publicado por el INEGI en 1996. Sin embargo, hay personas que consideran que el término computación denota un uso más científico, mientras que informática se orienta a usos empresariales.

Para ampliar la definición de informática, agregamos otra:

«Informática (Inglés: Computer Science, Informatics. Francés: Informatique). Disciplina técnica y científica dedicada al estudio y procesamiento de la información, particular mediante procesimientos y máquinas automáticas. Sinónimo de computación».

Los datos que maneja un programa son en un principio informaciones no elaboradas y una vez procesados (ordenados, sumados, comprados, etc.) constituyen lo que se denomina información útil o simplemente resultados.

Para que una información sea tratada necesita transmitirse o trasladarse de un lugar a otro, y para que exista transmisión de información son necesarios tres elementos:

·        El emisor que da origen a la información

·        El medio que permite la transmisión

·        El receptor que recibe la información

Al conjunto de operaciones que se realizan sobre una información se le denomina tratamiento de la información. 

 

 

Tratamiento de la información

 

Entrada

 

 

 

 

Proceso

 

 

 

Salida

Recogida de datos

Depuración de datos

Almacenamiento de datos

 

 

Aritmético

Lógico

 

 

Recogida de datos

Distribución de datos

En términos generales, se denomina entrada al conjunto de operaciones cuya misión es tomar los datos del exterior y enviarlos a la computadora; para ello en ocasiones es necesario realizar operaciones de depuración o validación de los mismos. Estos datos deben quedar en la memoria de la computadora para su posterior tratamiento.

Al conjunto de operaciones que elaboran los datos de entrada para obtener los resultados se le llama proceso o algoritmo, y consiste generalmente en una combinación adecuada de operaciones de origen aritmético y test de tipo lógico.

Por último, se denomina salida al conjunto de operaciones que proporcionan los resultados de un proceso a las personas correspondientes. Se engloban en la salida también aquellas operaciones que dan forma a los resultados y los distribuye adecuadamente.

El algoritmo necesario para la resolución de un problema queda definido cuando una aplicación informática es analizada, de tal forma que posteriormente cada proceso se codifica en un lenguaje que sea reconocible por la máquina (directa o indirectamente), y tras una preparación final obtendremos una solución ejecutable por la computadora. La automatización de un problema para que pueda ser desarrollado por una computadora se representa en el esquema a continuación:

Planteamiento de un problema

Análisis del mismo

Algoritmo de resolución

Ejecución por computadora

Seguidamente, vamos a definir los tres pilares básicos en que se sustenta la Informática: Estos pilares son:

·        El elemento físico (hardware)

·        El elemento lógico (software)

·        El elemento humano (personal informático)

Actualmente se utiliza el término firmware para denominar cierta parte del software que las computadoras traen pregrabadas desde su fabricación y que puede estar en memorias de sólo lectura (tipo ROM-read Only Memory) o incorporada en su propia circutería. El programa más conocido de este tipo es el que entra en funcionamiento cuando se conecta una computadora y que permite el arranque de la misma; se denomina arrancador o bootstrap.

Tipos de computadoras

Desde el punto de vista de construcción, existen dos tipos de máquinas capaces de ejecutar algoritmos:

 

Máquinas con lógica cableada. En ellas, el algoritmo está interiormente implementado en el cableado de sus circuitos o en memorias de sólo lectura (ROM-Read Only Memory). Las más conocidas son:
* Las calculadoras. Son máquinas para ejecutar un determinado número de algoritmos predefinidos de tipo matemático (sumas, restas, multiplicaciones, divisiones, funciones trigonométricas, logaritmos, funciones estadísticas, etc.)
* La computadoras analógicas. Son máquinas destinadas al control de procesos y a la simulación. En la actualidad se encuentran instaladas en cadenas de fabricación y en mercados, como el de la automoción entre otros.

Máquinas con lógica programada. Son las computadoras convencionales que admiten programación de algoritmos por medio de lenguajes de programación; por ello son máquinas de propósito general, pues se pueden aplicar a cualquier tipo de procesos. Estas computadoras tienen las siguientes características:

1. Gran velocidad de cálculo
2. Gran capacidad de almacenamiento
3. Gran precisión
4. Versatilidad o posibilidad de realizar multitud de trabajos de distintos tipos.
5. Automatización, pues la mano del hombre interviene relativamente poco en el trabajo final que realiza la computadora.
6. Asiduidad, puesto que en ellas no existe el cansancio y ejecutan con la misma rapidez y precisión la primera y la última operación.

Una computadora de lógica programada sólo puede realizar tres tipos de operaciones:

- Operaciones aritméticas (suma y resta)
- Operaciones lógicas (comparaciones)
- Almacenar o recuperar información

La versatilidad de una computadora se obtiene al reducir cualquier problema simple o complejo en una combinación adecuada de esta operaciones.

Antes de hacer una clasificación formal de las computadoras según el tipo de señales que manejan, vamos a definir los conceptos fundamentales que intervienen en la misma.

Se dice que un suceso es de tipo continuo cuando la escala de manifestaciones en sus variables no tiene discontinuidades. Estos sucesos se denominan analógicos.

Si la escala de manifestaciones de las variables de un suceso sólo tiene determinados valores, se dice que es de tipo discreto y recibe el nombre de digital.

Por tanto, atendiendo a la configuración o estructura interna de una computadora, pueden clasificarse de la siguiente forma:

Computadoras analógicas. Son aquellas que manejan señales eléctricas analógicas proporcionales a medidas físicas de tipo continuo. Su programación de la mayoría de los casos está en su propio cableado y se utilizan fundamentalmente para controlar procesos y en problemas de simulación.
Computadoras digitales. Manejan señales eléctricas de tipo digital. Se programan por medio de lenguajes de programación y su utilización comprende cualquier tipo de trabajos; por tanto, configuran el grupo de computadoras de tipo general. En la actualidad, más del 95 por 100 de las computadoras son de este tipo.
Computadoras híbridas. Poseen características de las dos anteriores. Suelen estar constituidas por una computadora digital que procesa información analógica, para lo cual tiene sus entradas y salidas controladas por medio de convertidores analógico-digitales y digital-analógicos.

Las computadoras digitales, por su potencia de cálculo, capacidad de almacenamiento interno y número de periféricos que pueden soportar, se clasifican en cuatro grandes grupos:

Supercomputadoras (supercomputer). Es una máquina diseñada especialmente para cálculos que precisan una gran velocidad de proceso. Generalmente poseen un gran número de procesadores que trabajan en paralelo, con lo que se consiguen realizar billones de operaciones por segundo. 
Computadora o mainframe. Es una máquina diseñada principalmente para dar servicio a grandes empresas y organizaciones. Su potencia de cálculo es inferior a la de las anteriores, cifrándose en la ejecución de varios millones de operaciones por segundo. Una de sus características principales es la de soportar un gran número de terminales o estaciones de trabajo. Además pueden intervenir en procesos distribuidos en los que se conectan dos o más computadoras en paralelo, de tal forma que se reparten todo el trabajo a realizar
Minicomputadora. Son máquinas de tipo medios, es decir, su capacidad de proceso es inferior a la de las anteriores y por tanto pueden controlar un menor número de terminales.
Microcomputadora. Se trata de una máquina cuyo funcionamiento interno se basa en el uso de un microprocesador, y con él se consigue una serie de prestaciones, que en potencia, manejabilidad, probabilidad, precio, etc., cubren la gama más baja de necesidades en el mundo de la informática. Hoy se puede decir que el mundo de la microinformática o el de las microcomputadoras es el más importante y también el más popular. Dentro de las microcomputadoras se pueden distinguir dos grupos importantes:

- Computadora personal (personal computer – PC)
- Estación de trabajo (workstation)

La computadora personal es una microcomputadora fácil de usar y con grandes prestaciones. Generalmente posee un solo puesto de trabajo, aunque puede tener varios. Actualmente la mayor gama de equipos hardware y de aplicaciones software que existen en el mercado pertenecen al grupo de computadoras personales.

Una estación de trabajo es una microcomputadora de gran potencia que se utiliza para trabajos de ingeniería o similares y permite la conexión a través de una red con una computadora de mayor potencia.

Dentro del grupo de computadoras personales, existe una clasificación según el tamaño, prestaciones, precio, etc. Los tipos o variantes de computadoras personales diferentes del modelo clásico son los siguientes:

- Portátil o transportable. Se trata de una computadora de características físicas que permiten fácilmente su transporte de un sitio para otro sin perder ninguna de las cualidades de una computadora personal clásica.
- Laptop. Consiste en una computadora personal portátil de pequeño tamaño, gran potencia y muy manejable en todos los sentidos. La característica principal es su peso que oscila entre 1 y 2 kilogramos.
- Notebook. Es una computadora personal similar al laptop, pero aún más pequeña, de menor peso y más especializada; es decir, está preparada para realizar funciones de computadora personal, servir de ayuda a estudiantes ofreciéndoles una capacidad de cálculo rápido importante, ofrecer a comerciales funciones de agenda muy evolucionadas, etc.
- Pocket-PC o palmtop. Es una pequeña computadora personal de mano que viene a ser la última versión de calculadora científica programable.

Usos de la computadora

·        La medicina moderna usa computadoras en muchas formas: Por ejemplo, las computadoras se usan para asistir en procedimientos quirúrgicos y para diagnosticar enfermedades.

·        Los educadores están interesados en las computadoras como herramientas para el aprendizaje interactivo. Los avances en la tecnología de computadoras y la comunicación han hecho posible el aprendizaje a distancia en dos direcciones dentro del salón de clases.

·        La comunidad científica usa computadoras para hacer investigaciones e intercambiar información con colegas en todo el mundo.

·        Los ingenieros y arquitectos usan computadoras para diseñar objetos y estructuras con ayuda de herramientas y técnicas CAD.

·        Los abogados usan computadoras para crear y tener acceso a bases de datos que contienen registros de casos y datos antiguos relacionados con los actuales.

·        Los gobiernos son los usuarios principales de las computadoras; muchas agencias gubernamentales ahora tienen sus propios sitios en World Wide Web.

·        Los músicos pueden usar MIDI para combinar o crear sonidos en forma electrónica, ya sea en el estudio de grabación o durante presentaciones en vivo.

·        Los cineastas usan computadoras para crear efectos especiales.

 

Generalidades (bit, byte & chip), archivo e información.

Es difícil definir el término información, ya que tiene muchos significados. De acuerdo con varias definiciones tradicionales, información quiere decir comunicación que tiene valor porque informa, sin embargo, en el lenguaje de la teoría de la comunicación y la información, el término información puede aplicarse a casi cualquier cosa que pueda comunicarse, tenga o no valor. Según esta definición, la información se presenta de muchas maneras. Las palabras, los números y las imágenes que aparecen en esta página son símbolos que representan información. Si usted subraya esta frase, añadirá información a la página. Los sonidos y las imágenes que emite un televisor llevan información. (Recuerde que no toda la información tiene valor).

La información es digital en el mundo de las computadoras: se compone de unidades discretas (es decir, unidades que pueden contarse), por tanto puede subdividirse. En muchas situaciones, hay que reducir la información a unidades más sencillas para poder usarla de manera efectiva. Por ejemplo, un niño que intenta interpretar una palabra con la cual no está familiarizado, puede pronunciar cada letra en forma individual antes de atacar toda la palabra.

Una computadora no entiende palabras, número, imágenes, notas musicales, ni siquiera las letras del alfabeto. Como un lector incipiente, una computadora no puede procesar información sin dividirla en unidades más pequeñas. De hecho, las computadoras sólo pueden digerir información que ha sido dividida en bits. Un bit (del inglés binary digit: dígito binario) es la unidad de información más pequeña. Un bit sólo puede tener uno de dos valores: encendido o apagado. También se pueden considerar estos valores como sí o no, cero o uno, blanco o negro, o casi cualquier otra cosa que le ocurra.

Si pensamos en las entrañas de una computadora como una colección de microscópicos conmutadores de encendido/apagado, es fácil comprender porqué procesan la información bit a bit. Con cada conmutador se almacena una pequeña cantidad de información; por ejemplo, una señal para encender una luz o la respuesta a la pregunta de tipo “sí/no”.

Durante la Guerra de la Independencia estadounidense, Paul Revere hizo una cabalgata nocturna que pasó a la historia. Él y sus compañeros de conspiración emplearon una linterna para transmitir uno de dos mensajes: “Uno, si es por tierra; dos, si es por mar”, para referirse a la llegada de los ingleses. Esta era una opción binaria y la linterna comunicaba un bit de información. Aunque en teoría es posible enviar un mensaje como éste con una sola linterna, “Uno, si es por tierra; cero, si es por mar”, no habría funcionado muy bien en el cielo nocturno de Boston. Si los independentistas hubieran deseado enviar un mensaje más complejo, podrían haber empleado más linternas (“Tres, si es por metro”).

En una forma muy parecida, un computador puede procesar, grandes trozos de información tratando grupos de bits como unidades. Por ejemplo, una colección de ocho bits, a la que suele llamársele byte, puede representar 256 mensajes diferentes (256 = 28). Si consideramos a cada bit como una luz que puede estar encendida o apagada, podemos hacer que las diferentes combinaciones de luces representen mensajes distintos. (Los científicos de la computación por lo general hablan de ceros y unos, en lugar de encendido y apagado, pero el concepto no cambia). La computadora tiene una ventaja con respecto a Paul Revere: no sólo ve el número de luces encendidas, sino también su orden, de manera que 01 (apagado-encendido) es distinto de 10 (encendido-apagado).

Construcción con bits.

¿Qué significa para la computadora una combinación de bits como 01100110? No hay una respuesta única para esta pregunta; depende del contexto y el convenio. Una cadena de bits puede ser interpretada como un número, una letra del alfabeto o casi cualquier cosa.

Los bits como números. Como las computadoras se construyen a partir de dispositivos de conmutación que reducen toda la información a ceros y unos, pueden representar los números con el sistema numérico binario, un sistema que denota todos los números con combinaciones de dos dígitos. Al igual que el sistema numérico decimal que usamos todos los días, el sistema binario tiene reglas claras y consistentes para cada operación aritmética.

Para casi nadie es práctico leer número binarios, por lo que las computadoras cuentan con software que convierte automáticamente los números decimales en número binarios y viceversa. Como resultado, el procesamiento de números binarios del computador es totalmente invisible para el usuario humano.

Los bits como códigos. Las computadoras actuales trabajan casi tanto con texto como con números. Para que las palabras, frases y párrafos se ajusten a los circuitos exclusivamente binarios de la computadora, se han creado códigos que representan cada letra, dígito y carácter especial como una cadena única de bits.

El código más común ASCII (abreviatura de American Estándar Code for Information Interchange: Código estándar estadounidense para el intercambio de información, pronunciado usualmente como “asqui”), representa cada carácter como un código único de siete bits (más un octavo cuyo valor está determinado, por cuestiones técnicas, por los valores de los otros siete). Con los patrones de una cadena de siete bits se pueden obtener 128 códigos únicos, suficientes para asignar un código a cada una de las letras (mayúsculas y minúsculas), número y caracteres especiales usados en la comunicación escrita en inglés. Como el mundo se hace cada vez más pequeño y crecen nuestras necesidades de información, cada vez más usuarios de las computadoras encuentran que los 128 caracteres del código ASCII no son suficientes, por lo cual se están elaborando nuevos esquemas de codificación. Para facilitar la computación multibilingüe, es probable que los fabricantes cambien algún día del ASCII a un esquema de codificación más rico en información, como el conjunto de 65 000 caracteres de UniCode.

Un grupo de bits también puede representar colores, sonidos, mediciones, cuantitativas del ambiente o casi cualquier otro tipo de información que pueda llegar a procesar una computadora.

Los bits como instrucciones en los programas. Hasta ahora hemos visto las formas en que se pueden usar los bits para representar datos, es decir, información de una fuente externa que será procesada por la computadora. Sin embargo, hay otro tipo de información igual de importante para la computadora: los programas que le indican qué hacer con los datos que le proporcionamos. La computadora almacena los programas como colecciones de bits, lo mismo que los datos.

Los programas, al igual que los caracteres, se representan en notación binaria, utilizando códigos. Por ejemplo, el código 01101010 puede indicar a la computadora que sume dos números. Otro grupo de bits (instrucciones en el programa) contendrían códigos para indicar a la computadora dónde hallar esos números y donde almacenar el resultado.

Bits, bytes y otros términos.

Tratar de aprender sobre las computadoras examinando su operación a nivel de bits es un poco como tratar de aprender la apariencia o las acciones de la gente estudiando las células humanas; ello arroja mucha información, pero no es la manera más eficiente de averiguar lo que necesitamos saber. Por fortuna, casi todos podemos usar las computadoras sin tener que pensar en términos de bits. No obstante, en el trabajo informático cotidiano sí se emplea algo de terminología relacionada con los bits. Específicamente, la mayoría de los usuarios de computadoras necesitan conocer, aunque sea en forma somera, los términos siguientes:

Byte: grupo de ocho bits. Si la mayor parte de su trabajo tiene que ver con palabras, puede pensar en un byte como un carácter de información.

K (kilobyte): aproximadamente 1000 bytes de información. Por ejemplo, se requieren unos 5K de memoria para contener 5000 caracteres de texto. (Técnicamente, 1K es 1024 bytes, ya que 1024 es 210, lo cual facilita la aritmética para las computadoras binarias. Para quienes no pensamos en binario, 1000 es una buena aproximación).

MB (megabyte) (en ocasiones llamado mega): aproximadamente 1000K, o sea, un millón de bytes.

GB (gigabyte): Aproximadamente 1000 megabytes. Esta unidad de medición astronómica se aplica a los dispositivos de almacenamiento más grandes que pueden conseguirse en la actualidad.

Las abreviaturas K y MB se usan para describir la capacidad de algunos componentes de computadoras que analizaremos en este capítulo. Por ejemplo, para describir una computadora puede decirse que tiene 512K de memoria y que un disco duro tiene 40MB de capacidad de almacenamiento. Con estos mismos términos se cuantifica el tamaño de los archivos de la computadora. Un archivo es una colección organizada de información, como un artículo o un conjunto de nombres y direcciones, almacenada en una forma que puede leer la computadora.

CARACTER

CÓDIGO BINARIO ASCII

CARACTER

CÓDIGO BINARIO ASCII

A

01000001

S

01010011

B

01000010

T

01010100

C

01000011

U

01010101

D

01000100

V

01010110

E

01000101

W

01010111

F

01000110

X

01011000

G

01000111

Y

01011001

H

01001000

Z

01011010

I

01001001

0

00110000

J

01001010

1

00110001

K

01001011

2

00110010

L

01001100

3

00110011

M

01001101

4

00110100

N

01001110

5

00110101

O

01001111

6

00110110

P

01010000

7

00110111

Q

01010001

8

00111000

R

01010010

9

00111001


HARDWARE

Esquema básico del elemento físico (hardware)

El hardware es el elemento físico de un sistema informático, es decir, todos los materiales que lo componen, como la propia computadora, los dispositivos externos, los cables, los soportes de la información y en definitiva todos aquellos elementos que tienen entidad física. La figura a continuación muestra los componentes más elementales del hardware:

Procesador. Es el elemento encargado del control y ejecución de las operaciones y está formado por:
* Unidad de Control (CU, Control Unit). Es la parte del procesador encargada de gobernar al resto de las unidades, además de interpretar y ejecutar las instrucciones controlando su secuencia.
* Unidad Aritmético-Lógica (ALU, Arithmetic-Logical Unit). Es la parte del procesador encargada de realizar todas las operaciones elementales de tipo aritmético y de tipo lógico.
* Memoria Central (CM, Central Memory). También denominada memoria interna o principal (main memory), es el elemento de la unidad central de proceso encargado de almacenar los programas y los datos necesarios para que el sistema informático realice un determinado trabajo. Es importante decir aquí que para que un programa pueda ser ejecutado en una computadora tiene que estar en esta memoria, así como los datos que necesiten ser procesados en ese momento.

Elementos de entrada. También llamados periféricos o unidades de entrada, son los dispositivos encargados de introducir los datos y los programas desde el exterior a la memoria central para su utilización. Estos dispositivos, además de recibir la información del exterior, la preparan para que la máquina pueda entenderla de forma correcta. Un ejemplo lo constituye el teclado.

Memoria auxiliar. Son los dispositivos de almacenamiento masivo de información que se utilizan para guardar datos y programas en el tiempo para su posterior utilización. La característica principal de los soportes que manejan estos dispositivos es la de retener la información a lo largo del tiempo mientras se desee, recuperándola cuando sea requerida y sin que se pierda, aunque el dispositivo quede desconectado de la red eléctrica. También se denomina memoria secundaria. Ejemplos: disquetes, discos duros, discos ópticos, cintas, etc.

Elementos de salida. Son aquellos dispositivos cuya misión es recoger y proporcionar al exterior los datos de salida o resultados de los procesos que se realicen en el sistema informático. También se denominan periféricos o unidades de salida. Ejemplos: monitor, impresora, etc.


SOFTWARE

Esquema básico del elemento lógico (software)

El software de un sistema informático es el conjunto de elementos lógicos necesarios para que se puedan realizar las tareas encomendadas al mismo. Se puede definir de la siguiente forma: 

El software es la parte lógica que dota al equipo físico de capacidad para realizar cualquier tipo de trabajos.

Tiene su origen en ideas y procesos desarrollados por el elemento humano, plasmadas sobre un soporte determinado del hardware y bajo cuya dirección trabaja siempre la computadora.

Una primera aproximación al concepto de software es la representada en la figura a continuación:

 

Software

Ideas

Datos o informaciones

Conjunto de órdenes


En los primeros años de la existencia de las computadoras, tuvo mayor peso específico el hardware que el software puesto que se disponía de grandes computadoras, caras y complejas, que desarrollaban el trabajo definido por unos pocos y pequeños programas. En la actualidad, en un sistema informático tiene mayor peso específico el software que el hardware para ir adquiriendo día a día, el primero, una mayor importancia en todos los aspectos (costo, mantenimiento, etc.). 

 

Un elemento lógico, para estar presente en un sistema informático, debe almacenarse en un soporte físico. Estos soportes son los siguientes: La memoria central y las memorias auxiliares.

El elemento lógico de un sistema informático puede clasificarse como aparece representado en el esquema a continuación:

 

 

 

 

Software

Software básico (sistema operativo)

 

 

 

 

 

Software de aplicación

 

 

 

 

 

Programas

+

Datos

El software básico es el conjunto de programas que el equipo físico necesita para tener la capacidad de trabajar. Estos programas en su conjunto configuran lo que se denomina en un sistema informático el sistema operativo (OS, Operating System). Una definición muy general del sistema operativo es la siguiente:

El sistema operativo es el soporte lógico que controla el funcionamiento del equipo físico, ocultando los detalles del hardware y haciendo sencillo el uso de la computadora.
La figura a continuación representa los componentes de un sistema operativo.

 

 

 

 

Sistema operativo

Programas de control

 

 

 

 

Programas de utilidad (utilidades)

 

 

 

Gestión de información

Gestión de memoria

Gestión de entrada y salida

Gestión del procesador

Gestión de trabajos


El conjunto de programas de un sistema operativo cuya misión es controlar al equipo físico en todos sus aspectos, se denomina programas de control. Existen igualmente otros programas cuya misión es la de ayudar al usuario en algunos trabajos típicos, como el dar formato a disquetes, manejo de archivo, etc.; estos programas se denominan utilidades.

Tipos de sistemas operativos.

Una manera de clasificar a un sistema operativo es con base en el número de usuarios que pueden utilizarlo de manera simultánea. Esto produce las categorías monousuario y multiusuario:

 

El sistema operativo es monousuario cuando puede ser utilizado por sólo un usuario, como en el caso de las computadoras personales. Ejemplo de este tipo es el MS-DOS (Microsoft Disk Operating System), cuyo concepto es el siguiente:


Sistema operativo diseñado por Microsoft para las microcomputadoras IBM/PS o compatibles basado en comandos. 


Presenta una interfaz basada en comandos, por lo que no es muy amigable. 
Características: 
* Administra el uso de los recursos de la computadora
* Coordina la ejecución de los programas
* Permite organizar eficientemente la información en el almacenamiento secundario.
* Facilita el uso de los dispositivos periféricos. 
Conceptos básicos: 
* Archivos
* Directorios
* Comando 
Qué es un ARCHIVO? 
Colección de datos y/o información, que tienen un propósito común y que se almacenan en un diskette o en disco duro, bajo un nombre que los identifique. 
Ejemplos de archivos: 
* Una carta: JUAN.WPS
* Un programa fuente en Pascal: TAREA1.PAS
* Un código ejecutable: TAREA1.EXE
* Una base de datos: AMIGOS.DAT
* Una gráfica o dibujo: PAISAJE.TIF 
Nombres de archivos 
* Conjunto de hasta 8 caracteres
* Parte opcional llamada extensión (hasta 3 caracteres)
* No usar: ³ < > [ ] / | \ . , ; : + = 
* Referencia: unidad: nombre.extensión 
Qué es un DIRECTORIO? 
Es una agrupación de archivos (y/o directorios), bajo un nombre que los identifica como grupo.
La finalidad de utilizar directorios es la de organizar los archivos, cuando la cantidad de éstos en un disco es grande.
El DOS, al igual que la mayoría de sistemas operativos, utiliza una estructura de tipo jerárquico, para organizar sus directorios y archivos. 
Conceptos relacionados con directorios: 
* Estructura Jerárquica de un Arbol Genealógico
* Estructura Jerárquica de archivos
* Trayectoria o Ruta de acceso (PATH)
* Unidades de disco 
Qué es un COMANDO? 
Un comando es una orden que especifica al DOS, una acción que tiene que realizar.
Los comandos del DOS son una palabra o abreviatura, con un formato definido, para ser interpretado por el mismo sistema. 


COMANDOS INTERNOS: Se encuentran residentes en la memoria de la computadora y son las que se usan con más frecuencia. 

COMANDOS INTERNOS

FUNCIÓN

SINTAXIS

COPY

COPIA ARCHIVOS O GPO. ARCHIVOS

COPY EXA.DOC EX.DOC COPY PER.DAT A: COPY MATE.WK1 PRAC\MATE.WK1 COPY MATE.WK1 B:\PRAC\MET.WK1 COPY *.DAT B:

DEL

BORRA ARCHIVO O GPO. ARCHIVOS

BORRA ARCHIVO O GPO. ARCHIVOS

REN

RENOMBRA UN ARCHIVO

REN VACA.TXT VAC.TXT REN B:\CLASE\EJER.DAT EJE.DAT

VER

VISUALIZA LA VERSIÓN DEL SISTEMA OPERATIVO

VER

CD

CAMBIA DE UN DIRECTORIO A OTRO

CD MAMA CD.. CD B:\PADRE

MD

CREA UN DIRECTORIO

MD NUEVO MD B:\MENSAJE\MEMO

DIR

MUESTRA ARCHIVOS Y DIRECTORIOS DEL DISCO

DIR DIR/P DIR/W

RD

BORRA UN DIRECTORIO

RD MAMA

DATE

PROPORCIONA LA FECHA Y MODIFICA

DATE

TIME

PROPORCIONA LA HORA

TIME

CLS

LIMPIA LA PANTALLA

CLS

TYPE

VISUALIZA ARCHIVO

TYPE MAMA.DOC


COMANDOS EXTERNOS: No se encuentran cargadas en la memoria de la computadora, por lo que para ser usadas deben encontrarse disponibles en alguna de las unidades ya sea A:, B:, o C: 

 

COMANDOS EXTERNOS

FUNCIÓN

SINTAXIS

ATTRIB

FIJA O VISUALIZA LOS ATRIBUTOS DE UN ARCHIVO

ATTRIB [+R] [NOMBRE DEL ARCHIVO] R LECTURA H OCULTO A ARCHIVO S SISTEMA EL SIGNO + LOS ACTIVA EL SIGNO - LOS DESACTIVA

DISKCOMP

COMPARA EL CONTENIDO DE DOS DISCOS

DISKCOMP [UNIDAD] [UNIDAD]

DISKCOPY

HACE COPIA DE UN DISCO CON FORMATO

DISKCOPY [ORIGEN] [DESTINO]

FORMAT

DA FORMATO AL DISCO

FORMAT [UNIDAD] FORMAT [UNIDAD]/S

LABEL

PARA CREAR ETIQUETA

LABEL [UNIDAD] [ETIQUETA]

TREE

MUESTRA ARBOL DE DIRECTORIOS

TREE [UNIDAD] TREE [UNIDAD]/F 

Comandos básicos del MS-DOS:

 

·        DIR. Listar los archivos de un directorio

·        CD <vía de acceso y nombre del directorio>. Cambiar de un directorio específico (del inglés Change Directory).

·        DEL. Borrar (en inglés Delete).

·        MD. Crear directorio (del inglés Make Directory).

·        COPY. Copiar

·        CLS. Limpiar la pantalla (del inglés Clean Screen)

·        RUN. Ejecutar programa.

El sistema operativo es multiusuario cuando tiene la capacidad de atender a varios usuarios, generalmente en computadoras conectadas en red. Ejemplos de este tipo de sistema son:

 

Windows NT, desarrollado por Microsoft para desarrollo de trabajo en red. Este tema de profundizará más adelante.

OS/2, desarrollado por Microsoft e IBM para computadoras personales. Office una interfaz gráfica, aplicaciones de 32 bits, multitarea y un sistema de comunicaciones robusto.

Mac OS, creado por Apple para computadoras de la plataforma Macintosh y Power PC. Este sistema llevó a la computadora personal en uso de una interfaz gráfica (el uso de iconos, ventanas y punteros para emitir comandos) que originalmente había diseñado Xerox para su propias máquinas.

Novell, creado por Netware, presenta la ventaja de poseer estaciones inteligentes sin disco duro, lo que reduce los costos de equipamiento.

Unix, Desarrollado por los laboratorios Bell en 1969, fue diseñado para compartir de manera eficiente los recursos del sistema de computación con base en la multitarea. Su sistema de archivos proporciona un método sencillo para la organización de los mismos y permite su protección. Hay diferentes sistemas basados en Unix diseñados por distintas compañías, por ejemplo Sun Os y Solaris para equipos con arquitectura Sun; Aix para equipos IBM, etc.

Linux, desarrollado por el proyecto GNU de Free Software Fundation, este S.O. es una versión de Unix; una de sus principales ventajas radica en que es de uso gratuito, razón por la que es utilizado por cientos de miles de usuarios, ya que constituye una excelente alternativa para las personas u organizaciones que no disponen de presupuesto para adquirir programas cuyas licencias son muy costosas.

Comandos básicos del Linux:

Date: muestra la fecha del sistema.
Ls: lista directorios y archivos
Cp file: copia archivos
Dl file: borra archivo
Mv file: mueve o cambia de nombre archivo
Pwd: muestra el directorio actual
Cd: cambia de directorio
Mk dir: crea un directorio

El software de aplicación, o aplicaciones, son las herramientas de software que permiten usar un computador para fines específicos. Muchas de las aplicaciones en los terrenos científico, gubernamental, administrativo y artístico son tan especializadas y técnicas que no son de utilidad o interés para quienes no se ocupan de esos campos. Por otra parte, algunas aplicaciones son tan flexibles que pueden servir a casi cualquier persona. Es probable que usted, sin importar sus antecedentes o aspiraciones, se vea beneficiado si conoce algo sobre estas aplicaciones.

Procesamiento de textos y publicación electrónica. El procesamiento de textos es fundamental para cualquier persona que se comunique en forma escrita; y es, por mucho, la aplicación principal de que se valen los estudiantes. En la publicación electrónica se usa el computador personal para transformar cualquier texto en una publicación refinada, con atractivo visual.
Hojas de cálculo y otras aplicaciones de procesamiento numérico. En las empresas, la hoja de cálculo electrónica es la aplicación de computadores personales que paga el alquiler o que al menos lo calcula. Si usted trabaja con números de cualquier tipo, las hojas de cálculo y el software para estadísticas pueden ayudarlo a convertir cantidades abstractas en conceptos concretos.
Bases de datos para almacenamiento y recuperación de información. Si los procesadores de textos y las hojas de cálculo son las aplicaciones más populares de los computadores personales, las bases de datos predominan en el mundo de los macrocomputadores. Por supuesto, las bases de datos también son comunes en los computadores personales. Cada vez más bibliotecas, bancos y otras instituciones adoptan las bases de datos para almacenar información, por lo cual la persona común tiene más razones para aprender sus conceptos básicos.
Telecomunicaciones y redes. Cada día hay más computadores conectados en redes, de manera que puedan intercambiar información; estamos entrando en una era en la que las redes se han convertido en la norma. Una conexión en red es una puerta a un mundo de buzones electrónicos, tableros de noticias, servicios de bases de datos comerciales y otras herramientas de comunicación. Muchos expertos creen que la telecomunicación (la comunicación a grandes distancias) será la función más importante de los computadores en un futuro no muy lejano.
Graficación por computador. Los computadores no solo trabajan con textos y números; también pueden generar todo tipo de gráficos, desde los diagramas y gráficas de las hojas de cálculo hasta animaciones tridimensionales realistas. Las habilidades de comunicación visual son cada vez más importantes, ya que aumentan la disponibilidad de las herramientas gráficas.
Multimedia e hipermedia. Muchos de los visionarios de la industria de la computación han cerrado sus objetivos en estas dos tecnologías relacionadas. Las herramientas multimedia para computadores personales permiten combinar audio y video con los textos y gráficos tradicionales, añadiendo nuevas dimensiones a la comunicación por computador. Las herramientas de hipermedia se centran en las capacidades interactivas de los computadores. A diferencia de los libros, videos y otros medios lineales, diseñados para consumirse de principio a fin, con los hipermedia los usuarios pueden explorar diversas trayectorias por las fuentes de información. La combinación de multimedia e hipermedia tiene un potencial casi inimaginable para transformar la manera en que vemos la información y trabajamos con ella.
Inteligencia artificial. La inteligencia artificial es la rama de las ciencias de la computación que explora el uso de computadores en tareas que requieren inteligencia, imaginación e introspección, tareas que tradicionalmente han sido realizadas por seres humanos y no por máquinas. Hasta hace poco, la inteligencia artificial no era más que una disciplina académica, un campo de estudio reservado para investigadores y filósofos. Sin embargo, hoy podemos ver algunos de los frutos de estas investigaciones en aplicaciones comerciales que exhiben inteligencia y que pronto podrá usar usted.
Resolución de problemas generales. Los computadores se usan para resolver problemas. La mayoría emplea software de aplicación escrito por programadores profesionales, pero algunos tipos de problemas requieren programación personalizada. Los lenguajes de programación no son aplicaciones, sino herramientas que permiten construir y adecuar aplicaciones. Muchos usuarios de computadores han descubierto que sus máquinas son más versátiles y valiosas cuando aprenden un poco de programación.

El lenguaje de los computadores.

Todos los computadores procesan instrucciones en un lenguaje de máquina nativo. El lenguaje de máquina emplea códigos numéricos para representar las operaciones básicas del computador: suma de números, resta de números, comparación de números, movimiento de números, repetición de instrucciones, etc. Los primeros programadores estaban forzados a escribir los programas en lenguaje de máquina, traduciendo tediosamente cada instrucción a código binario. Este proceso era el preludio de la locura: trate de imaginar la dificultad de encontrar un carácter mal escrito en una página llena de ceros y unos. Hoy en día, casi todos los programadores usan lenguajes de programación como BASIC, COBOL, FORTRAN y C, que ocupan una posición intermedia entre los lenguajes naturales humanos y los precisos lenguajes de máquina. Estos lenguajes permiten que los científicos, ingenieros y hombres de negocios resuelvan problemas utilizando una terminología y una notación familiares, en lugar de oscuras instrucciones de máquina. Para que un computador pueda comprender un programa escrito en uno de estos lenguajes; tiene que usar un programa de traducción para convertir las instrucciones parecidas al inglés en los ceros y unos del lenguaje máquina.

En las últimas décadas ha sido constante la evolución de los lenguajes de programación. La nueva generación de lenguajes facilita la tarea de programación, al asumir más del trabajo detallado, ocultándolo del programador. Pero no han desaparecido las duras exigencias del computador en cuanto a detalles técnicos, simplemente son manejados en forma automática por el software de traducción. Gracias a ello, la programación es más sencilla y menos propensa a errores. Al ir aumentando la complejidad de los traductores, los programadores pueden comunicarse en lenguajes de computación que se parecen cada vez más a los lenguajes naturales, los lenguajes con los cuales hablamos y escribimos en nuestras actividades cotidianas.

Incluso con los lenguajes de computación de vanguardia, la programación exige una considerable inversión de tiempo y esfuerzo mental. Por fortuna, muchas aplicaciones de software de fácil uso, como los procesadores de textos, las hojas de cálculo y los programas gráficos. Los lenguajes de programación aún se emplean para resolver problemas que no pueden manejarse con aplicaciones comerciales de software, pero la mayoría de los usuarios se las arreglan para hacer su trabajo sin tener que programar. En la actualidad, en su mayor parte, la programación es realizada por creadores profesionales de software, quienes usan los lenguajes de programación para crear y refinar las aplicaciones y otros programas empleados por los usuarios en sus actividades diarias.

Clasificación de los lenguajes de programación.

Una primera clasificación, atendiendo a su proximidad al lenguaje de la máquina o al lenguaje de las personas (lenguaje natural), establece los tres siguientes grupos:
· Lenguajes de bajo nivel (máquina)
· Lenguajes intermedios (ensambladores)
· Lenguajes de alto nivel (evolucionados)

En cuanto a los lenguajes de alto nivel, existen varios cientos de ellos, siendo bastante difícil establecer una clasificación general de los mismos, ya que en cualquiera que se realice habrá lenguajes que pertenezcan a más de uno de los grupos establecidos. Una clasificación muy extendida, atendiendo a la forma de trabajar de los programas y a la filosofía con que fueron concebidos, es la siguiente:

* Lenguajes imperativos. Utilizan instrucciones como unidad de trabajo de los programas (COBOL, PASCAL, C, ADA)
* Lenguajes declarativos. Los programas se construyen mediante descripciones o expresiones lógicas (LISP, PROLOG)
* Lenguajes orientados a objetos. El diseño de los programas se basa más en los datos y su estructura. La unidad de proceso es el objeto y en èl se incluyen los datos (variables) y las operaciones que actúan sobre ellos (SMALLTALK, C++).
* Lenguajes orientados al problema. Diseñados para problemas específicos, principalmente de gestión, suelen ser generadores de aplicaciones.
* Lenguajes naturales. Están desarrollándose nuevos lenguajes con el principal objetivo de aproximar el diseño y construcción de programas al lenguaje de las personas.

Por otro lado, se puede establecer una clasificación atendiendo al desarrollo de los lenguajes desde la aparición de las computadoras, que sigue un cierto paralelismo con las generaciones establecidas en la evolución de las mismas:

* Primera generación. Lenguaje máquinas y ensambladores.
* Segunda generación. Primeros lenguajes de alto nivel imperativos (FORTRAN, COBOL).
* Tercera generación. Lenguajes de alto nivel imperativos. Son los más utilizados y siguen vigentes en la actualidad (ALGOL 68, PL/1, PASCAL, MODULA)
* Cuarta generación. Orientado básicamente a las aplicaciones de gestión y al manejo de bases de datos (NATURAL, SQL)
* Quinta generación. Orientados a la inteligencia artificial y al procesamiento del lenguaje natural (LISP, PROLOG)

Lenguaje máquina. El lenguaje máquina es el único que entiende directamente la computadora. Utiliza el alfabeto binario, que consta de los dos únicos símbolos 0 y 1, denominados bits (abreviatura inglesa de dígitos binarios). Fue el primer lenguaje utilizado en la programación de computadoras, pero dejó de utilizarse por su dificultad y complicación, siendo sustituido por otros lenguajes más fáciles de aprender y utilizar, que además reducen la posibilidad de cometer errores.

Generalmente, en la codificación de los programas se empleaba el sistema hexadecimal para simplificar el trabajo de escritura

Instrucciones en lenguaje máquina y sus equivalentes en sistema hexadecimal.

 

0000

0001

1010

0001

01

A1

1000

1001

1001

1010

89

9A

0011

1010

1001

1100

3A

9C

0111

0100

0111

0000

74

70

1110

1001

0010

0000

E9

20


Lenguaje ensamblador. El lenguaje ensamblador es el primer intento de sustituir el lenguaje máquina por otro más similar a los utilizados por las personas. En este lenguaje, cada instrucción equivale a una instrucción en lenguaje máquina, utilizando para su escritura palabras nemotécnicas en lugar de cadenas de bits.

Instrucciones en lenguaje ensamblador.

INICIO:    ADD       B,      1
               MOV       A,      B
               CMP       A,      E 
               JE          FIN
               JMP        INICIO
FIN:         END

Este lenguaje presenta la mayoría de los inconvenientes del lenguaje máquina:

- Cada modelo de computadora tiene un lenguaje ensamblador propio diferente del de los demás, por lo cual un programa sólo puede utilizarse en la máquina para la que se programó.
- El programador ha de conocer perfectamente el hardware del equipo, ya que maneja directamente las posiciones de memoria, registros del procesador y demás elementos físicos.
- Todas las instrucciones son elementales, es decir, en el programa se deben describir con el máximo detalle todas las operaciones que se han de efectuar en la máquina para la realización de cualquier proceso.

Por otro lado, tanto el lenguaje máquina como el ensamblador gozan de la ventaja de mínima ocupación de memoria y mínimo tiempo de ejecución en comparación con el resultado de la compilación del programa equivalente escrito en otros lenguajes.

Lenguajes de alto nivel. Los lenguajes de alto nivel, también denominados lenguajes evolucionados, surgen con posterioridad a los anteriores con los siguientes objetivos, entre otros:


1. Lograr independencia de la máquina, pudiendo utilizar un mismo programa en diferente equipos con la única condición de disponer de un programa traductor o compilador, que es suministrado por el fabricante, para obtener el programa ejecutable en lenguaje binario de la máquina que se trate. Además, no es necesario conocer el hardware específico de dicha máquina.
2. Aproximarse al lenguaje natural, para que el programa se pueda escribir y leer de una forma más sencilla, eliminando muchas de las posibilidades de cometer errores que se daban en el lenguaje máquina, ya que se utilizan palabras (en inglés) en lugar de cadenas de símbolos sin ningún significado aparente.
3. Incluir rutinas de uso frecuente, como las de entrada/salida, funciones matemáticas, manejo de tablas, etc., que figuran en una especia de librería del lenguaje, de manera que se puedan utilizar siempre que se quiera sin necesidad de programarlas cada vez.

Se puede decir que el principal problema que presentan los lenguajes de alto nivel es la gran cantidad de ellos que existen actualmente en uso, además de las diferentes versiones o dialectos que se han desarrollado de algunos de ellos.

Esquema básico del elemento humano.

El elemento humano es el más importante de los que constituyen la informática. Sin personas estas máquinas serían totalmente inútiles.

El elemento humano, denominado comúnmente profesional informático, es el conjunto de personas que desarrollan las distintas funciones relacionadas con el uso de las computadoras en una empresa. En general, se denomina usuario a la persona que utiliza en última instancia la computadora y el software de aplicación como herramienta para desarrollar su trabajo o ayudarse en su actividad; y por ello, no se considera en un principio como elemento perteneciente al personal informático. Este personal informático se puede clasificar en una primera aproximación, de la siguiente manera:

Personal de dirección. Es el encargado de dirigir y coordinar un departamento de informática o centro de proceso de datos o alguna división, sección, área o proyecto dentro del mismo para obtener un rendimiento adecuado a los recursos disponibles.

Personal de análisis. Es el encargado del desarrollo de aplicaciones en lo que respecta a su diseño y obtención de los algoritmos, así como de analizar las posibles utilidades y modificaciones necesarias de los sistemas operativos para una mayor eficacia de un sistema informático. Otra misión de estas personas es dar apoyo técnico a los usuarios de las aplicaciones existentes.

Personal de programación. Es el encargado de transcribir en un determinado lenguaje de programación los algoritmos diseñados en el análisis de una aplicación de usuario o del propio sistema, así como realizar la traducción de estos programas al lenguaje nativo de la máquina para poder probarlos y ponerlos a punto, utilizando los juegos de ensayo que son proporcionados por el personal de análisis.

Personal de explotación y operación. Este grupo se ocupa de ejecutar los programas o aplicaciones existentes, distribuyendo los resultados obtenidos y realizando el mantenimiento diario de los equipos y sistemas existentes.

NACIMIENTO Y EVOLUCIÓN DE LAS COMPUTADORAS.

Los seres humanos nos caracterizamos por nuestra capacidad de adaptación, así como por la inteligencia, la creatividad y el ingenio que nos permiten resolver problemas. Las computadoras, como otros inventos, se han perfeccionado a través del tiempo, gracias a la investigación y al desarrollo tecnológico generado con base en las ideas, el empeño y la dedicación de innumerables personas y equipos de trabajo.

Precursores de las computadoras.

Para poder contar con instrumentos de procesamiento de la información tan sofisticados como las computadoras actuales, ha sido necesario recorrer un camino tan largo como la historia misma de la humanidad. Desde sus orígenes, el hombre se ha esforzado en inventar mecanismos para realizar cálculos y otras tareas en forma automática y eficiente.

El ábaco es uno de los primeros instrumentos ideados con la finalidad de realizar operaciones numéricas y obtener resultados con rapidez y precisión. Fue inventado por los chinos hacia el año 3000 antes de nuestra era, y aún en la actualidad sigue siendo utilizado. Posteriormente, diversos inventores continuaron desarrollando máquinas para dar solución a problemas matemáticos, obteniendo grandes avances que sentarían las bases para el desarrollo de las computadoras. A continuación, presentamos los principales precursores.

 

MÁQUINA DE PASCAL

MÁQUINAS QUE USABAN TARJETAS PERFORADAS

MÁQUINA DE BABBAGE

En 1642, Blaise Pascal, matemático francés, inventó una máquina mecánica para calcular que utilizaba una serie de ruedas de diez dientes (cada diente representaba un código), conectadas de tal manera que era posible sumar las cantidades haciendo avanzar el número de dientes correspondiente.En 1670, el filósofo y matemático alemán Gottfried Wilhelm Leibniz perfeccionó la máquina de Pascal, logrando que también pudiera multiplicar y dividir. Otra aportación de Leibniz fue el desarrollo de la teoría del sistema binario e investigaciones para el desarrollo de la lógica matemática, elementos básicos para el funcionamiento de las computadoras.

Joseph Marie Jacquard utilizó tarjetas perforadas para controlar el diseño del tejido de un telar automatizado.En la década de 1880, el estadístico estadounidense Herman Hollerith tuvo la idea de utilizar tarjetas perforadas que pasaban sobre contactos eléctricos para procesar datos; así consiguió compilar las información estadística del censo de población de Estados Unidos.

En el siglo XIX, el matemático e inventor británico Charles Babbage inventó dos máquinas diseñadas para solucionar problemas matemáticos complejos:· La máquina diferencial, capaz de calcular tablas matemáticas.· La máquina analítica, que ya contaba con características que poseen las computadoras actuales, incluía entrada de datos, en forma de paquetes de tarjetas perforadas, memoria para almacenar datos, procesador para las operaciones matemáticas, impresora para hacer permanente el registro.


Generaciones de computadoras

Con el propósito de entender la forma en que han evolucionado las computadoras, su desarrollo histórico se ha clasificado en generaciones, tomando como base la época y las características que presentan (componentes electrónicos, tareas o aplicaciones, velocidad de procesamiento, etc.).

Dentro de la primera generación podemos mencionar diversas computadoras que fueron creadas, fundamentalmente, para utilizarse en estrategias militares.

La primera computadora digital fue desarrollada por un equipo de científicos y matemáticos. Este primer sistema, denominado Colossus, ya era funcional en el año de 1943; una de sus aplicaciones fue la decodificación de mensajes de radio de los alemanes. Paralelamente, en el año de 1939, otro equipo con el liderazgo de Atanasoff y Clifford Berry en el Iowa State Colage construyó otro prototipo de computadora.

La computadora de primera generación con mayor reconocimiento fue la desarrollada en el periodo comprendido entre 1943 y 1946 (durante la Segunda Guerra Mundial), por los científicos Eckert, Mauchly y Goldstine de la Universidad de Pensylvania, denominada ENIAC (Electronic Numerical Integrator and Calculator). Se fabricó por encargo de funcionarios del gobierno de Estados Unidos, con el objeto de determinar trayectorias balísticas y descifrar mensajes codificados enviados por los países contrincantes. Dado que su fabricación terminó cuando ya había concluido la guerra, se utilizó para realizar cálculos astronómicos.

Esta computadora
    * realizaba 5,000 sumas por segundo,

    * retenía hasta 20 números de 10 dígitos,
    * tenía 1,500 interruptores electromecánicos y 18,000 bulbos (por lo que requería enormes sistemas de

       enfriamiento).
    * era tan grande que debía ser alojada en una habitación de 9 por 30 metros.

En 1947, siguiendo los mismos principios, se construyó la EDVAC (Electronic Discrete Variable Computer). Eckert y Mauchly fundaron una compañía que, en 1950, colocó en el mercado la primera computadora comercial denominada UNIVAC I (Universal Automatic Computer).

Primera generación

Segunda generación

Tercera generación

Cuarta generación

Bulbo

Transistor

Circuito integrado LSI

Microprocesadores VLSI y ULSI

Válvula termoiónica desarrollada, toma como base la lámpara eléctrica.Este componente generaba mucho calor, era voluminoso y caro.

Elaborado con base en materiales semiconductores. Su función es amplificar señales y controlar interrupciones.

Circuito integrado LSI.Se denomina también chip, está formado por transistores y resistencias de tamaño microscópico, lo que permite integrar en un espacio muy reducido gran cantidad de componentes.LSI (Large Scale Integration)Lenguajes de programación: 

Circuito electrónico miniaturizado, lo que permite que el procesador completo esté contenido en un circuito.VLSI (Very Large Scale Integration)ULSI (Ultra Scale Integration)

 

LENGUAJES DE PROGRAMACIÓN

 

Binario, Lenguaje máquina

Ensamblador de alto nivel (Fortran, Cobol, Algol)

Sistemas operativos, lenguajes estructurados (Pascal, C, etc.)

Paquetes computacionales, programas de aplicación específica.

 

VELOCIDAD

 

10 Kips**miles de instrucciones por segundo

100 a 200 Kips

1 a 5 Mips**millones de instrucciones por segundo

10 a 2000 Mips

 

MEMORIA SECUNDARIA

 

Tarjetas perforadas

Cintas magnéticas

Cintas y discos magnéticos

Discos duros, CD Rom, DVD Rom

 

Para que tengas un panorama general de las generaciones de las computadoras, te presentamos una línea del tiempo en donde destacamos el componente electrónico clave para el desarrollo de cada generación, con la finalidad de que percibas la tendencia de desarrollo de la informática.

 

 

Año en que se desarrollan los componentes

  1890                              1947                              1958                              1971
==|================|================|================|================>

 

 

==========|============|==================|============|==============>

                   1943                      1957                                   1964                     1977

Año en que inicia la generación de las computadoras

Cada componente, en su momento, se destacaba por su eficiencia, funcionalidad, precio y tamaño.

La quinta generación de computadoras se encuentra aún en desarrollo, dado que la principal característica y reto que se planteó fue que contaran con inteligencia artificial, área que si bien ha reportado grandes avances, aún no logra obtener los resultados deseables en su instrumentación, traducida a características como la capacidad de resolver problemas complejos en formas creativas, mediante el reconocimiento de voz y de patrones visuales, síntesis del habla (capacidad de producir lenguaje oral), además del razonamiento matemático que permita el aprendizaje de nuevos conceptos y la autoprogramación.

NOTA: No existe un acuerdo general sobre los límites entre una y otra generación de computadoras, hay autores que indican que existe, incluso la sexta generación; en tanto otros afirman que nos encontramos en la cuarta.

 

 

 

 

 

 

 

 

Hosted by www.Geocities.ws

1