You are on page 1of 19

La Primera Generación

J.P. Eckert y John Mauchly, de la Universidad de Pensilvania, inauguraron el


nuevo ordenador el 14 de febrero de 1946. El ENIAC era mil veces más rápido
que cualquier máquina anterior, resolviendo 5 mil adiciones y sustracciones,
350 multiplicaciones o 50 divisiones por segundo. Y tenía el doble del tamaño
del Mark I: llenó 40 gabinetes con 100 mil componentes, incluyendo cerca de
17 mil válvulas electrónicas. Pesaba 27 toneladas y medía 5,50 x 24,40 m y
consumía 150 KW. A pesar de sus incontables ventiladores, la temperatura
ambiente llegaba a los 67 grados centígrados. Ejecutaba 300 multiplicaciones
por segundo, pero, como fue proyectado para resolver un conjunto particular de
problemas, su reprogramación era muy lenta. Tenía cerca de 19.000 válvulas
sustituidas por año. En 1943, antes de la entrada en operación del ENIAC
Inglaterra ya poseía el Colossus, máquina creada por Turing para descifrar los
códigos secretos alemanes.

ENIAC

En 1945 Von Neumann sugirió que el sistema binario fuera adoptado en todos
los ordenadores, y que las instrucciones y datos fueran compilados y
almacenados internamente en el ordenador, en la secuencia correcta de
utilización. Estas sugerencias sirvieron de base filosófica para los proyectos de
ordenadores. (Actualmente se investigan ordenadores "no Von Neumann", que
funcionan con fuzzy logic, lógica confusa) A partir de esas ideas, y de la lógica
matemática o álgebra de Boole, introducida por Boole en el inicio del siglo XIX,
es que Mauchly y Eckert proyectaron y construyeron el EDVAC, Electronic
Discrete Variable Automatic Computer, completado en 1952, que fue la primera
máquina comercial electrónica de procesamiento de datos del mundo. Ellos
habían intentado eso con El BINAC, ordenador automático binario, de 1949,
que era compacto (1,40 x 1,60 x 0,30 m) lo suficiente para ser llevado a bordo
de un avión, pero que nunca funcionó. El EDVAC utilizaba memorias basadas
en líneas de retardo de mercurio, muy caras y más lentas que los CRTs, pero
con mayor capacidad de almacenamiento. Wilkes construyó el EDSAC,
Electronic Delay Storage Automatic Calculator en 1949, que funcionaba según
la técnica de programas almacenados.

El primer ordenador comercial de gran escala fue el UNIVAC, Universal


Automatic Computer, americano, de 1951, que era programado tocando cerca
de 6.000 llaves y conectando cables a un panel. La entrada y salida de
informacion era realizada por una cinta metálica de 1/2 pulgada de ancho y 400
m de largo. En total, se vendieron 46 unidades del UNIVAC Modelo I, que eran
normalmente acompañados de un dispositivo impresor llamado UNIPRINTER,
que, solo, consumía 14.000 W. Otro fue el IBM 701, de 1952, que utilizaba
cinta plástica, más rápida que la metálica del UNIVAC, y el IBM 704, con la
capacidad fenomenal de almacenar 8.192 palabras de 36 bits, ambos de IBM.
En Inglaterra surgen el MADAM, Manchester Automatic Digital Machine, el
SEC, Simple Electronic Computer, y el APEC, All-Purpose Electronic
Computer.

Entre 1945 y 1951, el WHIRLWIND, del MIT, fue el primer ordenador que
procesaba informacion en tiempo real, con entrada de datos a partir de cintas
perforadas y salida en CRT (monitor de vídeo), o en la Flexowriter, una especie
de máquina de escribir (Whirlwind quiere decir remolino).En 1947 Bardeen,
Schockley y Brattain inventan el transístor, y, en 1953 Jay Forrester construye
una memoria magnética. Los ordenadores a transistores surgen en los años
50, pesando 150 kg, con consumo inferior la 1.500 W y mayor capacidad que
sus antecesores valvulados.

La Segunda Generación
Ejemplos de esta época son el IBM 1401 y el BURROUGHS B 200. En 1954
IBM comercializa el 650, de tamaño medio. El primer ordenador totalmente
transistorizado fue el TRADIC, del Bell Laboratories. El IBM TX-0, de 1958,
tenía un monitor de vídeo de primera calidad, era rápido y relativamente
pequeño, poseia dispositivo de salida sonora. El PDP-1, procesador de datos
programable, construido por Olsen, fue una sensación en el MIT: los alumnos
jugaban Spacewar! y Ratón en el laberinto, a través de un joystick y un lapiz
óptico.

BURROUGH

En 1957 el matemático Von Neumann colaboró para la construcción de un


ordenador avanzado, el cual, como broma, recibió el nombre de MANIAC,
Mathematical Analyser Numerator Integrator and Computer. En enero de 1959
Tejas Instruments anuncia al mundo una creación de Jack Kilby: el circuito
integrado. Mientras a una persona de nivel medio le llevaría cerca de cinco
minutos multiplicar dos números de diez dígitos, MARK I lo hacía en cinco
segundos, el ENIAC en dos milésimas de segundo, un ordenador
transistorizado en cerca de cuatro billonésimas de segundo, y, una máquina de
tercera generación en menos tiempo aún.

La Tercera Generación
Esta generación es de la década del 60, con la introducción de los circuitos
integrados. El Burroughs B-2500 fue uno de los primeros. Mientras el ENIAC
podía almacenar veinte números de diez dígitos, estos podían almacenar
millones de números. Surgen conceptos como memoria virtual,
multiprogramación y sistemas operacionales complejos. Ejemplos de esta
época son el IBM 360 y el BURROUGHS B-3500.

IBM 360

En 1960 existían cerca de 5.000 ordenadores en los EUA. Es de esta época el


término software. En 1964, la CSC, Computer Sciences Corporation, creada en
1959 con un capital de 100 dólares, se transformo en la primera compañía de
software con acciones negociadas en bolsa. El primer mini computador
comercial surgió en 1965, el PDP-5, lanzado por la americana DEC, Digital
Equipament Corporation. Dependiendo de su configuración y accesorios él
podía ser adquirido por el accesible precio de US$ 18,000.00. Le siguió el PDP-
8, de precio más competitivo. Siguiendo su camino otras compañías lanzaron
sus modelos, haciendo que a finales de la década ya existieran cerca de
100.000 ordenadores esparcidos por el mundo. En 1970 INTEL Corporation
introdujo en el mercado un nuevo tipo de circuito integrado: el microprocesador.
El primero fue el 4004, de cuatro bits. Fue seguido por el 8008, en 1972, el
difundidísimo 8080, el 8085, etc. A partir de ahí surgen los microcomputadores.
Para muchos, la cuarta generación surge con los chips VLSI, de integración a
muy larga escala. Las cosas comienzan a desarrollarse con mayor rapidez y
frecuencia. En 1972 Bushnell lanza el vídeo game Atari. Kildall lanza el CP/M
en 1974. El primer kit de microcomputador, el ALTAIR 8800 en 1974/5. En
1975 Paul Allen y Bill Gates crean Microsoft y el primer software para
microcomputador: una adaptación BASIC para el ALTAIR. En 1976 Kildall
establece la Digital Research Incorporation, para vender el sistema operacional
CP/M. En 1977 Jobs y Wozniak crean el microcomputador Apple, a Radio
Shack el TRS-80 y la Commodore el PET. La plantilla Visicalc (calculador
visible) de 1978/9, primer programa comercial, de Software Arts. En 1979
Rubinstein comienza a comercializar un software escrito por Barnaby: el
Wordstar, y Paul Lutus produce el Apple Writer. El programa de un ingeniero de
la NASA, Waine Ratliff, el dBASE II, de 1981. También de 1981 IBM-PC y el
Lotus 1-2-3, de Kapor, que alcanzó la lista de los más vendidos en 1982.

El Sinclair ZX81/ZX Spectrum es un ordenador minúsculo concebido por John


Sinclair, profesor en la Universidad de Cambrige en U.K.Inicialmente concebido
para la utilización de los estudiantes de la Universidad de Cambrige. La CPU
tenía un procesador Zilog Z80A de 8 bit a 3,25 MHZ, una memoria compuesta
por una ROM y una RAM y una ULA. La ROM, con 8K de capacidad,
almacenaba de modo permanente los programas, tablas etc. necesarios para el
funcionamiento del sistema y un traductor para el lenguaje de programación
BASIC. La RAM tenía un área de trabajo disponible para el usuario de 1 K
pero, era expandible hasta 16K. En la caja de plástico se alojaba también un
subsistema de comunicaciones para conexión en serie a periféricos
denominado SCL (Sinclair Computer Logic), una unidad para entrada y salida
de sonido, un codificador de imágenes para TV. En la parte trasera de la caja
de plástico tenía un conector donde se podía conectar una impresora
minúscula que usaba un rollo de papel especial. El ordenador era suministrado
con un cable para la conexión al televisor y otro para la conexión con un
grabador de "cassettes" musical (norma Philips). El transformador de corriente
eléctrica alterna a continua era adquirido por separado. Los programas y datos
eran grabados en un cassette magnético y eran también leídos desde uno.El
teclado no tenía teclas. Los caracteres ASCII eran impresos en una membrana.
Esta tecnología y la falta de ventilación de la unidad de alimentación eléctrica
eran las causas principales de averías que enviaban el ZX81 a la basura. Fue
un ordenador muy popular debido a su bajo precio de venta.

Osborne1.
Fabricado por la Osborne en USA alrededor de año 1982. La CPU tenía una
memoria de 64KB, una UAL y un Procesador Zilog Z80A de 8 bit a 4 MHZ. La
caja, del tipo maleta attaché con un peso de 11 Kg, albergaba 2 unidades de
disquete de 5" 1/4 con 204 KB o con opción a 408 KB de capacidad, un monitor
de 5" (24 líneas por 54 columnas) en blanco y negro y un teclado basculante
(servía de tapa de la maleta) con dos bloques de teclas, uno alfanumérico con
los caracteres ASCII y otro numérico. Disponía de conectores para un monitor
externo, ports serie RS-232C y paralelo IEEE-488 o Centronics.El sistema era
alimentado por una batería propia recargable con una autonomía de 5 horas,
por una batería externa de automóvil o por un transformador de corriente
eléctrica alterna a continua.El sistema operativo era el CP/M desarrollada por la
Digital Corporation. El software suministrado incluía un Interpretador M BASIC
desarrollado por MICROSOFT, un Compilador BASIC desarrollado por la
Compyler Systems, una hoja de cálculo SUPERCALC (derivada del Visicalc) y
un procesador de texto denominado WORDSTAR. Podía ser programado en
BASIC, FORTRAN, COBOL, PASCAL, PL 1, ALGOL, C, FORTH, ADA,
ASSEMBLER y CROSS-ASSEMBLER.Última morada conocida: desconocida
(fue visto en la FILEME-82 en Lisboa).

IBM PC/XT
Fabricado por IBM en USA alrededor de año 1980, inició con la versión PC-XT,
a la cual le siguió una versión PC-AT.El CPU comprendía una memoria ROM
de 40KB y una memoria RAM de 64KB expandible hasta 640KB, una ULA y un
procesador Intel 8088 de 16 bit con una frecuencia de reloj de 4,77 MHZ.Era
construido con tres módulos separados: CPU, monitor y teclado. El monitor era
blanco y negro con 25 líneas por 80 columnas pudiendo ser substituido por un
monitor con 16 colores. La CPU además del procesador albergaba una unidad
de disquete de 5" 1/4 con una capacidad de 360KB pudiendo alojar otra unidad
de disquete idéntica o un disco rígido con 10MB de capacidad, que era parte
integrada en la versión PC-XT. El teclado con 83 teclas, 10 de las cuáles
correspondían a funciones pre-programadas, disponía de caracteres
acentuados. Poseia una salida para impresora y el PC-XT disponía de un
interfaz para comunicaciones assincronas. El sistema operativo era el PC/MS-
DOS el cual era un MS-DOS desarrollado por Microsoft para IBM. El lenguaje
de programación que utilizada era el BASIC.. Sólo cerca de dos años después,
con la presentación de los modelos PS/2-50 y PS/2-60, que eran equipados
con un procesador Intel 80286, la IBM recuperó el sector de mercado de los
PCS utilizando para el efecto la penetración en las empresas donde tenía
instalado mainframes y "pequeños ordenadores".

PC XT

La Cuarta Generación (1981-1990)


Surgieron en el transcurso del uso de la técnica de los circuitos LSI (LARGE
SCALE INTEGRATION) y VLSI (VERY LARGE SCALE INTEGRATION). En
ese periodo surgió también el procesamiento distribuido, el disco ótico y la gran
difusión del microcomputador, que pasó a ser utilizado para procesamiento de
texto, cálculos auxiliados, etc.
1982- Surge el 286
Usando memoria de 30 pines y slots ISA de 16 bits, ya venía equipado con
memoria cache, para auxiliar al procesador en sus funciones. Utilizaba
monitores CGA, en algunos raros modelos estos monitores eran coloreados
pero la gran mayoría era verde, naranja o gris.
1985- El 386
Usaba memoria de 30 pines, pero debido a su velocidad de procesamiento ya
era posible correr softwares graficos más avanzados como era el caso del
Windows 3.1, su antecesor podía correr sólo la versión 3.0 debido a la baja
calidad de los monitores CGA, el 386 ya contaba con placas VGA que podían
alcanzar hasta 256 colores si es que el monitor soportara esa configuración.
386

1989- El 486 DX
A partir de este momento el coprocessador matemático junto con el propio
procesador, hubo también una mejora sensible en la velocidad debido a la
aparición de la memoria de 72 pines, mucho más rapida que su antepasada de
30 pines y de las placas PCI de 32 bits dos veces más veloces que las placas
ISA . Los equipamientos ya tenían capacidad para las placas SVGA que
podrían alcanzar hasta 16 millones de colores, sin embargo esto sería usado
comercialmente más adelante con la aparición del Windows 95.

La Quinta Generación (1991-hasta hoy)


Las aplicaciones exigen cada vez más una mayor capacidad de procesamiento
y almacenamiento de datos. Sistemas especiales, sistemas multimedia
(combinación de textos, gráficos, imágenes y sonidos), bases de datos
distribuidas y redes neutrales, son sólo algunos ejemplos de esas necesidades.
Una de las principales características de esta generación es la simplificación y
miniaturización del ordenador, además de mejor desempeño y mayor
capacidad de almacenamiento. Todo eso, con los precios cada vez más
accesibles. La tecnología VLSI está siendo sustituida por la ULSI (ULTRA
LARGE SCALE INTEGRATION).El concepto de procesamiento está yendo
hacia los procesadores paralelos, o sea, la ejecución de muchas operaciones
simultáneamente por las máquinas. La reducción de los costos de producción y
del volumen de los componentes permitió la aplicación de estos ordenadores
en los llamados sistemas embutidos, que controlan aeronaves, embarcaciones,
automóviles y ordenadores de pequeño porte. Son ejemplos de esta
generación de ordenadores, los micros que utilizan la línea de procesadores
Pentium, de INTEL.
1993- Surge el Pentium
Grandes cambios en este periodo se darían debido a las memorias DIMM de
108 pines, a la aparición de las placas de video AGP y a un perfeccionamiento
de los slots PCI mejorando aún más su performance.
1997- El Pentium II
1999- El Pentium III
2001- el Pentium 4
No hay grandes novedades después de 1997, ya que los cambios estuvieron
basados en los cada vez más veloces procesadores.

El Futuro - Aquí viene el ordenador cuántico


IBM anunció la construcción del más avanzado ordenador cuántico del mundo.
La novedad representa un gran paso en relación al actual proceso de
fabricación de chips con silicio que, de acuerdo con especialistas, debe
alcanzar el máximo de su limitación física de procesamiento entre 10 y 20
años.El ordenador cuántico usa, en lugar de los tradicionales
microprocesadores de chips de silicio, un dispositivo basado en propiedades
físicas de los átomos, como el sentido de giro de ellos, para contar números
uno y cero (bits), en vez de cargas eléctricas como en los ordenadores
actuales. Otra característica es que los átomos también pueden sobreponerse,
lo que permite al equipamiento procesar ecuaciones mucho más rápido.

La sexta generación de computadoras

La última etapa de la quinta generación de computadoras fue anunciada como la de


las "computadoras inteligentes", basadas en Inteligencia Artificial, iniciada por un
famoso proyecto en Japón, y que finalizó en un estrepitoso fracaso; a partir de ahí, la
cuenta de las generaciones de computadoras es un poco confusa.

La sexta generación se podría llamar a la era de las computadoras inteligentes


baseadas en redes neuronales artificiales o "cerebros artificiales". Serían
computadoras que utilizarían superconductores como materia-prima para sus
procesadores, lo cual permitirían no malgastar electricidad en calor debido a su nula
resistencia, ganando performance y economizando energía. La ganancia de
performance sería de aproximadamente 30 veces la de un procesador de misma
frecuencia que utilice metales comunes.

Todo esto está en pleno desarrollo, por el momento las únicas novedades han sido el
uso de procesadores en paralelo, o sea, la división de tareas en múltiples unidades de
procesamiento operando simultáneamente. Otra novedad es la incorporación de chips
de procesadores especializados en las tareas de vídeo y sonido.

Esta manía de enumerar las generaciones de computadoras parece que se ha


perdido. Ya no suceden, como ocurrió en las cuatro primeras generaciones, la
sustitución de una generación de computadoras por las siguientes. Muchas
tecnologías van a sobrevivir juntas, cada una en su sector de mercado.
Es una realidad que los chips son cada vez más chicos, rápidos y eficientes ... será la
característica de la séptima generación de computadoras?
(microcomputer). Una microcomputadora es un tipo de computadora que utiliza un microprocesador como

unidad central de procesamiento (CPU). Generalmente son computadoras que ocupan espacios físicos

pequeños, comparadas a sus predecesoras históricas, las mainframes y las minicomputadoras.

En general la palabra microcomputadora suele asociarse a computadoras viejas, especialmente a las pequeñas

computadoras de 8 bits como la Apple II, la Commodore 64, la BBC Micro y la TRS 80.

De todas maneras dentro del término microcomputadora pueden agruparse computadoras de diferentes tipos y

usos como consolas de videojuegos, notebooks, tablet PCs, dispositivos de mano, teléfonos celulares y las

computadoras personales (PC).

Actualmente el término microcomputadora no es muy utilizado, probablemente por la gran diversidad de

computadoras basadas en un microprocesador.

Breve historia de las microcomputadoras

El término microcomputadora comenzó a ser utilizado popularmente luego de la introducción de las

minicomputadoras. La principal diferencia con su predecesora es que las microcomputadoras reemplazaron

múltiples componentes separados, que fueron integrados en un único chip, el microprocesador.

Las primeras microcomputadoras no tenían dispositivos de entrada/salida, venían con mínimas cantidades de

memoria (por ejemplo, 256 bytes de memoria RAM), e incluso eran vendidas en partes que debían ser

ensambladas por el usuario. Incluso sólo disponían de luces indicadoras e interruptores.

En los setenta las microcomputadoras comenzaron a ser más rápidas y baratas, y su popularidad fue en

ascenso. Eran muy utilizadas para contabilidad, administración de bases de datos y procesamiento de texto.

Una microcomputadora típica de la época utilizaba un bus S100, un procesador de 8 bits como un Z80 y un

sistema operativo como el CP/M o el MP/M.

Algunos tipos de microcomputadoras comenzaron a ser utilizadas por los usuarios comunes alrededor de los 80,

época en la que se estandarizó la IBM PC compatible, con el sistema operativo MS-DOS, y luego más tarde

Windows. Estas computadoras comenzaron a llamarse PC o computadoras personales, nombre promovido por

IBM para diferenciarse del resto.

Clasificación de computadoras por tamaño


Supercomputadora Minisupercomputadora

Mainframe Computadora mainframe

Minicomputadora Supermini

Computadora de Microcomputadora • Computadora doméstica • Computadora personal • Estación de


escritorio trabajo (workstation) • Servidor

Computadora portátil de escritorio • Notebook • Subnotebook • Netbook (Nettop) •

Tablet PC • Carro computadora • Computadora portátil

Dispositivos móviles: Terminal portátil de datos (PDT) • Terminal móvil de datos


Computadoras móviles
(MDT) • Computadora vestible • Videoconsola portátil • Pocket computer •
y portátiles
Organizador electrónico • Ultra-mobile PC (UMPC)

PDAs: Pocket PC • HandHeld

Otros: Smartphones

Computadoras
Sistemas integrados • Polvo inteligente (smartdust) • Nanocomputadora
ultrapequeñas

El microprocesador, o simplemente procesador, es el circuito integrado central y más


complejo de una computadora u ordenador; a modo de ilustración, se le suele asociar
por analogía como el "cerebro" de una computadora.

El procesador es un circuito integrado constituido por millones de componentes


electrónicos integrados. Constituye la unidad central de procesamiento (CPU) de un PC
catalogado como microcomputador.

Desde el punto de vista funcional es, básicamente, el encargado de realizar toda


operación aritmético-lógica, de control y de comunicación con el resto de los
componentes integrados que conforman un PC, siguiendo el modelo base de Von
Neumann. También es el principal encargado de ejecutar los programas, sean de usuario
o de sistema; sólo ejecuta instrucciones programadas a muy bajo nivel, realizando
operaciones elementales, básicamente, las aritméticas y lógicas, tales como sumar,
restar, multiplicar, dividir, las lógicas binarias y accesos a memoria.

Esta unidad central de procesamiento está constituida, esencialmente, por registros, una
unidad de control y una unidad aritmético lógica (ALU), aunque actualmente todo
microprocesador también incluye una unidad de cálculo en coma flotante, (también
conocida como coprocesador matemático o FPU), que permite operaciones por
hardware con números decimales, elevando por ende notablemente la eficiencia que
proporciona sólo la ALU con el cálculo indirecto a través de los clásicos números
enteros.

El microprocesador está conectado, generalmente, mediante un zócalo específico a la


placa base. Normalmente para su correcto y estable funcionamiento, se le adosa un
sistema de refrigeración, que consta de un disipador de calor fabricado en algún material
de alta conductividad térmica, como cobre o aluminio, y de uno o más ventiladores que
fuerzan la expulsión del calor absorbido por el disipador; entre éste último y la cápsula
del microprocesador suele colocarse pasta térmica para mejorar la conductividad
térmica. Existen otros métodos más eficaces, como la refrigeración líquida o el uso de
células peltier para refrigeración extrema, aunque estas técnicas se utilizan casi
exclusivamente para aplicaciones especiales, tales como en las prácticas de
overclocking.

La "velocidad" del microprocesador suele medirse por la cantidad de operaciones por


ciclo de reloj que puede realizar y en los ciclos por segundo que este último desarrolla,
o también en MIPS. Está basada en la denominada frecuencia de reloj (oscilador). La
frecuencia de reloj se mide Hertzios, pero dada su elevada cifra se utilizan múltiplos,
como el megahertzio o el gigahertzio.

Cabe destacar que la frecuencia de reloj no es el único factor determinante en el


rendimiento, pues sólo se podría hacer comparativa entre dos microprocesadores de una
misma arquitectura.

Es importante notar que la frecuencia de reloj efectiva no es el producto de la frecuencia


de cada núcleo físico del procesador por su número de núcleos, es decir, uno de 3 GHz
con 6 núcleos físicos nunca tendrá 18 GHz, sino 3 GHz, independientemente de su
número de núcleos.

Hay otros factores muy influyentes en el rendimiento, como puede ser su memoria
caché, su cantidad de núcleos, sean físicos o lógicos, el conjunto de instrucciones que
soporta, su arquitectura, etc; por lo que sería difícilmente comparable el rendimiento de
dos procesadores distintos basándose sólo en su frecuencia de reloj.

Un computador de alto rendimiento puede estar equipado con varios microprocesadores


trabajando en paralelo, y un microprocesador puede, a su vez, estar constituido por
varios núcleos físicos o lógicos. Un núcleo físico se refiere a una porción interna del
microprocesador cuasi-independiente que realiza todas las actividades de una CPU
solitaria, un núcleo lógico es la simulación de un núcleo físico a fin de repartir de
manera más eficiente el procesamiento.

Estos últimos años ha existido una tendencia de integrar el mayor número de elementos
del PC dentro del propio procesador, aumentando así su eficiencia energética y su
rendimiento. Una de las primeras integraciones, fue introducir la unidad de coma
flotante dentro del encapsulado, que anteriormente era un componente aparte y opcional
situado también en la placa base, luego se introdujo también el controlador de memoria,
y más tarde un procesador gráfico dentro de la misma cámara, aunque no dentro del
mismo encapsulado. Posteriormente se llegaron a integrar completamente en el mismo
encapsulado (Die).

Respecto a esto último, compañías tales como Intel ya planean integrar el Southbridge
dentro del procesador, eliminando completamente ambos chipsets de la placa.

QUE ES LA MEMORIA CACHE EN UN PROCESADOR.

Una memoria caché es una memoria en la que se almacenas una serie de


datos para su rápido acceso. Existen muchas memorias caché (de disco, de
sistema, incluso de datos, como es el caso de la caché de Google), pero en
este tutorial nos vamos a centrar en la caché de los procesadores.

Básicamente, la memoria caché de un procesador es un tipo de memoria


volátil (del tipo RAM), pero de una gran velocidad.

En la actualidad esta memoria está integrada en el procesador, y su


cometido es almacenar una serie de instrucciones y datos a los que el
procesador accede continuamente, con la finalidad de que estos accesos
sean instantáneos. Estas instrucciones y datos son aquellas a las que el
procesador necesita estar accediendo de forma continua, por lo que para el
rendimiento del procesador es imprescindible que este acceso sea lo más
rápido y fluido posible.

Hay tres tipos diferentes de memoria caché para procesadores:

Caché de 1er nivel (L1):

Esta caché está integrada en el núcleo del procesador, trabajando a la


misma velocidad que este. La cantidad de memoria caché L1 varía de un
procesador a otro, estando normalmente entra los 64KB y los 256KB. Esta
memoria suele a su vez estar dividida en dos partes dedicadas, una para
instrucciones y otra para datos.

Caché de 2º nivel (L2):

Integrada también en el procesador, aunque no directamente en el núcleo


de este, tiene las mismas ventajas que la caché L1, aunque es algo más
lenta que esta. La caché L2 suele ser mayor que la caché L1, pudiendo
llegar a superar los 2MB.
A diferencia de la caché L1, esta no está dividida, y su utilización está más
encaminada a programas que al sistema.

Caché de 3er nivel (L3):

Es un tipo de memoria caché más lenta que la L2, muy poco utilizada en la
actualidad.

En un principio esta caché estaba incorporada a la placa base, no al


procesador, y su velocidad de acceso era bastante más lenta que una caché
de nivel 2 o 1, ya que si bien sigue siendo una memoria de una gran
rapidez (muy superior a la RAM, y mucho más en la época en la que se
utilizaba), depende de la comunicación entre el procesador y la placa base.
Para hacernos una idea más precisa de esto, imaginemos en un extremo el
procesador y en el otro la memoria RAM. Pues bien, entre ambos se
encuentra la memoria caché, más rápida cuanto más cerca se encuentre del
núcleo del procesador (L1).

Las memorias caché son extremadamente rápidas (su velocidad es unas 5


veces superior a la de una RAM de las más rápidas), con la ventaja añadida
de no tener latencia, por lo que su acceso no tiene ninguna demora... pero
es un tipo de memoria muy cara.
Esto, unido a su integración en el procesador (ya sea directamente en el
núcleo o no) limita bastante el tamaño, por un lado por lo que encarece al
procesador y por otro por el espacio disponible.

En cuanto a la utilización de la caché L2 en procesadores multinucleares,


existen dos tipos diferentes de tecnologías a aplicar.

Por un lado está la habitualmente utilizada por Intel, que consiste en que el
total de la caché L2 está accesible para ambos núcleos y por otro está la
utilizada por AMD, en la que cada núcleo tiene su propia caché L2 dedicada
solo para ese núcleo.

La caché L2 apareció por primera vez en los Intel Pentium Pro, siendo
incorporada a continuación por los Intel Pentium II, aunque en ese caso no
en el encapsulado del procesador, sino externamente (aunque dentro del
procesador).

Imagen de un P-II, en la que se puede observar los chips de la caché L2.

En informática, una caché1 es un conjunto de datos duplicados de otros originales, con la


propiedad de que los datos originales son costosos de acceder, normalmente en tiempo,
respecto a la copia en la caché. Cuando se accede por primera vez a un dato, se hace una copia
en el caché; los accesos siguientes se realizan a dicha copia, haciendo que el tiempo de acceso
medio al dato sea menor.

Memoria caché o RAM caché


Un caché es un sistema especial de almacenamiento de alta velocidad. Puede ser tanto
un área reservada de la memoria principal como un dispositivo de almacenamiento de
alta velocidad independiente. Hay dos tipos de caché frecuentemente usados en las
computadoras personales: memoria caché y caché de disco. Una memoria cache,
llamada también a veces almacenamiento caché o RAM caché, es una parte de memoria
RAM estática de alta velocidad (SRAM) más que la lenta y barata RAM dinámica
(DRAM) usada como memoria principal. La memoria cache es efectiva dado que los
programas acceden una y otra vez a los mismos datos o instrucciones. Guardando esta
información en SRAM, la computadora evita acceder a la lenta DRAM.

Cuando se encuentra un dato en la caché, se dice que se ha producido un acierto, siendo


un caché juzgado por su tasa de aciertos (hit rate). Los sistemas de memoria caché usan
una tecnología conocida por caché inteligente en la cual el sistema puede reconocer
cierto tipo de datos usados frecuentemente. Las estrategias para determinar qué
información debe de ser puesta en el cache constituyen uno de los problemas más
interesantes en la ciencia de las computadoras. Algunas memorias cache están
construidas en la arquitectura de los microprocesadores. Por ejemplo, el procesador
Pentium II tiene una caché L2 de 512 Kilobytes.

La caché de disco trabaja sobre los mismos principios que la memoria caché, pero en
lugar de usar SRAM de alta velocidad, usa la convencional memoria principal. Los
datos más recientes del disco duro a los que se ha accedido (así como los sectores
adyacentes) se almacenan en un buffer de memoria. Cuando el programa necesita
acceder a datos del disco, lo primero que comprueba es la cache del disco para ver si los
datos ya están ahí. La cache de disco puede mejorar drásticamente el rendimiento de las
aplicaciones, dado que acceder a un byte de datos en RAM puede ser miles de veces
más rápido que acceder a un byte del disco duro.

QUE ES LA MEMORIA VIRTUAL.

La memoria virtual es una técnica que permite ejecutar procesos que no


caben totalmente en memoria RAM (memoria física). Esto propicia la
creación de programas que sean más grandes que la memoria física.
Además, la memoria virtual ayuda a crear un esquema de abstracción de la
memoria que la separa de la zona lógica que el usuario ve, esto facilita
enormemente la tarea a los programadores puesto que no se han de
preocupar por limitaciones de memoria.

Los procedimientos de implementación de la memoria virtual se basan en


que cuando se ejecuta un programa, éste está parcialmente en memoria, es
decir, sólo hay cargada aquella zona de código y datos que se necesitan en
ese instante de tiempo, y no el programa completo. La memoria virtual es
la separación entre la memoria lógica disponible para el usuario y la
memoria RAM, se implementa generalmente con el método de paginación
por demanda aunque también se puede implementar en un sistema con
segmentación.

En el momento en que en el sistema empieza a escasear la memoria, se


crea un fichero SWAP (intercambio) en el disco que sirve como ampliación
auxiliar de memoria. En el caso de Windows, cuando tenemos muchas
aplicaciones en funcionamiento y la memoria RAM se agota, el sistema se
apoya en el fichero SWAP para realizar movimientos desde el disco duro a la
RAM y viceversa. De ese modo crean espacios en memoria física para ir
ejecutando las órdenes. Esto, evidentemente, hace que el sistema vaya más
lento.

Todo ello permite simular la existencia de 4GB de RAM en el equipo, a pesar


de que nadie dispone de 4GB en su ordenador (a excepción de algunos
sistemas en empresas y universidades), y dar capacidad de ejecución a
múltiples aplicaciones por grandes que sean.

Memoria virtual
De Wikipedia, la enciclopedia libre

Saltar a navegación, búsqueda

Cómo la memoria virtual se mapea a la memoria física.

La memoria virtual es una técnica de administración de la memoria real que permite al


sistema operativo brindarle al software de usuario y a sí mismo un espacio de
direcciones mayor que la memoria real o física.

La mayoría de los ordenadores tienen cuatro tipos de memoria: registros en la CPU, la


memoria caché (tanto dentro como fuera del CPU), la memoria física (generalmente en
forma de RAM, donde la CPU puede escribir y leer directa y razonablemente rápido) y
el disco duro que es mucho más lento, pero también más grande y barato.
Muchas aplicaciones requieren el acceso a más información (código y datos) que la que
se puede mantener en memoria física. Esto es así sobre todo cuando el sistema operativo
permite múltiples procesos y aplicaciones ejecutándose simultáneamente. Una solución
al problema de necesitar mayor cantidad de memoria de la que se posee consiste en que
las aplicaciones mantengan parte de su información en disco, moviéndola a la memoria
principal cuando sea necesario. Hay varias formas de hacer esto. Una opción es que la
aplicación misma sea responsable de decidir qué información será guardada en cada
sitio (segmentación), y de traerla y llevarla. La desventaja de esto, además de la
dificultad en el diseño e implementación del programa, es que es muy probable que los
intereses sobre la memoria de dos o varios programas generen conflictos entre sí: cada
programador podría realizar su diseño teniendo en cuenta que es el único programa
ejecutándose en el sistema. La alternativa es usar memoria virtual, donde la
combinación entre hardware especial y el sistema operativo hace uso de la memoria
principal y la secundaria para hacer parecer que el ordenador tiene mucha más memoria
principal (RAM) que la que realmente posee. Este método es invisible a los procesos.
La cantidad de memoria máxima que se puede hacer ver que hay tiene que ver con las
características del procesador. Por ejemplo, en un sistema de 32 bits, el máximo es 232,
lo que da 4096 Megabytes (4 Gigabytes). Todo esto hace el trabajo del programador de
aplicaciones mucho más fácil, al poder ignorar completamente la necesidad de mover
datos entre los distintos espacios de memoria.

Aunque la memoria virtual podría estar implementada por el software del sistema
operativo, en la práctica casi siempre se usa una combinación de hardware y software,
dado el esfuerzo extra que implicaría para el procesador.

La memoria ROM, (acrónimo en inglés de Read-Only Memory) o memoria de sólo


lectura, es un medio de almacenamiento utilizado en ordenadores y dispositivos
electrónicos, que permite sólo la lectura de la información y no su borrado,
independientemente de la presencia o no de una fuente de energía.

Los datos almacenados en la ROM no se pueden modificar, o al menos no de manera


rápida o fácil. Se utiliza principalmente para contener el firmware (programa que está
estrechamente ligado a hardware específico, y es poco probable que requiera
actualizaciones frecuentes) u otro contenido vital para el funcionamiento del
dispositivo, como los programas que ponen en marcha el ordenador y realizan los
diagnósticos.

En su sentido más estricto, se refiere sólo a máscara ROM -en inglés, MROM- (el más
antiguo tipo de estado sólido ROM), que se fabrica con los datos almacenados de forma
permanente, y por lo tanto, su contenido no puede ser modificado de ninguna forma. Sin
embargo, las ROM más modernas, como EPROM y Flash EEPROM, efectivamente se
pueden borrar y volver a programar varias veces, aún siendo descritos como "memoria
de sólo lectura" (ROM). La razón de que se las continúe llamando así es que el proceso
de reprogramación en general es poco frecuente, relativamente lento y, a menudo, no se
permite la escritura en lugares aleatorios de la memoria. A pesar de la simplicidad de la
ROM, los dispositivos reprogramables son más flexibles y económicos, por lo cual las
antiguas máscaras ROM no se suelen encontrar en hardware producido a partir de 2007.
Unidad central de procesamiento
De Wikipedia, la enciclopedia libre

Saltar a navegación, búsqueda

Oblea de un microprocesador Intel 80486DX2 (tamaño: 12×6,75 mm) en su empaquetado.

La unidad central de procesamiento o CPU (por el acrónimo en inglés de central


processing unit), o simplemente el procesador o microprocesador, es el componente
del computador y otros dispositivos programables, que interpreta las instrucciones
contenidas en los programas y procesa los datos. Los CPU proporcionan la
característica fundamental de la computadora digital (la programabilidad) y son uno de
los componentes necesarios encontrados en las computadoras de cualquier tiempo, junto
con el almacenamiento primario y los dispositivos de entrada/salida. Se conoce como
microprocesador el CPU que es manufacturado con circuitos integrados. Desde
mediados de los años 1970, los microprocesadores de un solo chip han reemplazado
casi totalmente todos los tipos de CPU, y hoy en día, el término "CPU" es aplicado
usualmente a todos los microprocesadores.

La expresión "unidad central de proceso" es, en términos generales, una descripción de


una cierta clase de máquinas de lógica que pueden ejecutar complejos programas de
computadora. Esta amplia definición puede fácilmente ser aplicada a muchos de los
primeros computadores que existieron mucho antes que el término "CPU" estuviera en
amplio uso. Sin embargo, el término en sí mismo y su acrónimo han estado en uso en la
industria de la informática por lo menos desde el principio de los años 1960 . La forma,
el diseño y la implementación de los CPU ha cambiado drásticamente desde los
primeros ejemplos, pero su operación fundamental ha permanecido bastante similar.

Los primeros CPU fueron diseñados a la medida como parte de una computadora más
grande, generalmente una computadora única en su especie. Sin embargo, este costoso
método de diseñar los CPU a la medida, para una aplicación particular, ha desaparecido
en gran parte y se ha sustituido por el desarrollo de clases de procesadores baratos y
estandarizados adaptados para uno o muchos propósitos. Esta tendencia de
estandarización comenzó generalmente en la era de los transistores discretos,
computadoras centrales, y microcomputadoras, y fue acelerada rápidamente con la
popularización del circuito integrado (IC), éste ha permitido que sean diseñados y
fabricados CPU más complejos en espacios pequeños (en la orden de milímetros). Tanto
la miniaturización como la estandarización de los CPU han aumentado la presencia de
estos dispositivos digitales en la vida moderna mucho más allá de las aplicaciones
limitadas de máquinas de computación dedicadas. Los microprocesadores modernos
aparecen en todo, desde automóviles, televisores, neveras, calculadoras, aviones, hasta
teléfonos móviles o celulares, juguetes, entre otros.

Funciones del cpu

Funciones que realiza

La Unidad central de proceso o CPU, se puede definir como:

• Un circuito microscópico que interpreta y ejecuta instrucciones.

• La CPU se ocupa del control y el proceso de datos en los ordenadores. Habitualmente,


la CPU es un microprocesador fabricado en un chip, un único trozo de silicio que
contiene millones de componentes electrónicos.

• El microprocesador de la CPU está formado por una unidad aritmético lógica que
realiza cálculos y comparaciones, y toma decisiones lógicas (determina si una
afirmación es cierta o falsa mediante las reglas del álgebra de Boole); por una serie de
registros donde se almacena información temporalmente, y por una unidad de control
que interpreta y ejecuta las instrucciones.

• Para aceptar órdenes del usuario, acceder a los datos y presentar los resultados, la CPU
se comunica a través de un conjunto de circuitos o conexiones llamado bus. El bus
conecta la CPU a los dispositivos de almacenamiento (por ejemplo, un disco duro), los
dispositivos de entrada (por ejemplo, un teclado o un ratón) y los dispositivos de salida
(por ejemplo, un monitor o una impresora).

Procesamiento de la CPU

Una CPU procesa información almacenada en los bytes de la memoria. Esta


información puede ser datos o instrucciones. Un dato es una representación binaria de
una letra, un número, o un color; mientras que una instrucción le dice a la CPU que
hacer con ese dato, es decir si sumarlo, si restarlo, moverlo, etc.

Como dijimos anteriormente, la CPU realiza tres operaciones básicas con los datos:
puede leerlos, procesarlos , y escribirlos en la memoria. Es decir que, la CPU necesita
solo cuatro elementos para realizar dichas operaciones con los datos: Las instrucciones,
un puntero a las instrucciones (Instrucción Pointer), algunos registros, y la unidad
aritmética lógica.
El Instrucción Pointer le indica a la CPU en que lugar de la memoria necesita ser
ubicada la instrucción.

Los Registros son lugares de almacenamiento temporario ubicados en la CPU. Un


registro contiene datos que esperan ser procesados por cualquier instrucción, o datos
que ya han sido procesados, como por ejemplo, la suma o resta de algún número, etc.

La unidad aritmética lógica es una especie de calculadora que ejecuta funciones


matemáticas y lógicas dedicadas a las instrucciones.

Por otro lado, la CPU contiene algunas partes adicionales que ayudan a dichos
componentes principales a realizar el trabajo:

Un buscador de instrucciones (fetch), que recoge las instrucciones de la RAM o un área


de memoria localizada en la CPU.

Un decodificador de instrucciones, que toma la instrucción desde el buscador y la


traslada hasta que la CPU la entienda. Luego determina cuales son los pasos necesarios
para cumplir con dicha instrucción.

La unidad de control, maneja y coordina toda las operaciones del chip. Este le permite
saber a la unidad aritmética lógica cuando debe calcular, al buscador cuando debe
grabar una cifra, y al decodificador cuando trasladar la cifra dentro de una instrucción.

Base de datos
De Wikipedia, la enciclopedia libre

Saltar a navegación, búsqueda

OpenOffice.org Base: sistema de gestión de bases de datos.


Una base de datos o banco de datos (en ocasiones abreviada con la sigla BD o con la
abreviatura b. d.) es un conjunto de datos pertenecientes a un mismo contexto y
almacenados sistemáticamente para su posterior uso. En este sentido, una biblioteca
puede considerarse una base de datos compuesta en su mayoría por documentos y textos
impresos en papel e indexados para su consulta. En la actualidad, y debido al desarrollo
tecnológico de campos como la informática y la electrónica, la mayoría de las bases de
datos están en formato digital (electrónico), que ofrece un amplio rango de soluciones al
problema de almacenar datos.

Existen programas denominados sistemas gestores de bases de datos, abreviado SGBD,


que permiten almacenar y posteriormente acceder a los datos de forma rápida y
estructurada. Las propiedades de estos SGBD, así como su utilización y administración,
se estudian dentro del ámbito de la informática.

Las aplicaciones más usuales son para la gestión de empresas e instituciones públicas.
También son ampliamente utilizadas en entornos científicos con el objeto de almacenar
la información experimental.

Aunque las bases de datos pueden contener muchos tipos de datos, algunos de ellos se
encuentran protegidos por las leyes de varios países. Por ejemplo, en España los datos
personales se encuentran protegidos por la Ley Orgánica de Protección de Datos de
Carácter Personal (LOPD).

You might also like