Professional Documents
Culture Documents
MICROCOMPUTADORAS
TEMARIO
DESCRIPCIÓN:
OBJETIVO DE APRENDIZAJE:
Al finalizar el Módulo el participante será capaz de describir los componentes que integran
los diversos equipos y sistemas de Tecnologías de la Información y Comunicaciones, para
que cuente con las bases que le permitan integrarse al ambiente tecnológico actual, en el
ámbito de su responsabilidad.
TEMARIO:
1. Antecedentes Históricos
2. Conceptos Básicos
3. Estructura de la Computadora y equipo periférico
4. Hardware y Software
5. Tipos de Computadora
6. Tipos de Procesadores
7. Sistemas Operativos
8. Lenguajes de Programación
Orígenes de la Computadora
La primera máquina de calcular mecánica, un precursor del ordenador digital, fue inventada en 1642 por el
matemático francés Blaise Pascal. Aquel dispositivo utilizaba una serie de ruedas de diez dientes en las que
cada uno de los dientes representaba un dígito del 0 al 9. Las ruedas estaban conectadas de tal manera que
podían sumarse números haciéndolas avanzar el número de dientes correcto.
También en el siglo XIX el matemático e inventor británico Charles Babbage considerado como los
verdaderos inventores de la computadora digital Babbage elaboró los principios de la computadora digital
moderna e inventó una serie de máquinas, como la máquina diferencial, diseñadas para solucionar
problemas matemáticos complejos y también la máquina analítica, esta ya tenía muchas de las
características de un ordenador moderno, también incluía una corriente, o flujo de entrada en forma de
paquete de tarjetas perforadas, una memoria para guardar los datos, un procesador para las operaciones
matemáticas y una impresora para hacer permanente el registro.
Considerada por muchos como predecesora directa de los modernos dispositivos de cálculo, la máquina
diferencial era capaz de calcular tablas matemática todos estos adelantados eran apenas en la década de
1820 elaborados por Charles Babbage. La máquina analítica, habría sido una auténtica computadora
programable si hubiera contado con la financiación adecuada. Ya a principios del siglo XX, los primeros
modelos realizaban los cálculos mediante ejes y engranajes giratorios. Con estas máquinas se evaluaban
las aproximaciones numéricas de ecuaciones demasiado difíciles como para poder ser resueltas mediante
otros métodos.
Durante las dos guerras mundiales se utilizaron sistemas informáticos analógicos, primero mecánicos y más
tarde eléctricos, para predecir la trayectoria de los torpedos en los submarinos y para el manejo a distancia
de las bombas en la aviación.
GENERACIÓN DE COMPUTADORAS
En 1947 ENIAC:
Esta fue la Primera computadora digital electrónica de la historia, no fue un modelo de producción, sino una
máquina experimental, tampoco era programable en el sentido actual, se trataba de un enorme aparato que
ocupa todo un sótano en la universidad y que constaba de 18.000 bulbos, consumía varios kW de potencia
eléctrica y pesaba algunas toneladas. Era capaz de efectuar cinco mil sumas por segundo. Fue hecha por un
equipo de ingenieros y científicos encabezados por los doctores John W. Mauchly y J. Prester Eckert en la
universidad de Pennsylvania, en los Estados Unidos.
1949 EDVAC.
1951 UNIVAC I.
Esta fue la primera computadora comercial. Los doctores Mauchly y Eckert fundaron la compañía Universal
Computer (Univac ), y su primer producto fue esta máquina. El primer cliente fue la oficina del censo de
Estados Unidos.
1954 - IBM continuó con otros modelos, que incorporaban un mecanismo de almacenamiento masivo
llamado tambor magnético, que con los años evolucionaría y se convertiría en disco magnético.
Quinta Generación
Las computadoras de quinta generación son computadoras basadas en inteligencia artificial.
La quinta generación de computadoras fue un proyecto ambicioso lanzado por Japón a finales de los 70. Su
objetivo era el desarrollo de una clase de computadoras que utilizarían técnicas de inteligencia artificial al
nivel del lenguaje de máquina y serían capaces de resolver problemas complejos, como la traducción
automática de una lengua natural a otra (del japonés al inglés, por ejemplo).
A medida que las computadoras se hacían más poderosas, se pudieron enlazar a redes, lo cual condujo al
desarrollo de Internet, otro de los adelantos de esta generación fue el uso de interfaces graficas.
AVANCES TECNOLÓGICOS
. Multimedia
Es un término que se aplica a cualquier objeto que usa simultáneamente diferentes formas de contenido
informativo como texto, sonido, imágenes, animación y video para informar o entretener al usuario. También
se puede calificar como multimedia a los medios electrónicos (u otros medios) que permiten almacenar y
presentar contenido multimedia. Multimedia es similar al empleo tradicional de medios mixtos en las artes
plásticas, pero con un alcance más amplio. Se habla de multimedia interactiva cuando el usuario tiene cierto
control sobre la presentación del contenido, como qué desea ver y cuándo desea verlo. Este concepto es tan
antiguo como la comunicación humana ya que al expresarnos en una charla normal hablamos (sonido),
escribimos (texto), observamos a nuestro interlocutor (video) y accionamos con gestos y movimientos de las
manos (animación). Con el auge de las aplicaciones multimedia para computador este vocablo entró a
formar parte del lenguaje habitual.
Quemador
Memoria USB
Una memoria USB (de Universal Serial Bus, en inglés pendrive o USB flash drive) es un pequeño
dispositivo de almacenamiento que utiliza memoria flash para guardar la información sin necesidad de
baterías (pilas). Estas memorias son resistentes a los rasguños y al polvo que han afectado a las formas
previas de almacenamiento portátil, como los CD y los disquetes.
Estas memorias se han convertido en el sistema de almacenamiento y transporte personal de datos más
utilizado, desplazando en este uso a los tradicionales disquetes, y a los CDs. Se pueden encontrar en el
mercado fácilmente memorias de 1, 2, 4, 8 GB o más (esto supone, como mínimo el equivalente a unos
1000 disquetes) por un precio moderado. Su gran popularidad le ha supuesto infinidad de denominaciones
populares relacionadas con su pequeño tamaño y las diversas formas de presentación.
Los sistemas operativos actuales pueden leer y escribir en las memorias sin más que enchufarlas a un
conector USB del equipo encendido, recibiendo la energía de alimentación a través del propio conector. En
equipos algo antiguos (como por ejemplo los equipados con Windows 98) se necesita instalar un controlador
de dispositivo (driver) proporcionado por el fabricante.
Qué es un programa?
Un computador necesita de un conjunto de instrucciones para que pueda funcionar y realizar las tareas que
se requiera. Estas instrucciones son entregadas a través de un Programa.
Un programa de cómputo es un conjunto de instrucciones escritas en algún lenguaje entendible por la
máquina. A través de los programas el computador puede realizar variadas operaciones, desde procesar
textos y dibujos hasta resolver complejos problemas matemáticos.
El hardware
Corresponde a la estructura física del computador, a sus partes tangibles. Ejemplo de ello es el teclado,
pantalla, circuitos, disquetes, cd’s, mouse,etc.
TARJETA PRINCIPAL
También llamada Tarjeta Madre o Motherboard es donde se encuentran las conexiones básicas para todos
los componentes de la computadora, los cuales giran en torno al microprocesador. Es básicamente la que
permite o no el futuro crecimiento de las habilidades de cualquier computadora, una tarjeta con una
arquitectura muy cerrada terminará con la vida de todo el equipo en el momento que ésta requiera una
reparación o mejora, éste fue el caso de la mayoría de las computadoras que existieron en el pasado.
Estas se pueden clasificar en la actualidad en :
- Arquitectura de 8 bits: Primeras XT
- Arquitectura ISA 8 -16 bits. La mayoría de las actuales clones
- Arquitectura EISA o MCA de 32 bits. La mayoría de las de IBM o compatibles de marca de
calidad que se venden actualmente.
• Operaciones de entrada / salida: lectura y escritura. Las computadoras llevan a cabo operaciones de
entrada / salida o E / S. La computadora lee de los dispositivos de entrada y almacenamiento, y
escribe en los dispositivos de salida y almacenamiento. La captura de los datos de entrada puede
ser realizada directamente por los usuarios finales o por capturistas profesionales. Lo habitual es
que la información se capture con el teclado de una terminal o PC, disquetes, CD’s, scaners. Una
vez procesados los datos, se “escriben” en un disco y/o CD magnético o en un dispositivo de salida,
como una impresora.
En pocas palabras, las computadoras son rápidas, exactas, constantes y fiables; nunca olvidan nada, y
no se quejan.
• Velocidad 300 km/milisegundos. Las computadoras realizan diversas actividades al ejecutar las
instrucciones, como las comentadas en secciones previas. Tales operaciones se miden en
milisegundos, microsegundos, nanosegundos y picosegundos.
• Exactitud sin errores. Las computadoras no solo son exactas, sino que su exactitud refleja una
gran precisión. Aunque llegan a ocurrir en los sistemas de información computarizados, muy
pocos errores pueden atribuirse a la computadora en sí. En todo caso, son errores humanos.
• Consistencia.
• Fiabilidad.
• Educación y consulta. La computadora interactúa con los estudiantes para mejorar el proceso de
aprendizaje. El adiestramiento computarizado está teniendo efectos profundos en los métodos
educativos convencionales.
Ancho de banda: Característica de la línea telefónica que determina la cantidad de conexiones simultáneas
que se pueden establecer entre los usuarios y el servidor. Mientras mayor sea el ancho de banda de la línea
que ofrece un servidor, más usuarios podrán conectarse a la vez, y más rápida será la conexión.
Antivirus: programa dedicado a detectar la existencia de virus en el computador y a eliminarlos, en caso de
encontrarlos. Para hacerlo, emplea un módulo que revisa los archivos y otro que limpia.
Aplicación: Son los programas o software especializados en actividades específicas. Una vez ejecutados,
permiten trabajar con el computador. Son aplicaciones los procesadores de textos, hojas de cálculo, bases
de datos, programas de dibujo, paquetes estadísticos, juegos, etc.
Archivo: Datos estructurados que pueden recuperarse fácilmente y usarse en una aplicación determinada.
Se utiliza como sinónimo de fichero. El archivo no contiene elementos de la aplicación que lo crea, sólo los
datos o información con los que trabaja el usuario.
Archivo ejecutable: Es el archivo que contiene las instrucciones necesarias para que un determinado
programa se ponga en marcha.
ASCII (American Standard Code of Information Exchange): Uno de los sistemas de codificación más
utilizados por los computadores que recoge 128 caracteres, letras, números y símbolos. Por ejemplo,
cuando pulsamos una tecla se genera un código: la A es para el PC el 65 en código ASCII. El utilizado en la
actualidad llega hasta el código 255; a diferencia del original alcanza la mitad.
Back-up: Copia de seguridad de los ficheros o aplicaciones disponibles en un soporte magnético
(generalmente disquetes), con el fin de poder recuperar la información y las aplicaciones en caso de una
avería en el disco duro, un borrado accidental o un accidente imprevisto. Para PCs existen cuatro sistemas:
grabación en cintas (el más antiguo), sistemas Zip, grabadoras de disquettes compatibles con los
tradicionales de 31/2 y con formatos nuevos de alta capacidad (sobre 120 Mb) y grabadoras de CD Rom
(650 - 700 Mb). Es conveniente realizar copias de seguridad a intervalos temporales fijos (una vez al mes,
por ejemplo), en función del trabajo y de la importancia de los datos manejados.
Base de datos: estructura de software que colecciona información muy variada de diferentes personas y
cosas, cada una de las cuales tiene algo en común o campos comunes con todos o con algunos. Se diseñó
con la finalidad de solucionar y agilizar la administración de los datos que se almacenan en la memoria del
computador.
Banda ancha: Técnica de transmisión de alta velocidad y alta capacidad que permite la transmisión
integrada y simultánea de diferentes tipos de señales. Característica de cualquier red que permite la
conexión de varias redes en un único cable.
BIOS (Basic Input Output System): Pequeño programa que coordina las actividades de los distintos
componentes de un computador y comprueba su estado. Tiene las instrucciones básicas necesarias para
que la máquina comience a funcionar cuando es encendida, reconociendo y chequeando todos sus
componentes hasta que activa el sistema operativo contenido en el disco duro.
Bit (dígito binario): Representa la unidad mínima de información posible, ya que equivale a un valor que
puede ser uno (que equivale a encendido) o bien, cero (apagado). Con ocho bit se forma un Byte y con mil
veinticuatro Bytes, un kilobyte. Mil veinticuatro kilobytes son un megabyte y más allá aún, mil veinticuatro
megabytes, son un gigabyte.
Byte: Ocho bits que representan un carácter. Unidad básica de información con la que operan los
computadores.
Campo: En algunas aplicaciones (como bases de datos) es el espacio reservado para introducir
determinados datos asociados a una categoría de clasificación.
Chat: Sistema para hablar (mediante texto) en tiempo real con personas que se encuentran en otros
computadores conectados a la red. En algunas versiones permite el uso de la voz y de imagen.
Laptop: Son computadores portátiles que cuentan con una pantalla líquida y teclado integrado. Estos
computadores tienen gran uso para las personas de negocios que deben de estar fuera de la compañía y
gracias a un módem pueden estar conectados a la misma.
Login: Conectarse a un computador mediante una identificación de usuario y contraseña.
Ping: Son las siglas de Packet Internet Goper, que hacen referencia a un utilitario utilizado para determinar
si un IP address particular está en línea.
Es el cerebro de un computador, la CPU (Central Processing Unit), puede ser un único chip o una serie de
chips que realizan cálculos aritméticos y lógicos y que temporizan y controlan las operaciones de los demás
.
Función de la Memoria.
Existen diferentes tipos de memoria que se integran en la computadora, siendo su función la de
almacenar datos, información, programas, etc. dentro de estas se mencionan las siguientes:
Por ejemplo, cuando la CPU tiene que ejecutar un programa, primero lo coloca en la memoria y recién
después lo empieza a ejecutar. Lo mismo ocurre cuando necesita procesar una serie de datos; antes de
poder procesarlos los tiene que llevar a la memoria principal. Es decir el computador para poder funcionar
necesita colocar su sistema operativo, los programas y datos con los que va a trabajar, en un lugar donde
los pueda encontrar de manera inmediata y fácil (para no tener que ir continuamente a buscarlos al disco
duro donde se encuentran almacenados; esto sería 100 veces más lento). Así que los ubica en un espacio
de almacenamiento temporal, la memoria RAM o de acceso aleatorio.
Esta clase de memoria es volátil, es decir que, cuando se corta la energía eléctrica, se borra toda la
información que estuviera almacenada en ella.
por su función, la cantidad de memoria RAM de que disponga una computadora es una factor muy
importante; hay programas y juegos que requieren una gran cantidad de memoria para poder usarlos. Otros
trabajaran más rápido si el sistema cuenta con más memoria RAM.
Capacidad de la RAM: Se mide en términos del número de bytes que puede almacenar. Habitualmente se
mide en KB y MB, aunque ya hay computadoras en las que se debe hablar de GB.
Memoria Caché
Dentro de la memoria RAM existe una clase de memoria denominada Memoria Caché que tiene la
característica de ser más rápida que las otras, permitiendo que el intercambio de información entre el
procesador y la memoria principal sea a mayor velocidad.
La computadora está provista de unidades o partes adicionales de para poder operar. Un periférico es un
dispositivo que se conecta a la placa principal o tarjeta madre como un monitor, mouse, teclado, módem,
scanner, cámara digital, e impresora. Dentro de estos dispositivos en se mencionan y describen los
siguientes más utilizados y comunes. Dependiendo de su función se clasifican en:
• De Entrada
• De Salida
• De Almacenamiento
Dispositivos de Entrada:
Estos dispositivos permiten al usuario del ordenador introducir datos, comandos y programas en la
CPU. Algunos de estos dispositivos de entrada son el teclado, los lápices ópticos, que transmiten
información gráfica desde tabletas electrónicas hasta el ordenador; joysticks y el ratón o mouse, que
convierte el movimiento físico en movimiento dentro de una pantalla de ordenador; los escáneres
luminosos, que leen palabras o símbolos de una página impresa y los traducen a configuraciones
electrónicas que el ordenador puede manipular y almacenar; y los módulos de reconocimiento de voz,
que convierten la palabra hablada en señales digitales comprensibles para el ordenador. También es
posible utilizar los dispositivos de almacenamiento para introducir datos en la unidad de proceso.
• Teclado
• Mouse (ratón)
El mouse (del inglés, pronunciado [ˈmaʊs]) o ratón es un periférico de computadora de uso manual,
generalmente fabricado en plástico, utilizado como entrada o control de datos. Se utiliza con una de las
dos manos del usuario y detecta su movimiento relativo en dos dimensiones por la superficie horizontal
en la que se apoya, reflejándose habitualmente a través de un puntero o flecha en el monitor.
Existen dos tecnologías principales en fabricación de ratones: Ratones mecánicos y Ratones ópticos.
Ratones mecánicos: Estos constan de una bola situada en su parte inferior. La bola, al moverse el
ratón, roza unos contactos en forma de rueda que indican el movimiento del cursor en la pantalla del
sistema informático.
Ratones ópticos: Estos tienen un pequeño haz de luz láser en lugar de la bola rodante de los
mecánicos. Un censor óptico situado dentro del cuerpo del ratón detecta el movimiento del reflejo al
mover el ratón sobre el espejo e indica la posición del cursor en la pantalla de la computadora.
• Escáner
• Micrófono.
Es un dispositivo de entrada que convierte las señales acústicas en señales eléctricas y que son
procesadas por diversas aplicaciones o programas de cómputo.
CÁMARAS
Cámara digital: Es una cámara equipada con un captador electrónico fotosensible. Las imágenes digitales
son almacenadas directamente en la memoria de la cámara y pueden ser utilizadas inmediatamente
después en un ordenador.
Cámara para Internet: Son aquellas que podemos observar en la parte superior del monitor de una
computadora. Su utilidad no es muy grande, pero permite al usuario captar imágenes y luego almacenarlas
en la memoria de la computadora. Así mismo, se usa para intercambio de imágenes por Internet ya que , si
uno lo desea, puede iniciar una charla con imágenes o enviar imágenes en la red.
Dispositivos de Salida:
Estos dispositivos permiten al usuario ver los resultados de los cálculos o de las manipulaciones de
datos de la computadora. El dispositivo de salida más común es la unidad de visualización (VDU,
acrónimo de Video Display Unit) que consiste en un monitor que presenta los caracteres y gráficos en
una pantalla similar a la del televisor. Otros dispositivos de salida más comunes son las impresoras y los
• Monitor
El monitor o pantalla de computadora, es un dispositivo de salida que, mediante una interfaz, muestra los
resultados del procesamiento de una computadora. Por lo general, las VDU tienen un tubo de rayos
catódicos (CRT), como el de cualquier televisor, aunque los ordenadores pequeños y portátiles utilizan
hoy pantallas de cristal líquido (LCD, acrónimo de Liquid Crystal Displays) o electro luminiscentes.
Dentro de las características a considerar en un monitor se señalan:
Tamaño
Son las dimensiones de la diagonal de la pantalla que se mide en pulgadas. Podemos tener monitores de
9, 14, 15, 17, 19, 20 y 21 ó más pulgadas. Los más habituales son los de 15 pulgadas aunque cada vez
son más los que apuestan por los de 17 pulgadas, que pronto pasarán a ser el estándar. Los de 14
pulgadas se usan cada vez menos. Todo esto se debe a que las tarjetas gráficas que se montan ahora
soportan fácilmente resoluciones de hasta 1600x1280 pixel
Resolución
Un pixel es la unidad mínima de información gráfica que se puede mostrar en pantalla. Cuantos más
pixeles pueda mostrar el monitor de más resolución dispondremos. Si trabajas con Windows la resolución
ampliada es fundamental, puedes tener más iconos en pantalla, puedes tener abiertas varias aplicaciones
y verlas a la vez, sin tener que maximizar cada una cuando cambies a ellas, etc.
La resolución está íntimamente relacionada con las dimensiones del monitor, pero no podemos guiarnos
fiablemente por esto. Por ejemplo, hay algún monitor de 15 pulgadas que alcanza resoluciones de hasta
1600 x 1280, pero las dimensiones físicas de la pantalla hacen que todo se vea muy reducido, siendo un
engorro y además pagamos por unas características que nunca utilizaremos. Para estas resoluciones
ampliadas se recomienda: un monitor de 15 pulgadas para 1024 x 768, y uno de 17 o 20 pulgadas para
1280 x 1024 pixeles.
Frecuencia de barrido vertical
El rayo de electrones debe recorrer toda la superficie de la pantalla empezando por la esquina superior
izquierda, y barriéndola de izquierda a derecha y de arriba abajo. La frecuencia de refresco, medida en
Hertzios, es el número de veces que el cañón de electrones barre la pantalla por segundo. ¿Por qué es
tan importante este valor? Pues porque si es una frecuencia baja, se hará visible el recorrido del haz de
electrones, en forma de un molesto parpadeo de la pantalla. El mínimo debe ser de 70 Hz, pero un buen
monitor debe ser capaz de alcanzar frecuencias superiores. Cuanto mayor sea el valor de este parámetro
mejor, ya que permitirá mayores resoluciones sin necesidad de entrelazar. La imagen será más nítida y
estable.
La alternativa LCD
Últimamente se habla del avance de la tecnología LCD o cristal líquido, llegando incluso a citarse como
posible alternativa de futuro frente al tradicional CRT. Ventajas como el ahorro de consumo y de espacio
(LCD posibilita la fabricación de pantalla extra-planas, de muy poca profundidad),
• Impresoras
Las impresoras es la que permite obtener en un soporte de papel una ¨hardcopy¨: copia visualizable,
perdurable y transportable de la información de textos o gráficos en documentos almacenados en formato
Tipos de impresoras:
• De Impacto por matriz de aguja o punto.
Fueron las primeras que surgieron en el mercado. Se las denomina "de impacto" porque imprimen
mediante el impacto de unas pequeñas piezas (la matriz de impresión) sobre una cinta impregnada en
tinta y matriz de aguja porque su cabezal móvil de impresión contiene una matriz de agujas móviles en
conductos del mismo, dispuestas en una columna (de 9 agujas por ejemplo) o más columnas. Para
escribir cualquier cosa en color se tiene que sustituir la cinta de tinta negra por otro con tintas de los
colores básicos (generalmente magenta, cyan y amarillo). Este método tiene el inconveniente de que el
texto negro se fabricaba mezclando los tres colores básicos, lo que era más lento, más caro en tinta y
deja un negro con un cierto matiz verdoso.
Se le denomina “inyección” porque la tinta suele ser impulsada hacia el papel por unos mecanismos que
se denominan inyectores, mediante la aplicación de una carga eléctrica que hace saltar una minúscula
• Láser
Son las de mayor calidad del mercado, si entendemos por calidad la resolución sobre papel normal que
se puede obtener, unos 600 Ppp reales. En ellas la impresión se consigue mediante un láser que va
dibujando la imagen electrostáticamente en un elemento llamado tambor que va girando hasta
impregnarse de un polvo muy fino llamado tóner (como el de fotocopiadoras) que se le adhiere debido a
la carga eléctrica. Por último, el tambor sigue girando y se encuentra con la hoja, en la cual imprime el
tóner que formará la imagen definitiva.
Las impresoras láser son muy resistentes, mucho más rápidas y mucho más silenciosas que las
impresoras matriciales o de tinta, y aunque la inversión inicial en una impresora láser es mayor que en
alguna de las otras, el tóner sale más barato a la larga que los cartuchos de tinta, por lo que a la larga se
recupera la inversión. Por todo ello, las del tipo láser son idóneas para entornos de oficina con una
intensa actividad de impresión, donde son más importantes la velocidad, la calidad y el escaso coste de
mantenimiento que el color o la inversión inicial.
Es importante considerar independientemente del tipo de impresora la calidad de los insumos como son,
cartuchos, cintas, tóner, papel, ya que de ello depende en gran medida la vida útil de la impresora así
como la calidad de impresión obtenida.
• Bocinas
Cada vez las usa más la computadora para el manejo de sonidos, para la cual se utiliza como salida
algún tipo de bocinas. Algunas bocinas son de mesas, similares a la de cualquier aparato de sonidos y
otras son portátiles (audífonos). Existen modelos muy variados, de acuerdo a su diseño y la capacidad
en watts que poseen.
Es una unidad de salida de información. Es básicamente una pantalla plana de cristal líquido, transparente e
independiente. Acoplado a un retroproyector permite la proyección amplificada de la información existente en
la pantalla del operador.
Existe una variante tecnológica del data show, conocida como el cañón de proyección, que puede ser
catalogada como un sistema independiente de proyección mediante lentes, muy similar a un proyector de
video. Los modelos más recientes de cañones utilizan LCDs.
• Dispositivos de almacenamiento
Los sistemas informáticos pueden almacenar los datos tanto interna (en la memoria) como externamente
(en los dispositivos de almacenamiento). Internamente, las instrucciones o datos pueden almacenarse
por un tiempo en los chips de silicio de la RAM (memoria de acceso aleatorio) montados directamente en
la placa de circuitos principal de la computadora, o bien en chips montados en tarjetas periféricas
conectadas a la placa de circuitos principal del ordenador.
En el caso de los dispositivos de almacenamiento externos, que pueden residir físicamente dentro de la
unidad de proceso principal del ordenador, están fuera de la placa de circuitos principal. Estos
dispositivos almacenan los datos en forma de cargas sobre un medio magnéticamente sensible, por
ejemplo una cinta de sonido o, lo que es más común, sobre un disco revestido de una fina capa de
partículas metálicas. Los dispositivos de almacenamiento externo más frecuentes son los disquetes y los
discos duros, aunque la mayoría de los grandes sistemas informáticos utiliza bancos de unidades de
almacenamiento en cinta magnética.
• Diskettes
Son discos de almacenamiento de alta densidad de 1,44 MB, este presenta dos orificios en la parte
inferior del mismo, uno para proteger al disco contra escritura y el otro solo para diferenciarlo del disco de
doble densidad. Los discos flexibles pueden contener, según sea el sistema, desde varios centenares de
miles de bytes hasta bastante más de un millón de bytes de datos.
Este dividen en unos círculos concéntricos cilíndricos (coincidentes con las pistas de los disquetes), que
empiezan en la parte exterior del disco (primer cilindro) y terminan en la parte interior (ultimo). Asimismo,
estos cilindros se dividen en sectores, cuyo número está determinado por el tipo de disco y su formato,
siendo todos ellos de un tamaño fijo en cualquier disco. Cilindros como sectores se identifican con una
serie de números que se les asigna, empezando por el 1, pues el numero 0 de cada cilindro se reservan
para propósitos de identificación más que para almacenamientos de datos. Estos escritos / leídos en el
disco deben ajustarse al tamaño fijado del almacenamiento de los sectores. Habitualmente, los sistemas
de discos duros contienen más de una unidad en su interior, por lo que el número de caras puede ser
más de dos. Estas se identifican con un número, siendo el 0 para la primera. En general su organización
es igual a los disquetes. La capacidad del disco resulta de multiplicar el número de caras por el de pistas
por cara y por el de sectores por pista, al total por el número de bytes por sector.
Los discos giran continuamente a gran velocidad; este detalle, la velocidad de rotación, incide
directamente en el rendimiento de la unidad, concretamente en el tiempo de acceso. Es el parámetro más
usado para medir la velocidad de un disco duro, y lo forma la suma de dos factores:
El tiempo medio de búsqueda y la latencia; el primero es lo que tarde el cabezal en desplazarse a una
pista determinada, y el segundo es el tiempo que emplean los datos en pasar por el cabezal.
Si se aumenta la velocidad de rotación, la latencia se reduce; en antiguas unidades era de 3.600 rpm
(revoluciones por minuto), lo que daba una latencia de 8,3 milisegundos. La mayoría de los discos duros
actuales giran ya a 7.200 rpm, con lo que se obtienen 4,17 mb de latencia. Y actualmente, existen discos
de alta gama aún más rápidos, hasta 10.000 rpm.
Los discos duros no pueden extraerse de los receptáculos de la unidad de disco, que contienen los
dispositivos electrónicos para leer y escribir datos sobre la superficie magnética de los discos y pueden
almacenar desde varios millones de bytes hasta algunos centenares de millones. La tecnología de CD-
ROM, que emplea las mismas técnicas láser utilizadas para crear los discos compactos (CD) de audio,
permiten capacidades de almacenamiento del orden de varios cientos de megabytes (millones de bytes)
de datos.
Variante de almacenamiento informático surgida a finales del siglo XX consistente en la lectura a través
de haces de luz que interpretan las refracciones provocadas sobre su propia emisión. Los soportes de
almacenamiento más famosos que hacen uso de este tipo de almacenamiento son el CD-ROM y el DVD.
Existen otros en desarrollo como el EVD. el Blu-Ray o el HD-DVD.
Mapa conceptual
Hardware es un neologismo proveniente del inglés definido por la RAE como el conjunto de elementos
materiales que conforman una computadora, sin embargo, es usual que sea utilizado en una forma más
amplia, generalmente para describir componentes físicos de una tecnología, así el hardware puede ser de
un equipo , un equipo electrónico, un equipo informático o un robot. En informática también se aplica a los
periféricos de una computadora tales como el disco duro, CD-ROM, disquette (floppy), etc... En dicho
conjunto se incluyen los dispositivos electrónicos y electromecánicos, circuitos, cables, armarios o cajas,
periféricos de todo tipo y cualquier otro elemento físico involucrado.
El hardware se refiere a todos los componentes físicos (que se pueden tocar), en el caso de una
computadora personal serían los discos, unidades de disco, monitor, teclado, la placa base, el
microprocesador, étc. En cambio, el software es intangible, existe como información, ideas, conceptos,
símbolos, pero no ocupa un espacio físico, se podría decir que no tiene sustancia. Una buena metáfora sería
un libro: las páginas y la tinta son el hardware, mientras que las palabras, oraciones, párrafos y el significado
del texto (información) son el software. Una computadora sin software sería tan inútil como un libro con
páginas en blanco.
Tipos de hardware
Se clasifica generalmente en básico y complementario, entendiendo por básico todo aquel dispositivo
necesario para iniciar el funcionamiento de la computadora, y el complementario, como su nombre indica,
sirve para realizar funciones específicas (más allá de las básicas) no estrictamente necesarias para el
funcionamiento de la computadora.
Todo sistema informático tiene componentes hardware dedicados a alguna de estas funciones:
1. Periféricos de entrada
2. Periféricos de salida
3. Periféricos de entrada/salida
4. Memoria
5. Unidad central de procesamiento
Cada dispositivo de entrada es sólo otra fuente de señales eléctricas; cada dispositivo de salida no es más
que otro lugar al cual enviar señales (salidas); los dispositivos de almacenamiento y las memorias son
ambas cosas, dependiendo de lo que requiera el programa (operación de entrada=lectura, operación de
salida=escritura).
Software
TIPOS DE SOFTWARE
En la actualidad hay diferentes categorías de aplicaciones para la computadora, si nos atenemos a su
licencia; muchas de ellas pueden prestarse a confusión, por eso trataremos de aclarar lo que significan los
diferentes calificativos aplicados al software.
• Software comercial
Es el desarrollado por una empresa con intención de venderlo y obtener unos beneficios. No debe
confundirse con propietario, puesto que hay software libre que es comercial, aunque es cierto que la
mayoría del software comercial es propietario.
Mainframe
Computadoras grandes, potentes y costosas capaces de procesar cantidad de información para diferentes
usuarios al mismo tiempo. Son utilizadas en organizaciones donde se requiere que muchos usuarios tengan
acceso a la misma información, así cada persona tiene una terminal y un monitor pero no tiene un CPU
(unidad central de proceso) ya que todas están conectadas a la mainframe y su costo es muy alto.
Los Mainframes se definen tanto por la velocidad de su CPU como por su gran memoria interna, su alta y
gran capacidad de almacenamiento externo, sus resultados en los dispositivo E/S rápidos y considerables, la
alta calidad de su ingeniería interna que tiene como consecuencia una alta fiabilidad y soporte técnico caro
pero de alta calidad.
Una Mainframe puede funcionar durante años sin problemas ni interrupciones y las reparaciones del mismo
pueden ser realizadas mientras está funcionando. Los vendedores de mainframes ofrecen servicios
especiales; por ejemplo, si se rompe la computadora, el vendedor ejecutará las aplicaciones de su cliente en
sus propias computadoras sin que los usuarios lo noten mientras que duran las reparaciones.
A menudo, los mainframes soportan miles de usuarios de manera simultánea que se conectan mediante
falsos terminales. Algunos mainframes pueden ejecutar o dar cobijo a muchos sistemas operativos y por lo
tanto, no funcionan como una computadora sola, sino como varias computadoras virtuales.
Un mainframe por sí solo puede remplazar docenas o cientos de pequeñas computadoras personales,
reduciendo los costos administrativos y de gestión al tiempo que ofrece una escalabilidad y fiabilidad mucho
mejor. La fiabilidad se consigue por la independencia de sus componentes internos, y la escalabilidad se
logra porque los recursos físicos de la computadora pueden ser redistribuidos entre los terminales virtuales
según las necesidades; esto es mucho más difícil de hacer con las computadoras personales, porque para
quitar o añadir nuevos componentes físicos hay que desenchufar la computadora muchas veces y las
limitaciones de dichos componentes son mucho mayores.
Minicomputadora
En 1960 surgió la Minicomputadora, una versión más pequeña de la Macro computadora. Al ser orientada a
tareas específicas, no necesitaba de todos los periféricos que necesita un Mainframes, y esto ayudó a
reducir el precio y costo de mantenimiento. Las Minicomputadora, en tamaño y poder de procesamiento, se
encuentran entre los Mainframes y las estaciones de trabajos pero en menor escala, actualmente son
conocidos como servidores.
Microcomputadora
MÓDULO 1: INTRODUCCIÓN A LAS MICROCOMPUTADORAS Página 31
Una microcomputadora es una computadora que tiene un microprocesador (unidad central de
procesamiento). Generalmente, el microprocesador tiene los circuitos de almacenamiento (o memoria caché)
y entrada/salida en el mismo circuito integrado (o chip). El primer microprocesador comercial fue el Intel
4004, que salió el 15 de noviembre de 1971.
Dentro de esta categoría se encuentran tanto las computadoras portátiles como las computadoras de
escritorio, en estas solo disminuyo si tamaño y aumento su velocidad de procesamiento, sino que también se
redujo su precio, y esto permite que cada día estén al alcance de más personas, tan es así que las podemos
encontrar en las organizaciones instituciones educativas, hogares, etcétera.
El aumento de velocidad de procesamiento también provoco que las compañías desarrolladoras de software
mejoren las aplicaciones existentes para hacerlas más eficientes y diseñen nuevas también, con esto se
logro que en la actualidad existan gran variedad de aplicaciones.
El término computadora personal se aplica a las microcomputadora orientados a los consumidores. La
primera generación de microcomputadora fue conocida también como computadoras domésticas, y con la
evolución de programas de cálculo provoco que las microcomputadoras dejaran de ser un pasatiempo para
los aficionados y convertirse en una herramienta de trabajo.
Supercomputadora
Supercomputadora o Superordenador son computadoras muy potentes, construidas para procesar
cantidad de datos y utilizadas para resolver problemas que requieren cálculos complejos. Principalmente
usadas en el ámbito gubernamental y científico.
Por su alto costo, el uso de superordenadores verdaderos está limitado a organismos gubernamentales,
militares y grandes centros de investigación, en donde tienen aplicaciones científicas, como en la simulación
de procesos naturales (previsión del tiempo, análisis de cambios climáticos, entre otros procesos.
Una supercomputadora es un tipo de computadora muy potente y rápida, diseñada para procesar enormes
cantidades de información en poco tiempo y dedicada a una tarea específica.
Por lo mismo son las más caras, su precio alcanza los 20 millones de euros o más (30 millones de dólares);
y cuentan con un control de temperatura especial, esto para disipar el calor que algunos componentes
alcanzan a tener.
Computadora Portátil
Una computadora portátil también llamado en inglés laptop o notebook, es una pequeña computadora
personal móvil, que pesa normalmente entre 1 y 3 Kg. Los computadores portátiles son capaces de realizar
la mayor parte de las tareas que realizan las computadoras de escritorio, con la ventaja de ser más
pequeños, livianos y de tener la capacidad de operar desconectados por un período determinado.
Componentes
Muchos de los componentes de una computadora portátil son similares a los componentes de las
computadoras de escritorio pero habitualmente son de menor tamaño; con componentes similares por citar
algunos:
• CPU de bajo consumo: Intel Pentium M o AMD Turion 64.
• Disco duro de 2,5 pulgadas o menor, frente a los discos de 3,5 pulgadas de los ordenadores de
sobremesa.
• Módulos de memoria RAM SO DIMM (Small Outline DIMM) más pequeños que los DIMM usuales en
los ordenadores de sobremesa ,otros son DDR2.
• Unidad lectora y grabadora de CD o DVD de formato reducido.
• Teclado integrado.
Estación de trabajo
Las estaciones de trabajos se encuentran entre las Minicomputadoras y las Macro computadoras (por el
procesamiento). Son un tipo de computadoras que se utilizan para aplicaciones que requieran de poder de
procesamiento moderado y capacidades de gráficos de alta calidad. Son usadas para: Aplicaciones de
ingeniería, CAD (Diseño Asistido por Computadora), CAM (Manufactura Asistida por Computadora),
publicidad, creación de Software
En una red de computadoras, una estación de trabajo es una computadora que facilita a los usuarios el
acceso a los servidores y periféricos de la red.
Las Estaciones de Trabajo usualmente consisten de una pantalla de alta resolución, un teclado y un ratón
como mínimo. Las estaciones de trabajo, en general, han sido los primeros en ofrecer accesorios avanzados
y herramientas de colaboración tales como la videoconferencia.
Siguiendo las tendencias de rendimiento de las computadoras en general, las computadoras promedio de
hoy en día son más poderosas que las mejores estaciones de trabajo de una generación atrás. Sin embargo,
el hardware de las estaciones de trabajo está optimizado para situaciones que requieren un alto rendimiento
de procesamiento, donde generalmente se mantienen operacionales mientras que las computadoras
personales tradicionales rápidamente dejarían de responder.
Las Computadoras personales, en contraste con las estaciones de trabajo, no fueron diseñadas para traer el
rendimiento de la minicomputadora al escritorio de un ingeniero, sino que fueron previstas originalmente
para el uso en casa o la productividad de oficina, la sensibilidad al precio fue un aspecto de consideración
primaria.
Funcionamiento
El microprocesador ejecuta instrucciones almacenadas como números binarios en la memoria principal. La
ejecución de las instrucciones se puede realizar en varias fases:
PreFetch, Pre lectura de la instrucción desde la memoria principal, Fetch, envío de la instrucción al
decodificador, Decodificación de la instrucción, es decir, determinar qué instrucción es y por tanto qué se
debe hacer, Lectura de operandos (si los hay), Ejecución, Escritura de los resultados en la memoria principal
o en los registros.
Cada una de estas fases se realiza en uno o varios ciclos de CPU, dependiendo de la estructura del
procesador, y concretamente de su grado de segmentación. La duración de estos ciclos viene determinada
por la frecuencia de reloj, y nunca podrá ser inferior al tiempo requerido para realizar la tarea individual
(realizada en un solo ciclo) de mayor coste temporal. El microprocesador se conecta a un oscilador,
normalmente un cristal de cuarzo capaz de generar pulsos a un ritmo constante, de modo que genera varios
ciclos (o pulsos) en un segundo.
Velocidad
Actualmente se habla de frecuencias de Gigaherzios (GHz.), o de Megaherzios (MHz.). Lo que supone miles
de millones o millones, respectivamente, de ciclos por segundo. El indicador de la frecuencia de un
microprocesador es un buen referente de la velocidad de proceso del mismo, pero no el único. La cantidad
de instrucciones necesarias para llevar a cabo una tarea concreta, así como la cantidad de instrucciones
ejecutadas por ciclo ICP, son los otros dos factores que determinan la velocidad de la CPU. La cantidad de
instrucciones necesarias para realizar una tarea depende directamente del juego de instrucciones disponible,
mientras que ICP depende de varios factores, como el grado de supersegmentación y la cantidad de
unidades de proceso o "pipelines" disponibles, entre otros. La cantidad de instrucciones necesarias para
realizar una tarea depende directamente del juego de instrucciones.
Bus de datos
El microprocesador lee y escribe datos en la memoria principal y en los dispositivos de entrada/salida. Estas
transferencias se realizan a través de un conjunto de conductores que forman el bus de datos. El número de
conductores suele ser potencia de 2. Hay buses de 4, 8, 16, 32, 64, ... conductores. Los modelos de la
familia x86, a partir del 80386, trabajan con bus de datos de 32 bits, y a partir del Pentium con bus de 64
bits. Pero los microprocesadores de las tarjetas gráficas, que tienen un mayor volumen de procesamiento
por segundo, se ven obligados a aumentar este tamaño, y así tenemos hoy en día microprocesadores
gráficos que trabajan con datos de 128 ó 256 bits. Estos dos tipos de microprocesadores no son
comparables, ya que ni su juego de instrucciones ni su tamaño de datos son parecidos y por tanto el
rendimiento de ambos no es comparable en el mismo ámbito.
La arquitectura x86 se ha ido ampliando a lo largo del tiempo a través de conjuntos de operaciones
especializadas denominadas "extensiones", las cuales han permitido mejoras en el procesamiento de tipos
de información específica. Este es el caso de las extensiones MMX y SSE de Intel, y sus contrapartes, las
extensiones 3DNow! de AMD. A partir de 2003, el procesamiento de 64 bits fue incorporado en los
Zócalos
Artículo principal: socket de CPU
El zócalo o socket es una matriz de pequeños agujeros ubicados en una placa madre, es la base donde
encajan, sin dificultad, los pines de un microprocesador. Esta matriz permite la conexión entre el
microprocesador y el resto del equipo. En las primeras computadoras personales el microprocesador venía
directamente soldado a la placa base, pero la aparición de una amplia gama de microprocesadores llevó a la
creación de los zócalos.
En general cada familia de microprocesadores requiere un tipo distinto de zócalo, ya que existen diferencias
en el número de pines, su disposición geométrica y la interconexión requerida con los componentes de la
placa base. Por tanto, no es posible conectar un determinado microprocesador a una placa base diseñada
para otro.
Puertos de entrada y salida
El microprocesador tiene puertos de entrada/salida en el mismo circuito integrado. El chipset es un conjunto
de circuitos integrados que se encarga de realizar las funciones que el microprocesador delega en ellos. El
conjunto de circuitos integrados auxiliares necesarios por un sistema para realizar una tarea suele ser
conocido como chipset, cuya traducción literal del inglés significa conjunto de circuitos integrados. Se
designa circuito integrado auxiliar al circuito integrado que es periférico a un sistema pero necesario para el
funcionamiento del mismo. La mayoría de los sistemas necesitan más de un circuito integrado auxiliar; sin
embargo, el término chipset se suele emplear en la actualidad cuando se habla sobre las placas base de los
IBM PCs.
Chipset
El chipset es un conjunto de circuitos integrados diseñado para trabajar conjuntamente y generalmente
vendido como un único producto. En el mundo de los computadores personales se disponían muchos
circuitos integrados como apoyo al microprocesador tales como el controlador de interrupciones,
controlador de acceso directo a memoria, controlador de reloj, etc. Para reducir el número de circuitos se
fueron creando circuitos más complejos que incluían multiples funcionalidades en su interior. Esos circuitos
son los que actualmente se denominan chipset del computador y son responsables en una medida
importante del rendimiento global del mismo.
Se ha comparado al Chipset con la "médula espinal": "una persona puede tener un buen cerebro, pero si la
médula falla, todo el cuerpo no sirve para nada".
Las computadoras personales actuales tienen chipset formado por 2 circuitos auxiliares al procesador
principal:
El puente norte que se utiliza como puente de enlace entre el microprocesador y la memoria, controlando los
accesos hacia y desde el microprocesador, la memoria RAM, el puerto gráfico y las comunicaciones con el
puente sur.
El puente sur que controla los dispositivos asociados, es decir se encarga de comunicar el procesador con el
resto de los periféricos. (los controladores de disco, puertos de entrada y salida, como USB, etc.)
Historia y descripción
El 4004 fue lanzado en un paquete de 16 pines CERDIP el 15 de noviembre de 1971. El 4004 fue el primer
procesador de computadora diseñado y fabricado por el fabricante de chips Intel, quien previamente hacía
semiconductores de chips de memoria. Marcian "Ted" Hoff formuló la propuesta arquitectónica en 1969. Sin
embargo, la implementación del microprocesador sólo comenzó en 1970 cuando Federico Faggin fue
empleado por Intel, procedente de Fairchild Semiconductor, para dirigir el proyecto y para diseñar el 4004.
En Fairchild, Faggin había desarrolado la tecnología pionera llamada Silicon Gate Technology (SGT) y había
también diseñado el primer circuito integrado MOS usando la tecnología SGT (el Fairchild 3708) en 1968.
Tan pronto como empezó a trabajar para Intel, Faggin creó una nueva metodología de "random logic design"
con silicon gate, que no existía previamente, y que la utlilizó para encajar el microprocesador en un único
El Intel 80286 (llamado oficialmente iAPX 286, también conocido como i286 o 286) es un microprocesador
de 16 bits de la familia x86, que fue lanzado al mercado por Intel el 1 de febrero de 1982. Las versiones
iniciales del i286 funcionaban a 6 y 8 MHz, pero acabó alcanzando una velocidad de hasta 25 MHz. El i286
fue el microprocesador más empleado en los IBM PC y compatibles entre mediados y finales de los años
80 .
El i286 funciona el doble de rápido por ciclo de reloj que su predecesor (el Intel 8086) y puede direccionar
hasta 16 MB de memoria RAM, en contraposición a 1 MB del i8086. En máquinas DOS, esta memoria
adicional solo podía ser accedida a través de la memoria extendida o de emulación de memoria expandida
previamente habilitada mediante software la memoria extendida. De todos modos, pocos ordenadores
basados en el i286 tuvieron más de 1 MB de memoria.
El i286 fue diseñado para ejecutar aplicaciones multitarea, incluyendo comunicaciones (como centralitas
automatizadas), control de procesos en tiempo real y sistemas multiusuario. Para ello se le añadió un modo
protegido, en el cual existían cuatro anillos de ejecución y división de memoria mediante tablas de
segmentos. En este modo trabajaban las versiones de 16 bits del sistema operativo OS/2. En este modo
protegido se permitía el uso de toda la memoria directamente, y que además ofrecía protección entre
aplicaciones para evitar la escritura de datos accidental (o malintencionada) fuera de la zona de memoria
asignada. Sin embargo, una vez que el procesador entraba en el modo protegido, no podía volver al modo
real sin resetear el procesador.
A pesar de su gran popularidad, hoy en día quedan pocos ordenadores con el i286 funcionando.
Intel Pentium
Los Intel Pentium son una gama de microprocesadores con arquitectura x86 producidos por la compañía
Intel.
El microprocesador Pentium se lanzó al mercado el 22 de marzo de 1993, sucediendo al procesador Intel
80486. Intel no lo llamó 586 debido a que no es posible registrar una marca compuesta solamente de
números y a que la competencia utilizaba hasta ahora los mismos números que Intel para sus procesadores
equivalentes (AMD 486, IBM 486...). También es conocido por su nombre clave P54C.
Se descubrió en 1994, en el Intel Pentium, que algunos Pentium presentaron un error de división.
Los tipos de microprocesadores Intel Pentium que han salido al mercado son:
Pentium Pro
(Redirigido desde Intel Pentium Pro)
Pentium Pro 200 Mhz decapado, procesador a la izquierda y caché L2 256 KB a la derecha
El Pentium Pro es la sexta generación de arquitectura x86 de los microprocesadores de Intel, cuya meta era
remplazar al Intel Pentium en toda la gama de aplicaciones, pero luego se centró como chip en el mundo de
los servidores y equipos de sobremesa de gama alta. Posteriormente Intel lo dejó de lado a favor de su
gama de procesadores de altas prestaciones llamada Xeon.
Fue puesto a la venta en noviembre de 1995. En su lanzamiento usaba un enorme Socket 8 de forma
rectangular.
Características técnicas
A pesar del nombre, el Pentium Pro es realmente diferente de su procesador antecesor, el Intel Pentium, ya
que estaba basado en el entonces nuevo núcleo P6 (que se vería modificado para luego ser usado en el
Intel Pentium II, Intel Pentium III e Intel Pentium M). Además utilizaba el Socket 8, en lugar del Socket 5 o 7
de los Pentium de la época. Las características del núcleo del P6 era la ejecución desordenada, ejecución
especulativa y una tubería adicional para instrucciones sencillas. La ejecución especulativa (era la ejecución
provisional de código después de un salto que no se sabía si iba a ser realizado), incrementaba
considerablemente el fallo de despreciar un salto, y el Pentium Pro en aquel entonces usaba un algoritmo de
predicción de saltos más sofisticado que el Pentium. Por la misma razón el Pentium Pro también introducía
una instrucción de movimiento condicional (llamado cmov) que en alguno de los casos también podía ser
usada para evitar la necesidad de una instrucción de salto.
Intel Pentium II
El Pentium II es un microprocesador con arquitectura x86 diseñado por Intel, introducido en el mercado el 7
de mayo de 1997. Está basado en una versión modificada del núcleo P6, usado por primera vez en el Intel
Pentium Pro.
Los cambios fundamentales respecto a éste último fueron mejorar el rendimiento en la ejecución de código
de 16 bits, añadir el conjunto de instrucciones MMX y eliminar la memoria caché de segundo nivel del núcleo
del procesador, colocándola en una tarjeta de circuito impreso junto a éste.
El Pentium II se comercializó en versiones que funcionaban a una frecuencia de reloj de entre 166 y 450
MHz. La velocidad de bus era originalmente de 66 MHz, pero en las versiones a partir de los 333 MHz se
aumentó a 100 MHz.
Poseía 32 KB de memoria caché de primer nivel repartida en 16 KB para datos y otros 16 KB para
instrucciones. La caché de segundo nivel era de 512 KB y trabajaba a la mitad de la frecuencia del
procesador, al contrario que en el Pentium Pro, que funcionaba a la misma frecuencia.
Como novedad respecto al resto de procesadores de la época, el Pentium II se presentaba en un
encapsulado SEC, con forma de cartucho. El cambio de formato de encapsulado se hizo para mejorar la
disipación de calor. Este cartucho se conecta a las placas base de los equipos mediante una ranura Slot 1.
El Pentium II integra 7,5 millones de transistores.
El Pentium III es un microprocesador de arquitectura i686 fabricado por Intel; el cual es una modificación del
Pentium Pro. Fue lanzado el 26 de febrero de 1999.
Las primeras versiones eran muy similares al Pentium II, siendo la diferencia más importante la introducción
de las instrucciones SSE. Al igual que con el Pentium II, existía una versión Celeron de bajo presupuesto y
una versión Xeon para quienes necesitaban de gran poder de cómputo. Esta línea ha sido eventualmente
reemplazada por el Pentium 4, aunque la línea Pentium M, para equipos portátiles, está basada en el
Pentium III.
Existen tres versiones de Pentium III: Katmai, Coppermine y Tualatin.
Intel Pentium D
Los procesadores Pentium D fueron introducidos por Intel en el Spring 2005 Intel Developer Forum. Un chip
Pentium D consiste básicamente en un procesador Pentium 4 con 2 nucleos Virtuales que a diferencia de los
core duo y los core 2 duo está en la optimización realizada, ya que los de núcleo Prescott están diseñados
para alcanzar más MHz, sin embargo, esto genera mucho calor, por lo que la nueva tecnología Core
optimiza para que cada MHz sea más eficiente, por lo que a la misma o menor velocidad(en MHz)la nueva
tecnología Core rinde mucho más y genera mucho menos calor. Ambos procesadores son DualCore (doble
núcleo), por lo que constan de 2 procesadores físicos conectados entre sí directamente (Core Duo y Core 2
Duo) y a través del bus frontal FSB (Pentium D). Cabe destacar que los Pentium D ya son tecnología
antigua, no de gama baja, simplemente fueron los primeros intentos de Intel por obtener un procesador de
doble núcleo, y esto se perfeccionó en la nueva generación de los Core Duo y Core 2 Duo. Adicionalmente,
los D se calientan más porque el núcleo Prescott es el último de esa generación, llevado al límite de
frecuencias. Mientras que el Core 2 es la tecnología de los Pentium M (de laptop) que genera muy poco
calor y recién está comenzando a ser explotada. Con un proceso de fabricación inicialmente de 90 nm y en
su segunda generación de 65 nm. El nombre en clave del Pentium D antes de su lanzamiento era
"Smithfield". Hubo un rumor que decia que estos chips incluian una tecnología DRM (Digital rights
management) para hacer posible un sistema de protección anticopia de la mano de Microsoft, el cual Intel
desmintio, aunque aclaró que algunos de sus chipsets si tenian dicha tecnologia, pero la extensión de ella y
sus capacidades habian sido exageradas.Intel Core 2 Duo
Core 2
CPU
Características
El Core 2 Duo es un procesador con un pipeline de 14 etapas lo que le permite escalar más en frecuencia
que su antecesor directo: el Core 1, que tenía 12 etapas al igual que el Athlon 64. Tiene, además, un motor
de ejecución ancho con tres ALUs, cuatro FPUs, y tres unidades de SSE de 128 bits. Estas dos
características hacen que sea el procesador x86 que más instrucciones por ciclo puede lograr.
Entre otras características destacan arquitectura de 64 bits EM64T (no disponible en su predecesor Core
Duo), Virtualization Technology, LaGrande Technology, Intel Enhanced SpeedStep Technology, Active
Management Technology (iAMT2), MMX, SSE, SSE2, SSE3, SSSE3, y XD bit.
Existen versiones de sobremesa y para portátiles, a diferencia de la división existente desde 2003 entre
Pentium M para portátiles y Pentium 4 para ordenadores de sobremesa, unificando el nombre de Core 2 Duo
para todas los procesadores de gama media dejando además el nombre Pentium, utilizado desde 1993, para
los procesadores de gama baja (y menor rendimiento) basados en la arquitectura de Core 2 con un caché
reducido llamado Pentium Dual Core, quienes a su vez vienen a reemplazar a la familia Celeron en este rol.
Una llamativa característica de esta familia es su particular facilidad para aplicar overclock, llegando muchos
de estos procesadores a ganancias superiores al 50% en su frecuencia de trabajo
Esta clasificación es la más comúnmente usada y conocida desde el punto de vista del usuario final. Esta
clasificación se comprende fácilmente con el cuadro sinóptico que a continuación se muestra:
MSDOS Windows,:
Desde hace años, Microsoft intentaba unificar las dos grandes vertientes de Windows. La serie WIN9X y la
serie NT. Recordemos primero un poquito estas dos series totalmente diferentes de Windows, el porqué
nacieron y la necesidad actual de converger ambos sistemas. Hagamos un poco historia...
El primer sistema operativo de Microsoft surgió en el año 82 cuando surgió el primer ordenador de
sobremesa: el IBM PC. Dicho sistema operativo era el MS-DOS. IBM, como gigante de la informática
empresarial (grandes mainframes) decidió embarcarse en la tarea de definir un ordenador personal
aprovechando que Intel acababa de desarrollar el procesador 8088. Definió un bus: el bus PC, que en poco
tiempo pasó a ser el bus AT, con lo cual quedaba plasmada la arquitectura física de los ordenadores
personales y de cuya herencia todavía no hemos podido escaparnos.
La evolución posterior del 8088 fue el 8086, 80286, 80386. De esta última arquitectura (la 386) son
herederos el resto de procesadores de Intel: el 80486 (el 486) y la familia Pentium al completo, de tal manera
que el juego de instrucciones ensambladoras de la CPU se conserve íntegro desde la familia 386 (con una
MÓDULO 1: INTRODUCCIÓN A LAS MICROCOMPUTADORAS Página 50
sola nueva instrucción) y que posteriormente se implementó dentro del procesador el coprocesador
matemático y los juegos de instrucción MMX, orientados a la multimedia.
Windows NT
Llegado al punto de la existencia de Windows 3.1, Microsoft ya tenía definido el API ( Interfaz de
Programación de Aplicaciones: Conjunto de rutinas que utiliza una aplicación para solicitar y realizar
servicios y llevar a cabo tareas de mantenimiento como administrar archivos y mostrar información) de
programación de Windows prácticamente al completo y bastante depurado. Únicamente existían dos
"pequeños" problemas: todo el subsistema era de 16 bits y además se apoyaba sobre MS-DOS. Realmente
no era más que una interfaz (potente) sobre MS-DOS, digamos que simplemente era la GUI de DOS. La
multitarea no era real sino que los programas debían ceder el control al sistema operativo y este, una vez
que tomaba el control, daba paso a la siguiente tarea que tenía encolada. Todo esto se realizaba muchas
veces por segundo si las aplicaciones cedían control dando la sensación de multitarea real.
Por ello, Microsoft se planteó el realizar un verdadero sistema operativo, de 32 bits y además utilizando las
características que le daban los nuevos procesadores de Intel. Microsoft estaba pensando ya en Windows
NT.
Si nos fijamos con detalle en el kernel de NT, podemos ver que el sistema de archivos nativo ya deja de ser
FAT y aparece un nuevo sistema de archivos: el NTFS.
Así salió al mercado el primer Windows NT, el NT 3.1 que rápidamente evolucionó al 3.5 y con unas
modificaciones en el núcleo para darle velocidad (y perdida de estabilidad como comentaremos más
adelante) evolucionó al Windows NT4.
Windows 95 y posteriores
Paralelamente a los primeros desarrollos de Windows NT 3.1, Microsoft empezó a intuir el gran potencial
que podía tener Internet y el aumento progresivo de usuarios tanto domésticos como corporativos que no
tenían necesidad de un Windows NT, pero para los cuales la actual solución de Windows 3.1 se quedaba
escasa.
Microsoft empezó a experimentar con la versión de Windows 3.11 (para trabajo en grupo), la conectividad de
red y el soporte en redes así como los primeros pasos para algunos subsistemas de 32 bits dentro del propio
Windows.. Igualmente, creó una capa API de 32 bits que era capaz de instalarse sobre Windows 3.1 o 3.11
y daba soporte a programas de 32 bits. Con las experiencias anteriores, Microsoft ya tenía en la mano la
posibilidad de hacer evolucionar Windows.
Así surgió el primer Windows de la serie 9X. Windows 95. Realmente no sigue siendo más que una interfaz
gráfica sobre MS-DOS, pero mejorado.
La evolución de W95, fue Windows 98. Podemos decir que prácticamente, la serie Win9X murió en W98.
Tanto W98 SE como ME, no aportan nada nuevo. En este momento, empezó a estudiarse el sistema
operativo que más tarde se denominó W2000.
Windows 2000
Inicialmente, Windows 2000 se gestó como el sucesor y el integrador de todos los Windows. La idea original
pasaba por incorporar en Windows 2000 las características de PnP (Plug and Play) y resto de subsistemas
probados y experimentados en la serie de Windows al consumo (9X) y por tanto, el producto final que salió
al mercado, siguió siendo un NT puro (mejorado en muchísimas características), Windows 2000, no solo
integró las nuevas tecnologías de soporte a hardware (PnP) realmente completo, sino que además integró y
mejoró las funcionalidades definidas por las normas ACPI. Advanced Configuration and Power Interface)
- Netware
Diseñado por Novell, líder mundial en sistemas operativos para redes de computadoras que ha conquistado
al mundo de la informática por el poder y versatilidad de sus funciones, así como su extremada capacidad de
interconectar computadoras y recursos de tan variadas capacidades y marcas.
- Unix
Sistema operativo portable de alto rendimiento, multitarea y multiusuario utilizado actualmente en grandes
proyectos y para necesidades de intercomunicación a nivel internacional y de gran volumen de operaciones
diarias. Unix (registrado oficialmente como UNIX®) desarrollado, en principio, en 1969 por un grupo de
empleados de los laboratorios Bell de AT&T.
Linux
Es la denominación de un sistema operativo tipo Unix (también conocido como GNU/Linux) y el nombre de
un núcleo. Es uno de los ejemplos más prominentes del software libre y del desarrollo del código abierto,
cuyo código fuente está disponible públicamente, para que cualquier persona pueda libremente usarlo,
estudiarlo, redistribuirlo, comercializarlo y, con los conocimientos informáticos adecuados, modificarlo.
El común denominador de la gente piensa que Linux es gratuito, sin embargo oficialmente es libre y se
distribuye bajo la Licencia Pública General de GNU. Pese a lo anterior casi todas las distribuciones están
exentas de costo alguno. En algunos casos una distribución tiene una versión gratuita y otra comercial como
ocurre con SUSE y openSUSE o Mandriva One y Mandriva PowerPack.
Solaris
Es un sistema operativo desarrollado por Sun Microsystems. Es un sistema certificado como una versión de
UNIX. Aunque Solaris en sí mismo aún es software propietario, la parte principal del sistema operativo se ha
liberado como un proyecto de software libre denominado Opensolaris. Solaris puede considerarse uno de los
sistemas operativos más avanzados. Sun denomina así a su sistema operativo.
En la actualidad son muchas las violaciones que se producen en los sistemas informáticos, en general por
acceso de personas no autorizadas que obtienen información confidencial pudiendo incluso manipularla. En
ocasiones este tipo de incidencias resulta grave por la naturaleza de los datos; por ejemplo si se trata de
datos bancarios, datos oficiales que puedan afectar a la seguridad de los estados, etc.
El software mal intencionado que se produce por diversas causas, es decir pequeños programas que poseen
gran facilidad para reproducirse y ejecutarse, cuyos efectos son destructivos nos estamos refiriendo a los
virus informáticos.
Para esto, se analizan cuestiones de seguridad desde dos perspectivas diferentes la seguridad externa y la
seguridad interna.
Todos los mecanismos dirigidos a asegurar el sistema informático sin que el propio sistema intervenga en el
mismo se engloban en lo que podemos denominar seguridad externa.
La seguridad externa puede dividirse en dos grandes grupos:
Seguridad física. Engloba aquellos mecanismos que impiden a los agentes físicos la destrucción de la
información existente en el sistema; entre ellos podemos citar el fuego, el humo, inundaciones descargas
eléctricas, campos magnéticos, acceso físico de personas con no muy buena intención, entre otros.
Seguridad de administración. Engloba los mecanismos más usuales para impedir el acceso lógico de
personas físicas al sistema.
Todos los mecanismos dirigidos a asegurar el sistema informático, siendo el propio sistema el que controla
dichos mecanismos, se engloban en lo que podemos denominar seguridad interna.
Lenguajes de Programación
Concepto
Así aparecen las secuencias de posiciones de llaves eléctricas que debían conectarse para obtener una
acción determinada, una llave conectada era un 1 y una llave desconectada era un 0. Una sucesión de
llaves en cualquiera de sus dos posiciones definía una secuencia de ceros y unos (por ejemplo:
0100011010011101...) que venía a representar una instrucción o un conjunto de instrucciones (programa)
para el ordenador (o computador) en el que se estaba trabajando. A esta primera forma de especificar
programas para una computadora se la denomina lenguaje máquina o código máquina.
La necesidad de recordar secuencias de programación para las acciones usuales llevó a denominarlas con
nombres fáciles de memorizar y asociar: ADD (sumar), SUB (restar), MUL (multiplicar), CALL (ejecutar
subrutina), etc. A esta secuencia de posiciones se le denominó "instrucciones", y a este conjunto de
instrucciones se le llamó lenguaje ensamblador.
Es un lenguaje que puede ser utilizado para controlar el comportamiento de una máquina, particularmente
una computadora. Consiste en un conjunto de símbolos y reglas sintácticas y semánticas que definen su
estructura y el significado de sus elementos y expresiones.
Aunque muchas veces se usa lenguaje de programación y lenguaje informático como si fuesen sinónimos,
no tiene por qué ser así, ya que los lenguajes informáticos engloban a los lenguajes de programación y a
otros más, como, por ejemplo, el HTML (lenguaje para el marcado de páginas web).
Un lenguaje de programación permite a uno o más programadores especificar de manera precisa: sobre qué
datos una computadora debe operar, cómo deben ser estos almacenados y transmitidos y qué acciones
debe tomar bajo una variada gama de circunstancias. Todo esto, a través de un lenguaje que intenta estar
relativamente próximo al lenguaje humano o natural, tal como sucede con el lenguaje Léxico..
Los procesadores usados en las computadoras son capaces de entender y actuar según lo indican
programas escritos en un lenguaje fijo llamado lenguaje de máquina. Todo programa escrito en otro lenguaje
puede ser ejecutado de dos maneras:
Mediante un programa que va adaptando las instrucciones conforme son encontradas. A este proceso se lo
llama interpretar y a los programas que lo hacen se los conoce como intérpretes.
Traduciendo este programa al programa equivalente escrito en lenguaje de máquina. A ese proceso se lo
llama compilar y al traductor se lo conoce como compilador
Objetivo
El propósito de un lenguaje es sencillamente el de transferir significado.
Confucio
Los lenguajes de programación son el corazón de la Informática, ya que son las herramientas que se usan
para comunicarse no sólo con el computador sino con la gente.
El desafío que representa el diseño de un lenguaje es el de “juntar de manera adecuada” diferentes ideas y
características, que permitan al programador la expresión clara de los algoritmos.
Asimismo, el lenguaje de programación está conformado por una serie de reglas sintácticas y semánticas
que serán utilizadas por el programador y a través de las cuales creará un programa o subprograma. Por
otra parte, las instrucciones que forman dicho programa son conocidas como código fuente.
La particularidad es que ese lenguaje que utiliza le permite hacer las especificaciones en forma precisa, esto
significa que todo se interpreta de la misma manera, sea quien fuere el programador que lo realice. Esto lo
diferencia, por ejemplo, del lenguaje humano, en el que no siempre las especificaciones se interpretan de la
misma manera.
• Sin contradicciones
• Sin omisiones
Los ordenadores son quisquillosos. Una simple coma (,) de más, de menos, o fuera de lugar, puede producir
errores sintácticos o errores lógicos (dependiendo del contexto, del lenguaje, etc.)
Una característica relevante de los lenguajes de programación es precisamente que más de un programador
puedan tener un conjunto común de instrucciones que puedan ser comprendidas entre ellos para realizar la
construcción del programa de forma colaborativa
Resumiendo el objetivo de un lenguaje de programación es el permitir de la manera mas sencilla el
interactuar del hombre con la computadora para que lleve a cabo una tarea determinada.
Los lenguajes de programación de alto nivel se caracterizan por expresar los algoritmos de una manera
adecuada a la capacidad cognitiva humana, en lugar de a la capacidad ejecutora de las máquinas. En los
primeros lenguajes de alto nivel la limitación era que se orientaban a un área específica y sus instrucciones
requerían de una sintaxis predefinida. Se clasifican como lenguajes procedimentales. Otra limitación de los
lenguajes de alto nivel es que se requiere de ciertos conocimientos de programación para realizar las
secuencias de instrucciones lógicas. Los lenguajes de muy alto nivel se crearon para que el usuario común
pudiese solucionar tal problema de procesamiento de datos de una manera más fácil y rápida.
Según la forma de ejecución
Lenguajes compilados
Naturalmente, un programa que se escribe en un lenguaje de alto nivel también tiene que traducirse a un
código que pueda utilizar la máquina. Los programas traductores que pueden realizar esta operación se
llaman compiladores. Éstos, como los programas ensambladores avanzados, pueden generar muchas líneas
de código de máquina por cada proposición del programa fuente. Se requiere una corrida de compilación
antes de procesar los datos de un problema.
Los compiladores son aquellos cuya función es traducir un programa escrito en un determinado lenguaje a
un idioma que la computadora entienda (lenguaje máquina con código binario).
Un lenguaje compilado es término un tanto impreciso para referirse a un lenguaje de programación que
típicamente se implementa mediante un compilador. Esto implica que una vez escrito el programa, éste se
traduce a partir de su código fuente por medio de un compilador en un archivo ejecutable para una
determinada plataforma (por ejemplo Solaris para Sparc, Windows NT para Intel, etc.).
Es teóricamente posible escribir un compilador o un intérprete para cualquier lenguaje, sin embargo en
algunos lenguajes una u otra implementación es más sencilla porque se diseñaron con una implementación
en particular en mente.
Algunos entornos de programación incluyen los dos mecanismos, primero el código fuente se traduce a un
código intermedio que luego se interpreta en una máquina virtual, pero que también puede compilarse justo
antes de ejecutarse. La máquina virtual y los compiladores Just in Time de Java son un ejemplo de ello.
Algunos ejemplos típicos de lenguajes compilados:
• Fortran
• La familia de lenguajes de C, incluyendo C++ y Objective C pero no Java.
• Ada, Pascal (incluyendo su dialecto Delphi)
• Algol
Lenguajes interpretados
Se puede también utilizar una alternativa diferente de los compiladores para traducir lenguajes de alto nivel.
En vez de traducir el programa fuente y grabar en forma permanente el código objeto que se produce
durante la corrida de compilación para utilizarlo en una corrida de producción futura, el programador sólo
carga el programa fuente en la computadora junto con los datos que se van a procesar. A continuación, un
programa intérprete, almacenado en el sistema operativo del disco, o incluido de manera permanente dentro
de la máquina, convierte cada proposición del programa fuente en lenguaje de máquina conforme vaya
siendo necesario durante el proceso de los datos. No se graba el código objeto para utilizarlo
posteriormente.
La siguiente vez que se utilice una instrucción, se le debe interpretar otra vez y traducir a lenguaje máquina.
Por ejemplo, durante el procesamiento repetitivo de los pasos de un ciclo, cada instrucción del ciclo tendrá
que volver a ser interpretado cada vez que se ejecute el ciclo, lo cual hace que el programa sea más lento
en tiempo de ejecución (porque se va revisando el código en tiempo de ejecución) pero más rápido en
tiempo de diseño (porque no se tiene que estar compilando a cada momento el código completo). El
intérprete elimina la necesidad de realizar una corrida de compilación después de cada modificación del
programa cuando se quiere agregar funciones o corregir errores; pero es obvio que un programa objeto
compilado con antelación deberá ejecutarse con mucha mayor rapidez que uno que se debe interpretar a
cada paso durante una corrida de producción.
Según el paradigma de programación
Un paradigma de programación representa un enfoque particular o filosofía para la construcción del
software. No es mejor uno que otro sino que cada uno tiene ventajas y desventajas. También hay
situaciones donde un paradigma resulta más apropiado que otro.
Lenguajes Funcionales
Los matemáticos desde hace un buen tiempo están resolviendo problemas usando el concepto de función.
Una función convierte ciertos datos en resultados. Si supiéramos cómo evaluar una función, usando la
computadora, podríamos resolver automáticamente muchos problemas. Así pensaron algunos matemáticos,
que no le tenían miedo a la máquina, e inventaron los lenguajes de programación funcionales. Además,
aprovecharon la posibilidad que tienen las funciones para manipular datos simbólicos, y no solamente
numéricos, y la propiedad de las funciones que les permite componer, creando de esta manera, la
oportunidad para resolver problemas complejos a partir de las soluciones a otros más sencillos. También se
incluyó la posibilidad de definir funciones recursivamente.
Un lenguaje funcional ofrece conceptos que son muy entendibles y relativamente fáciles de manejar para
todos los que no se durmieron en las clases de matemáticas. El lenguaje funcional más antiguo, y
seguramente el más popular hasta la fecha, es LISP, diseñado por McCarthy [1] en la segunda mitad de los
años 50. Su área de aplicación es principalmente la Inteligencia Artificial. En la década de los 80 hubo una
nueva ola de interés por los lenguajes funcionales, añadiendo la tipificación y algunos conceptos modernos
de modularización y polimorfismo, como es el caso del lenguaje ML.
Programar en un lenguaje funcional significa construir funciones a partir de las ya existentes. Por lo tanto es
importante conocer y comprender bien las funciones que conforman la base del lenguaje, así como las que
ya fueron definidas previamente. De esta manera se pueden ir construyendo aplicaciones cada vez más
complejas. La desventaja de este modelo es que resulta bastante alejado del modelo de la máquina de von
Neumann y, por lo tanto, la eficiencia de ejecución de los intérpretes de lenguajes funcionales no es
comparable con la ejecución de los programas imperativos precompilados. Para remediar la deficiencia, se
está buscando utilizar arquitecturas paralelas que mejoren el desempeño de los programas funcionales, sin
que hasta la fecha estos intentos tengan un impacto real importante
La Programación Orientada a Objetos (POO u OOP según sus siglas en inglés) es un paradigma de
programación que usa objetos y sus interacciones para diseñar aplicaciones y programas de
computadora. Está basado en varias técnicas, incluyendo herencia, modularidad, polimorfismo, y
encapsulamiento. Su uso se popularizó a principios de la década de 1990
La Programación Orientada a Objetos (POO u OOP según sus siglas en inglés) es un paradigma de
programación que usa objetos y sus interacciones para diseñar aplicaciones y programas de computadora.
Está basado en varias técnicas, incluyendo herencia, modularidad, polimorfismo, y encapsulamiento. Su uso
se popularizó a principios de la década de 1990. Actualmente son muchos los lenguajes de programación
que soportan la orientación a objetos.
Introducción Los objetos son entidades que combinan estado, comportamiento e identidad:
El estado está compuesto de datos, serán uno o varios atributos a los que se habrán asignado unos valores
concretos (datos).
El comportamiento está definido por los procedimientos o métodos con que puede operar dicho objeto, es
decir, qué operaciones se pueden realizar con él.
La identidad es una propiedad de un objeto que lo diferencia del resto, dicho con otras palabras, es
su identificador (concepto análogo al de identificador de una variable o una constante).
La programación orientada a objetos expresa un programa como un conjunto de estos objetos, que
colaboran entre ellos para realizar tareas. Esto permite hacer los programas y módulos más fáciles de
escribir, mantener y reutilizar.
De esta forma, un objeto contiene toda la información que permite definirlo e identificarlo frente a otros
objetos pertenecientes a otras clases e incluso frente a objetos de una misma clase, al poder tener valores
bien diferenciados en sus atributos. A su vez, los objetos disponen de mecanismos de interacción llamados
métodos que favorecen la comunicación entre ellos. Esta comunicación favorece a su vez el cambio de
estado en los propios objetos. Esta característica lleva a tratarlos como unidades indivisibles, en las que no
se separan ni deben separarse el estado y el comportamiento.
Los métodos (comportamiento) y atributos (estado) están estrechamente relacionados por la propiedad de
conjunto. Esta propiedad destaca que una clase requiere de métodos para poder tratar los atributos con los
que cuenta. El programador debe pensar indistintamente en ambos conceptos, sin separar ni darle mayor
importancia a ninguno de ellos, hacerlo podría producir el hábito erróneo de crear clases contenedoras de
información por un lado y clases con métodos que manejen a las primeras por el otro. De esta manera se
estaría realizando una programación estructurada camuflada en un lenguaje de programación orientado a
objetos.
Esto difiere de la programación estructurada tradicional, en la que los datos y los procedimientos están
separados y sin relación, ya que lo único que se busca es el procesamiento de unos datos de entrada para
obtener otros de salida. La programación estructurada anima al programador a pensar sobre todo en
términos de procedimientos o funciones, y en segundo lugar en las estructuras de datos que esos
procedimientos manejan. En la programación estructurada sólo se escriben funciones que procesan datos.
Los programadores que emplean éste nuevo paradigma, en cambio, primero definen objetos para luego
enviarles mensajes solicitándoles que realicen sus métodos por sí mismos.
Origen
Los conceptos de la programación orientada a objetos tienen origen en Simula 67, un lenguaje diseñado
para hacer simulaciones, creado por Ole-Johan Dahl y Kristen Nygaard del Centro de Cómputo Noruego en
Oslo. Al parecer, en este centro, trabajaban en simulaciones de naves, y fueron confundidos por la explosión
combinatoria de cómo las diversas cualidades de diversas naves podían afectar unas a las otras. La idea
ocurrió para agrupar los diversos tipos de naves en diversas clases de objetos, siendo responsable cada
clase de objetos de definir sus propios datos y comportamiento. Fueron refinados más tarde en Smalltalk,
que fue desarrollado en Simula en Xerox PARC (y cuya primera versión fue escrita sobre Basic) pero
diseñado para ser un sistema completamente dinámico en el cual los objetos se podrían crear y modificar
"en marcha" en lugar de tener un sistema basado en programas estáticos.
La programación orientada a objetos tomó posición como el estilo de programación dominante a mediados
de los años ochenta, en gran parte debido a la influencia de C++, una extensión del lenguaje de
Muchos de estos lenguajes de programación no son puramente orientados a objetos, sino que son híbridos
que combinan la POO con otros paradigmas.
Al igual que C++ otros lenguajes, como OOCOBOL, OOLISP, OOPROLOG y Object REXX, han sido
creados añadiendo extensiones orientadas a objetos a un lenguaje de programación clásico.
Un nuevo paso en la abstracción de paradigmas de programación es la Programación Orientada a Aspectos
(POA). Aunque es todavía una metodología en estado de maduración, cada vez atrae a más investigadores
e incluso proyectos comerciales en todo el mundo.