You are on page 1of 16

REPUBLICA BOLIVARIANA DE VENEZUELA

UNIVERSIDAD ALEJANDRO DE HUMBOLDT


ARQUITECTURA DEL COMPUTADOR
PROFESOR: LUIS PIA
MULTIPROCESAMIENTO Y PROCESADORES EN PARALELO
INTEGRANTES:
DANIEL MARTINEZ 16.871.!
GABRIEL LOZANO 1!."".1"#
LUIS AVENDAO 1.$77.%8"

CARACAS $ DE SEPTIEMBRE DEL #1%.
INDICE
TITULO PAGINA
INTRODUCCION
PROCESADORES EN PARALELO $
PROCESAMIENTO EN PARALELO $
LIMITACIONES DE PROCESAMIENTO EN PARALELO %
TIPOS DE PARALELISMO %
TIPOS DE ARQUITECTURA 6
MULTIPROCESAMIENTO 8
MULTIPROCESO "
TIPO DE MULTIPROCESADORES "
TIPOS DEMULTIPROCESAMIENTO 1#
REQUISITOS SOFT&ARE PARA MULTIPROCESADORES 11
TIPOS DE SISTEMAS OPERATIVOS MULTIPROCESADORES 1
CONCLUSIONES 1$
BIBLIOGRAFIA 1%
1. INTRODUCCION
1 | P g i n a
Con la invencin del computador el ser humano siempre ha tenido la necesidad
de tener herramientas precisas, veloces, de bajo consumo, de bajo costo y con una gran
gama de aplicaciones, como en todo proceso de evolucin las primeras generaciones de
la arquitectura del computador se basaba en "bultos", en tubos de vaco, necesitaban un
sistema de rerigeracin muy costoso adems de ser grandes y pesadas, para poder
satisacer la necesidad de poder procesar inormacin de manera ms velo! se reali!aron
investigaciones tecnolgicas las cuales dieron lugar al invento de transistores, circuitos
integrados, chip de silicio y cientos de otros componentes electrnico adems de la
modiicacin del dise"o de la arquitectura del computador, creando as una arquitectura
de procesamiento en paralelo para procesar dos tareas simultneamente lo que dio lugar
al dise"o "#ultiproceso" que se basa en la utili!acin de varios microprocesadores en la
misma placa base para poder reali!ar dicha actividad esto dio paso al avance
tecnolgico que se puede observar en la actualidad con procesadores de marca $ntel que
poseen cuatro n%cleos sicos y & n%cleos lgicos debido a una programacin especial,
este es un claro ejemplo del avance de la arquitectura del computador, del
procesamiento en paralelo y el multiproceso, a continuacin se e'plicara detalladamente
en que consiste el Procesamiento en paralelo y el #ultiproceso a nivel de hard(are)
1. PROCESADORES EN PARALELO:
* | P g i n a
+l procesamiento en paralelo real nace apro'imadamente a principios del a"o
*,,- cuando los abricantes de procesadores para computadoras electrnicas y
personales $ntel Corporation y .dvanced #icro /evices 0.#/1 empe!aron a producir
procesadores de doble n%cleo que permitan dicho proceso)
2n Procesador /oble 3%cleo es un procesador que cuenta con * n%cleos
dierentes en la misma base, cada uno con su propia memoria Cache) Con esta
arquitectura se busca optimi!ar el desempe"o del sistema reduciendo los tiempos de
repuesta cuando se evitan los llamados cuellos de botella en el procesamiento de datos)
+n esta arquitectura ambos n%cleos trabajan de manera simultnea, tanto en el
mismo trabajo, como en tareas completamente dierentes, sin que el rendimiento de uno
se vea aectado por el rendimiento del otro) Con ello se consigue elevar la velocidad de
ejecucin de las aplicaciones inormticas, sin que por ello la temperatura del equipo
inormtico se eleve en demasiado moderando as el consumo de recursos)

.ntes de esta etapa el proceso se reali!aba de manera virtual, es decir se emulaba el
recurso de dos n%cleos mediante unciones desde el sistema operativo a trav4s del disco
duro)
1.1. PROCESAMIENTO EN PARALELO
+l procesamiento en paralelo es empleado para acelerar el tiempo de ejecucin
de un programa dividi4ndolo en m%ltiples partes que se ejecutarn al mismo tiempo,
cada uno en sus propios procesadores)
+l procesamiento paralelo requiere una t4cnica por la que los conjuntos de datos
complejos se dividen en hilos individuales y se procesan simultneamente por uno o
ms n%cleos) +n sistemas operativos, un hilo de ejecucin es la unidad de
procesamiento ms peque"a que puede ser planiicada por un sistema operativo) 2n hilo
es simplemente una tarea que puede ser ejecutada al mismo tiempo con otra tarea)
5anto .#/ como $ntel han incorporado esta t4cnica conocida como 65 06yper7
5reading1 para aumentar mucho la velocidad a la que uncionan)
+sta tecnologa consiste en simular dos procesadores no lgicos dentro de un
%nico procesador) +l resultado es una mejora en el rendimiento del procesador, puesto
que al simular dos procesadores se pueden aprovechar mejor las unidades de clculo
manteni4ndolas ocupadas durante un porcentaje mayor de tiempo) +sto conlleva una
mejora en la velocidad de las aplicaciones que seg%n $ntel es apro'imadamente de un
8,9
+jemplo de procesadores $ntel con 655:
$ntel Core i; .rrandale $ntel Core i- <andy =ridge
$ntel Core i; <andy =ridge $ntel Core i> .rrandale
$ntel Core i- .rrandale $ntel Core i> <andy =ridge
$ntel Core i- $vy =ridge $ntel Core i> +'treme +dition
1.. LIMITACONES DEL PROCESAMIENTO EN PARALELO
; | P g i n a
+s necesario que dichos procesos sean independientes entre s) +sto, sin
embargo, no siempre es as, debido a la e'istencia de dependencias entre los procesos,
estas dependencias pueden adquirir dierentes ormas como se ver a continuacin:
a) D'(')*')+,- *' *-./0: se reiere a situaciones en que el orden en que se
obtienen los datos marca el orden de ejecucin de los procesos) ?os tipos de
dependencias de datos son los siguientes
b) D'(')*')+,-0 *' 1234/: 2n proceso llamado "P*" es dependiente por lujo de
otro proceso llamado "P1"@ si "P*" sigue en el orden de programa a "P1", y una
salida del proceso "P1" se utili!a como entrada en el proceso "P*"
c) A)., *'(')*')+,-0: 2n proceso "P*" es anti dependiente de otro proceso "P1",
si "P*" sigue en el programa a "P1" y una salida de "P*" se utili!a como entrada
en "P1"
d) D'(')*')+,-0 *' 0-2,*-: dos procesos son dependientes por la salida si se
escriben en la misma variable
e) D'(')*')+,-0 D'0+/)/+,*-0: +'isten situaciones en que hay un peligro
de dependencias de datos, pero no es posible conocerlas antes de la ejecucin)
2n ejemplo de este tipo de casos son las instrucciones que aectan a variables
cuyos subndices estn a su ve!, su inde'ados
) D'(')*')+,-0 *' +/).5/2: estas dependencias se producen cuando el orden de
ejecucin de los procesos no se puede conocer hasta el momento de la ejecucin)
+sto aecta a la ejecucin de instrucciones o procedimientos aectados por
instrucciones condicionales
g) D'(')*')+,-0 *' 5'+350/0: este tipo de dependencias se deben a conlictos en
el uso de recursos compartidos, estos recursos pueden ser recursos de
almacenamiento, tales como reas de memoria compartida, recursos de
ejecucin, como unidades aritm4ticas, etc)
1.$. TIPOS DE PARALELISMO
+l paralelismo puede ser ms o menos transparente al sot(are que se ejecuta en
el procesador) <i el paralelismo es totalmente transparente al sot(are diremos de
hablaremos de paralelismo implcito, en caso contrario, estaremos ante un paralelismo
e'plcito) +n otras palabras, el paralelismo implcito queda dentro del procesador, no
trasciende al e'terior y por tanto n o aecta la programacin) +l %nico eecto e'terior
que puede apreciarse en un procesador con paralelismo implcito es un incremento de la
velocidad de procesamiento
1.$.1. P-5-2'2,06/ I6(27+,./:
A | P g i n a
?as ormas ms habituales de llevar a la prctica el paralelismo implcito son la
segmentacin y divisin uncional:
a) ?as .rquitecturas segmentadas: 0tambi4n denominadas "pipe7lines"1 avorecen el
encadenamiento del proceso de ejecucin de las instrucciones, siendo un caso de
paralelismo a nivel intrainstruccion) ?a segmentacin divide a la uncin a reali!ar en
una serie de subsunciones que se pueden ejecutar de orma independiente) <e dise"an
unidades uncionales separadas para a ejecucin de cada una de las subsunciones, de
esta orma, se conigura una cadena por la que van pasando las unciones a procesar)
?as dierentes subsunciones pueden simultanearse en el tiempo, aunque sobre dierentes
datos, de la misma orma que se simultanean los dierentes pasos de una abricacin en
cadena
8. L- *,9,0,:) 13)+,/)-2: consiste en utili!ar m%ltiples unidades uncionales,
normalmente de tipo aritmetico7logico) /e esta orma, sera posible ejecutar varias
instrucciones al mismo tiempo 0paralelismo a nivel de instruccin1
1.$.. P-5-2'2,06/ E;(2,+,./:
?os sistemas con paralelismo e'plicito disponen de multiprocesadores, o
elementos de proceso, lo que hace necesario que sea el sot(are del sistema quien
decida que instruccin debe ejecutarse en cada uno) .tendiendo a la multiplicidad de
sucesos simultneos que ocurren en los componentes de los sistemas de computadores,
estos pueden tener dierentes organi!aciones seg%n la clasiicacin de B?C33 01D881
-. SISD: Blujo de instrucciones y lujo %nico de datos 0<ingle instruccin lor,
single data lo(1, estos sistemas son monoprocesadores convencionales con arquitectura
de Eon 3eumann) ?a %nica posibilidad de eectuar paralelismo en este tipo de mquinas
seria el paralelismo implcito)
8. SIMD: Blujo %nico de instrucciones y Blujo m%ltiple de datos 0single instruction
lo(, multiple tiple data lo(1, en los sistemas con esta organi!acin varios
procesadores ejecutan simultneamente la misma instruccin, transmitida a trav4s del
lujo de instrucciones, sin embargo, cada procesador ejecuta esa instruccin sobre datos
dierentes, que circulan por diversos lujos de datos, este tipo de sistemas se conocen
como procesadores matriciales 0array Processors1 y son %tiles en aplicaciones donde es
necesario repetir la misma operacin sobre datos dierentes
+. MISD: Blujo multiple de instrucciones y lujo %nico de datos1 multiple
instruction lo(, single data lo(1, esta organi!acin se caracteri!a por tener
procesadores con unidades de control independientes que ejecutan dierentes lujos de
instrucciones, sobre le misma lujo de datos)
*. MIMD: Blujo multiple de instrucciones y lujo multiple de datos 0multiple
instruction lo(, multiple data lo(1 en este tipo de sistema e'isten "3" procesadores
- | P g i n a
que, de orma simultnea, ejecutan instrucciones procedentes de los lujos "B$1)))) B$n"
.ctuando, cada procesador, sobre cada uno de los dierentes lujos de datos, esto
permite ejecutar concurrentemente varias instrucciones de un algoritmo paraleli!able,
procesar simultneamente varios procedimientos independientes de un mismo proceso,
procesar concurrentemente procesos independientes
'. S,0.'6-0 F3'5.'6').' A+/(2-*/0: estos sistemas disponen de una memoria
central a la que acceden todos los procesadores, este tipo de sistemas tambi4n se
denominan sistemas con memoria compartida o multiprocesadores .l e'istir una
memoria com%n, es necesaria una programacin muy cuidadosa) +sto es debido a que la
comparticin de la memoria puede provocar iteraciones no deseadas entre los
programas que se ejecuten en los dierentes elementos del proceso)
1. S,0.'6-0 *<8,26').' A+/(2-*/0: en esta clase de sistemas, cada uno de los
elementos de proceso dispone de una memoria local en que almacena sus datos, estos
sistemas en el ondo no son otra cosa que redes de computadores por lo que tambi4n se
le llaman multicomputadores)
1.%. TIPOS DE ARQUITECTURA DE PROCESAMIENTOS EN PARALELO
#ultiprocesamiento sim4trico
Procesamiento masivamente paralelo
Procesamiento paralelo escalable
Cada dise"o tiene sus propias ventajas y desventajas)
1.%.1. MULTIPROCESAMIENTO SIMETRICO
+l M32.,(5/+'0-6,')./ 0,6<.5,+/ 00=66'.5,+ 632.,(5/+'00,)> F SMP1 tiene
un dise"o simple pero a%n as eectivo) +n <#P, multiples procesadores comparten la
memoria G.# y el bus del sistema) +ste dise"o es tambi4n conocido
como '0.5'+?-6').' -+/(2-*/ 0.,>?.2= +/3(2'*1, o +/6(-5.,')*/ ./*/ 00?-5'*
'9'5=.?,)>1)
8 | P g i n a
/ebido a que <#P comparte globalmente la memoria G.#, tiene solamente un
espacio de memoria, lo que simpliica tanto el sistema sico como la programacin de
aplicaciones) +ste espacio de memoria %nico permite que un S,0.'6- O('5-.,9/ +/)
M32.,+/)';,:) 0multithreaded operating system1 distribuya las tareas entre varios
procesadores, o permite que una aplicacin obtenga la memoria que necesita para una
simulacin compleja) ?a memoria globalmente compartida tambi4n vuelve cil la
sincroni!acin de los datos)
1.%.. PROCESAMIENTO MASIVAMENTE PARALELO MPP1
+s otro dise"o de procesamiento paralelo) Para evitar los cuellos de botella en el
bus de memoria, #PP no utili!a memoria compartida) +n su lugar, distribuye la
memoria G.# entre los procesadores de modo que se semeja a una red 0cada
procesador con su memoria distribuida asociada es similar a un computador dentro de
una red de procesamiento distribuido1) /ebido a la distribucin dispersa de los recursos
G.#, esta arquitectura es tambi4n conocida como *,0('50-6').' -+/(2-*- 02//0'2=
+/3(2'*1, o +/6(-5.,')*/ )-*- 00?-5'* )/.?,)>1)
Para tener acceso a la memoria uera de su propia G.#, los procesadores
utili!an un esquema de (-0/ *' 6')0-4'0 anlogo a los (-@3'.'0 *' *-./0 en redes)
+ste sistema reduce el trico del bus, debido a que cada seccin de memoria observa
%nicamente aquellos accesos que le estn destinados, en lugar de observar todos los
accesos, como ocurre en un sistema <#P) Hnicamente cuando un procesador no dispone
de la memoria G.# suiciente, utili!a la memoria G.# sobrante de los otros
procesadores) +sto permite sistemas #PP de gran tama"o con cientos y a%n miles de
procesadores) #PP es una tecnologa escalable)
+scribir una aplicacin #PP tambi4n requiere estar al tanto de la organi!acin
de la memoria manejada por el programa) /onde sea necesario, se requieren insertar
comandos de paso de mensajes dentro del cdigo del programa) .dems de complicar el
dise"o del programa, tales comandos pueden crear dependencias de hard(are en las
aplicaciones) <in embargo, la mayor parte de vendedores de computadores han
salvaguardado la portabilidad de las aplicaciones adoptando, sea un mecanismo de
dominio p%blico para paso de mensajes conocido como MA@3,)- 9,5.3-2
(-5-2'2- 0(-5-22'2 9,5.3-2 6-+?,)' F PVM1, o un estndar en ase de desarrollo
llamado I).'51-B *' P-0/ *' M')0-4'0 0M'00->' P-00,)> I).'51-+' F MPI1, para
implementar el mecanismo de paso de mensajes)
1.%.$. PROCESAMIENTO PARALELO ESCALABLE
+s un hbrido de <#P y #PP, que utili!a una memoria jerrquica de dos niveles
para alcan!ar la escalabilidad) ?a primera capa de memoria consiste de un nodo que es
esencialmente un sistema <#P completo, con m%ltiples procesadores y su memoria
globalmente compartida) <e construyen sistemas <PP grandes interconectando dos o
> | P g i n a
ms nodos a trav4s de la segunda capa de memoria, de modo que esta capa aparece
lgicamente, ante los nodos, como una memoria global compartida)
?a memoria de dos niveles reduce el trico de bus debido a que solamente
ocurren actuali!aciones para mantener coherencia de memoria) Por tanto, <PP orece
acilidad de programacin del modelo <#P, a la ve! que provee una escalabilidad
similar a la de un dise"o #PP)
. MULTPROCESAMIENTO
<e denomina 632.,(5/+'0-*/5 a un computador que cuenta con dos o
ms microprocesadores 0CP2s1) Iracias a esto, el multiprocesador puede ejecutar
simultneamente varios hilos pertenecientes a un mismo proceso o bien a procesos
dierentes) ?os ordenadores multiprocesador presentan problemas de dise"o que no
se encuentran en ordenadores monoprocesador) +stos problemas derivan del hecho de
que dosprogramas pueden ejecutarse simultneamente y, potencialmente, pueden
intererirse entre s) Concretamente, en lo que se reiere a las lecturas y escrituras en
memoria) +'isten dos arquitecturas que resuelven estos problemas:
?a arquitectura 32#., donde cada procesador tiene acceso y control e'clusivo
a una parte de la memoria)
?a arquitectura <#P, donde todos los procesadores comparten toda la memoria)
+sta %ltima debe lidiar con el problema de la +/?'5')+,- *' +-+?<) Cada
microprocesador cuenta con su propia memoria cache local) /e manera que cuando un
microprocesador escribe en una direccin de memoria, lo hace %nicamente sobre su
copia local en cach4) <i otro microprocesador tiene almacenada la misma direccin de
memoria en su cach4, resultar que trabaja con una copia obsoleta del dato almacenado)
Para que un multiprocesador opere correctamente necesita un sistema
operativo especialmente dise"ado para ello) ?a mayora de los sistemas operativos
actuales poseen esta capacidad)
& | P g i n a
+n la actualidad se puede considerar que todas las computadoras modernas son
de hecho mquinas con m%ltiples procesadores) /e estos, los ms comunes y %tiles son
los procesadores de los dispositivos de almacenamiento, dispositivos multimedia y de
videoFsonido, as como peri4ricos como el teclado y aparatos 2<=) 5odos ellos son
capaces de llevar a cabo transerencias de datos entre s o entre ellos y la memoria G.#
sin intervencin alguna del procesador central, lo cual resulta en capacidad de
procesamiento rpido mejorada)
Pero cuando se habla de m%ltiples procesadores es ms com%n el estarse
reiriendo a una mquina que posea ms de un procesador central) . estas computadoras
se les llama #ulti7core)
.1. MULTIPROCESO
+s tradicionalmente conocido como el uso de m%ltiples procesos concurrentes en
un sistema en lugar de un %nico proceso en un instante determinado) Como la multitarea
que permite a m%ltiples procesos compartir una %nica CP2, m%ltiples CP2s pueden ser
utili!ados para ejecutar m%ltiples hilos dentro de un %nico proceso) +l multiproceso para
tareas generales es, a menudo, bastante dicil de conseguir debido a que puede haber
varios programas manejando datos internos 0conocido como estado o conte'to1 a la ve!)
?os programas tpicamente se escriben asumiendo que sus datos son
incorruptibles) <in embargo, si otra copia del programa se ejecuta en otro procesador,
las dos copias pueden intererir entre s intentando ambas leer o escribir su estado al
mismo tiempo) Para evitar este problema se usa una variedad de t4cnicas de
programacin incluyendo semoros y otras comprobaciones y bloqueos que permiten a
una sola copia del programa cambiar de orma e'clusiva ciertos valores)
.. TIPOS DE MULTIPROCESADORES
-. MULTIPROCESADORES CON BASE EN BUSES
?os multiprocesadores con base en buses constan de cierta cantidad de CP2,
conectados a un bus com%n, junto con un mdulo de memoria) 2na coniguracin
sencilla consta de un plano de base de alta velocidad o tarjeta madre, en el cual se
pueden insertar las tarjetas de memoria y el CP2) 2n bus tpico tiene ;* o 8A lneas de
direcciones, ;* o 8A lneas de datos y ;* o ms lneas de control, todo lo cual opera en
paralelo) Para leer una palabra de memoria, un CP2 coloca la direccin de la palabra
deseada en las lneas de direcciones del bus y coloca una se"al en las lneas de control
adecuadas para indicar que desea leer) ?a memoria responde y coloca el valor de la
palabra en las lneas de datos para permitir la lectura de 4sta por parte del CP2
solicitante) ?a escritura unciona de manera similar)
D | P g i n a
8. MULTIPROCESADORES CON CONMUTADOR
Para construir un multiprocesador con ms de 8A procesadores, es necesario un
m4todo distinto par conectar cada CP2 con la memoria) 2na posibilidad es dividir la
memoria en mdulos y conectarlos a las CP2 con un conmutador de cruceta, cada CP2
y cada memoria tiene una cone'in que sale de 4l) +n cada interseccin est un delgado
conmutador de punto de cruce electrnico que el hard(are puede abrir y cerrar) Cuando
un CP2 desea tener acceso a una memoria particular, el conmutador del punto de cruce
que los conecta se cierra de manera momentnea, para permitir dicho acceso) ?a virtud
del conmutador de cruceta es que muchos CP2 pueden tener acceso a la memoria al
mismo tiempo, aunque si dos CP2 intentan tener acceso a la misma memoria en orma
simultnea, uno de ellos deber esperar)
+. MULTICOMPUTADORAS CON BASE EN BUSES
Por otro lado, la construccin de una multicomputadora es cil) Cada CP2 tiene
cone'in directa con su propia memoria local) +l %nico problema restante es la orma en
que los CP2 se comunicarn entre s) +s claro que aqu tambi4n se necesita cierto
esquema de intercone'in, pero como slo es para la comunicacin entre un CP2 y
otro, el volumen del trico ser de varios rdenes menor en relacin con el uso de una
red de intercone'in para el trico CP27memoria)
*. MULTICOMPUTADORAS CON CONMUTADOR
<e han propuesto y construido varias redes de intercone'in, pero todas tienen la
propiedad de que cada CP2 tiene acceso directo y e'clusivo a su propia memoria
particular) 6ay dos topologas populares, una retcula y un hipercubo) ?as retculas se
basan en las tarjetas de circuitos impresos) <e adecuan mejor a los problemas con
naturale!a bidimensional inherente, como la teora de gricas o la visin) 2n hipercubo
es un cubo n7dimensional) <e puede pensar como dos cubos ordinarios, cada uno de los
cuales cuenta con & v4rtices y 1* aristas) Cada v4rtice es un CP2) Cada arista es una
cone'in entre dos CP2) <e conectan los v4rtices correspondientes de cada uno de los
cubos)
.$. TIPOS DE MULTIPROCESAMIENTO
-. MULTIPROCESAMIENTO SIMCTRICO
#ultiproceso sim4trico, una de las ormas ms ciles y baratas de aumentar el
rendimiento del hard(are es poner ms de una CP2 en la placa) +sto se puede reali!ar
haciendo que CP2s dierentes tengan trabajos dierentes 0multiproceso asim4trico1 o
haciendo que todos se ejecuten en paralelo, reali!ando el mismo trabajo 0multiproceso
1, | P g i n a
sim4trico o <#P1) +l hacer multiproceso asim4trico requiere un conocimiento
especiali!ado sobre las tareas que la computadora debe ejecutar
b) ARQUITECTURA SMP DUMAE
?os multiprocesadores sim4tricos 0<ymmetric #ultiprocessor1 son ordenadores
con arquitectura de memoria compartida que presentan en la memoria principal un
acceso sim4trico desde cualquier procesador, es decir, el retardo en el acceso a cualquier
posicin de memoria es el mismo con independencia del procesador desde el que se
realice la operacin o tarea, dicha arquitectura es denominada como J.cceso 2niorma
a #emoriaK 02#.1 y se lleva a cabo con una memoria compartida pero centrali!ada)
+stos multiprocesadores dominan el volumen como el capital invertido) +sta
arquitectura a su ve! se encuentra dividida en:
c) ARQUITECTURA DSM DNUMAE.
?a memoria compartida distribuida o /<# es una abstraccin que se propone
como alternativa a la comunicacin por mensajes) ?os multiprocesadores de memoria
compartida y distribuida 0/<# o /istributed <hared #emory1, son ordenadores
#$#$/, en los cuales la memoria esta distribuida entre los nodos) 5omando en cuenta
que el espacio de direccionamiento es global, el acceso a memoria principal es
asim4trico) +sta arquitectura de memoria que se genera en retardo de acceso
dependiente tanto la posicin de memoria como el procesador se denomina .cceso 3o
2niorme a #emoria 032#.1, hace su aparicin cuando la memoria compartida esta
distribuida entre los nodos) /e esta manera, se mejora el retardo medio de acceso a
memoria, ya que en cada ordenador los accesos a posiciones de su memoria local
presentan un retardo sensiblemente inerior al caso en que es accedido a posiciones de
memoria en otros ordenadores
d) DMPM DMESSAGE PASSING MACHINESE.
L +spacio de direcciones de memoria distribuido)
L <on compatibles en hard(are a los 32#.)
L Cada procesador es un computador independiente del resto)
L Bcilmente escalable)
M +l mecanismo de comunicacin es a trav4s de mensajes 0igual que la comunicacin
entre procesos del <)N)1) 3o necesita mecanismos hard(are ni para controlar la
coherencia de cach4s 0pues son espacios distintos de direcciones1, ni para implementar
los accesos remotos)
M ?a red es la parte ms compleja de escalar)
.%. REQUISITOS SOFT&ARE PARA MULTIPROCESADORES
11 | P g i n a
2na de las preguntas bsicas que hay que discutir es: Oen qu4 se dierencian el
sot(are de los monoprocesadores de los multiprocesadoresP +'isten bsicamente dos
dierencias undamentales) +stas dierencias justiican que tanto el hard(are como el
sot(are de tales sistemas proporcionen acilidades dierentes tanto a un
monoprocesador multiprogramado y a procesadores m%ltiples) 2n monoprocesador
multiprogramado puede simular mediante t4cnicas de m%ltiples Jprocesadores
virtualesK@ sin embargo, los procesadores m%ltiples aumentan normalmente la cantidad
de sot(are de administracin que se debe dar)
.!. TIPO DE SISTEMAS OPERATIVOS MULTIPROCESADORES
+'isten ; tipos bsicos de sistemas operativos multiprocesadores:
<upervisores separados
#aestro F +sclavo
<im4trico
-. S3('59,0/5'0 0'(-5-*/0
+n estos sistemas operativos, cada procesador cuenta con un sistema operativo que
gestiona de orma local, la memoria, los dispositivos de entrada y salida, de tal orma
que cada procesador unciona como un sistema independiente y solo se deben a"adir
algunas estructuras de datos para permitir la comunicacin entre estos sistemas)
8. M-'0.5/ F '0+2-9/
5al y como su nombre lo indica, en este tipo de sistema operativo se designa un
procesador maestro en el que se encarga de ejecutar el sistema operativo, ejecutando los
trabajos de planiicacin, controlando a todos los procesadores esclavos) ?a ejecucin
de programas en paralelo es posible dado que el procesador maestro planiica y divide
las operaciones entre los procesadores esclavos,
+. S,6<.5,+/
+n este tipo de organi!acin todos los procesadores son uncionalmente identico,
es decir todos poseen acceso a todos los recursos del sistema, pero si por el contrario
topamos con que solo algunos pueden acceder a los recursos como los dispositivos de
entrada y salida entonces estamos hablando de un sistema asim4trico) +n los sistemas
sim4tricos cualquier procesador puede ejecutar el sistema operativo, logrando incluso
ejecutar el sistema operativo de orma paralela)
1* | P g i n a
CONCLUSIONES
+l procesamiento en serie era la mejor orma de procesar conjuntos de datos
hasta que las tecnologas hard(are y sot(are inalmente se combinaron y hicieron
posible el procesamiento paralelo) +l Proyecto del Ienoma 6umano tiene tres billones
de conjuntos de datos y se esperaba que tardara cerca de 1,, a"os en decodiicarse por
completo) <in embargo, casi toda la secuencia del ./3 del homo sapiens ha sido
decodiicada en slo 1; a"os, gracias a las redes masivas de supercomputadoras y al uso
del procesamiento paralelo)
#uchos desarrolladores han llevado el desarrollo del procesamiento paralelo
hacia el siguiente paso al crear redes de supercomputadoras potentes) +stas redes
trabajan al unsono a trav4s del uso de sot(are de controlador complicado que act%a
para dividir la programacin compleja y las ecuaciones a trav4s de la red y despu4s
recoge los datos totales) .lgunas de las supercomputadoras ms potentes ueron
inicialmente desarrollos militares o educativos, hasta el a"o *,,,, cuando los cl%sters
ms grandes ueron operados por compa"as de videojuegos para dar soporte a los
juegos en lnea multjugador masivos 0##NI1) +n *,,&, la red de supercomputacin
ms grande era del proyecto BoldingQhome, que consiste en varios millones de
Play<tation ; por todo el mundo)
1; | P g i n a
BIBLIOGRAFIA
Publicacion en linea .rquitecturas .van!adas http:FF((()inor)uva)esFRbastidaF.rquitecturas
9*,.van!adasFIeneral)pd Becha de consulta &FDF*,1A
.rquitecturas 0*,,D1 /comento en linea
https:FFdocs)google)comFdocumentFdF1SPnsi'oNT3eSd!33(Bt6s?+y-?,oT.bAUyCV8VUbIA
FeditPpliW1 Becha de consulta &FDF*,1A
Publicacin en lnea $ntel Processors
http:FF((()intel)laFcontentF(((F'lFesFprocessorsFcoreFcore7i>7processor)html Becha de consulta
&FD*,1A Becha de consulta 1,FDF*,1A
Publicacion en ?inea $ntel vs .#/ http:FF((()maestrosdel(eb)comFactualidadFintelamdF
Becha de consulta 11FDF*,1A
Publicacion en linea Nrdenadores *,1* http:FFordenador)(ing(it)comF6ard(areFram7cards7
motherboardsF-D-*D)htmlX)E=>5YSG-3-$ Becha de consulta 1-FDF*,1A
+nciclopedia en linea +cured Cores http:FF((()ecured)cuFinde')phpF/ualUCore Becha de
consulta 1-FDF*,1A
/ocumento en linea .rquitectura del Computador
http:FF((()rbb)utn)edu)arFhpcFlibFe'eFetch)phpPmediaW*,1;7,*7aquitecturas)pd Becha de
consulta 1-FDF*,1A
Publicacion en linea .rquitectura en Paralelo
http:FF((()elrinconcito)comFarticulosF.rquitecturaParalelaF.rquitecturaParalela)htm Becha de
consulta 1-FDF*,1A
Publicacion en linea Procesamiento secuencial y paralelo
http:FFsinapsis7aom)blogspot)comF*,11F,1Fprocesamiento7secuencial7y7paralelo)html Becha de
consulta 1-FDF*,1A
Publicacion en linea .rquitectura .van!ada
http:FF((()sites)upiicsa)ipn)m'FpolilibrosFportalFPolilibrosFPUterminadosFPolilibroBCF2nidadU$
EF2nidad9*,$EUA)htm Becha de consulta 1-FDF*,1A
Publicacion en linea Procesadores en paralelo
http:FF((()eho(enespanol)comFprocesadores7paralelos7series7sobreU1181&1F Becha de consulta
1-FDF*,1A
Publicacion en linea Paralelismo
http:FF((()mastermaga!ine)inoFterminoF8;&;)php Becha de consulta 1-FDF*,1A
1A | P g i n a
Publicacion en ?inea .rquitectura Paralela
http:FF((()monograias)comFtrabajos18Farquitectura7paralelaFarquitectura7paralela)shtml Becha
de consulta 1-FDF*,1A
1- | P g i n a

You might also like