Vous êtes sur la page 1sur 8

_ SEP DGEST

INSTITUTO TECNOLÓGICO DE ACAPULCO

INGENIERIA EN SISTEMAS COMPUTACIONALES

MATERIA:
COMPUTO DISTRIBUIDO

TEMA
1.3 DEFINICÓN DE DESEMPEÑO EN LOS SISTEMAS

PROFESOR:
ÚRZUA OSORIO DAGOBERTO

INTEGRANTES:

GÓMEZ URBANO JESUS 14320976


JIMENEZ ROLDÁN XAVIER SALVADOR 14321000
LEYVA SALMERÓN RONALD OSVALDO 14321002

GRUPO: IS1 AULA: 7LR

ACAPULCO, GRO. AGOSTO DEL 2018.


INDICE GENERAL

AUTOR N#1 ............................................................................................................ 3


AUTOR N#2 ............................................................................................................ 6
AUTOR N#3 ............................................................................................................ 7
REFERENCIAS BIBLIOGRAFICAS ........................................................................ 8

Página | 2
AUTOR N#1

Se pueden utilizar diversas métricas del desempeño. El tiempo de respuesta es una


de ellas, pero también lo son el rendimiento (número de trabajos por hora), uso del
sistema y cantidad consumida de la capacidad de la red. Además, es frecuente que
el resultado de cualquier parámetro dependa de la naturaleza de éste. Un parámetro
relacionado con gran número de cálculos independientes pero con límites del
rastreo de un archivo de gran tamaño en búsqueda de un patrón.

El problema del desempeño se complica por el hecho de que la comunicación, factor


esencial en un sistema distribuido (y ausente en un sistema con un procesador) es
algo lenta por lo general.

El envío de un mensaje y la obtención de una respuesta en una LAN tardan cerca


de 1 smseg. La mayor parte de este tiempo se debe a un manejo inevitable del
protocolo en ambos extremos, más que el tiempo que pasan los bits en los cables.
Así, para optimizar el desempeño, con frecuencia hay que minimizar el número de
mensajes. La dificultas con esta estrategia es que la mejor forma de mejorar el
desempeño es tener muchas actividades en ejecución paralela en distintos
procesadores, pero esto requiere el envío de muchos mensajes. (Otra solución es
hacer todo el trabajo en una máquina, pero es poco apropiado para un sistema
distribuido).

Una posible salida es prestar atención al tamaño de grano de todos los cálculos. El
desarrollo de un cálculo pequeño de manera remota, como la suma de dos enteros,
rara vez vale la pena, puesto que el costo excesivo de la comunicación excede los
ciclos adicionales de CPU ganados.

Por otro lado, la ejecución remota de un trabajo de cálculo con límites de cómputo
puede convertirse en un problema. En general, los trabajo que implican gran número
de pequeños cálculos, en particular aquellos que interactúan en gran medida con
otros, puede ser la causa de algunos problemas en los sistemas distribuidos con
una comunicación lenta en términos relativos. Se dice que tales trabajos exhiben un
Página | 3
paralelismo de grano fino. Por otro lado, los trabajos que implican grandes cálculos
y bajas tasas de interacción, así como pocos datos, es decir, paralelismo de grano
grueso, pueden ajustarse mejor a este modelo.

La tolerancia de fallas también tiene su precio. A veces, una buena confiabilidad se


logra mejor con varios servidores que cooperen en forma cercana a una solicitud.
Por ejemplo, si una solicitud llega a un servidor, éste podría enviar de manera
inmediata una copia del mensaje a uno de sus colegas, de forma que si falla antes
de terminar, el colega se pueda encargar de ella. Es natural que si concluye, debe
informar al colega que ha terminado el trabajo, lo que representa otro mensaje. Así,
tenemos al menos dos mensajes adicionales, que en el caso normal, cuestan tiempo
y capacidad de la red y no producen una ganancia notable.

Tamaño de grano.

Existen dos tamaños de grano para los cálculos, estos son:

 Paralelismo de grano fino.


 Paralelismo de grano grueso.

El paralelismo de grano fino: corresponde a trabajos con un gran número de


pequeños cálculos y mucha interacción con otros trabajos, debido a ello requieren
mucha comunicación, que puede afectar al desempeño.

El paralelismo de grano grueso: corresponde a trabajos con grandes cálculos,


poca interacción y pocos datos, por lo tanto requieren poca comunicación y no
afectan la performance.

Los sistemas distribuidos constan de CPU autónomos que funcionan juntos para
que todo el sistema parezca como una computadora. Tienen varios puntos
favorables potenciales, como buena proporción precio/desempeño, se pueden
ajustar bien a las aplicaciones distribuidas, pueden ser muy confiables y pueden
aumentar su tamaño de forma gradual al aumentar la carga de trabajo.

Página | 4
También tiene ciertas desventajas, como el hacer el software más complejo,
potenciales cuellos de botella en la comunicación y una seguridad débil.

El software para los sistemas con varios CPU se puede dividir en tres clases. Los
sistemas operativos de red permiten a los usuarios en estaciones de trabajo
independientes la comunicación por medio de un sistema compartido de archivos,
pero dejan que cada usuario domine su propia estación de trabajo. Los sistemas
operativos distribuidos convierten toda la colección de hardware y software en un
sistema integrado, muy parecido a un sistema tradicional del tiempo compartido.
Los multiprocesadores con memoria compartida también ofrecen la imagen de único
sistema, pero lo hacen mediante la vía de centralizar todo, por lo que en realidad,
este caso es un sistema. Los multiprocesadores con memoria compartida no son
sistemas distribuidos.

Página | 5
AUTOR N#2

Aunque el alto rendimiento no es el objetivo principal de utilizar un distribuido


sistema, lograr un buen rendimiento es importante. En grandes sistemas
distribuidos, latencia de la red (tiempos de propagación y transmisión) y el acceso
a redes compartidas los recursos pueden generar grandes retrasos que deben
minimizarse. El tiempo de respuesta es muy importante para un usuario promedio.
Los siguientes son algunos ejemplos de los problemas que surgen al determinar el
desempeño

 Métricas Las métricas apropiadas deben definirse o identificarse para medir


el rendimiento de los algoritmos distribuidos teóricos, así como para
implementaciones de tales algoritmos. El primero involucraría varias medidas
de complejidad en las métricas, mientras que las últimas implicarían
varios sistemas y métricas estadísticas.

 Métodos / herramientas de medición Como un sistema distribuido real es un


complejo entidad y debe ocuparse de todas las dificultades que surgen al
medir rendimiento a través de una WAN / Internet, metodologías apropiadas
y se deben desarrollar herramientas para medir las métricas de rendimiento.

Página | 6
AUTOR N#3

Los cluster son creados para sustentar alto desempeño sobre un único problema,
proveer alta tasa de salida para un conjunto de aplicaciones diferentes (throughput),
mantener alta disponibilidad de los nodos y permitir alto acceso a los discos y
canales de entrada y salida [MEREDITH, 2003]. Por lo tanto, existen algunas
variables que afectan las características esenciales de los cluster, las cuales se
encuentran directamente ligadas al rendimiento que un cluster puede presentar o a
la forma en que trabaja éste.

Se pueden mencionar las siguientes:

 Migración de procesos: se realiza para equilibrar la carga de trabajo de los


nodos de un cluster.
 Latencia de red: es la cantidad de tiempo que tarda una transferencia de
datos de un punto de la red a otro.
 Balanceo de carga: es el proceso mediante el cual se intenta reducir la
diferencia de carga entre pares de nodos, migrando procesos desde los
nodos más cargados hacia los menos cargados.
 Gestión de memoria: esta variable intenta disponer el máximo número de
procesos en la RAM del sistema con el fin de evitar el intercambio de
procesos.
 Monitorización: proporciona información sobre el comportamiento de
aplicaciones en tres niveles: secuenciales paramétricas, paralelas
intracluster y paralelas intercluster.

Página | 7
REFERENCIAS BIBLIOGRAFICAS

[1] Andrew S. Tanenbaum, Sistemas Operativos Distribuidos, Prentice Hall, Primera


Edición

[2] Ajay D.Skemkalyani y Mukesh Singhal. “Distributed Principles, Algorithms and


Systems Computing. Cambridge University Press 2008

[3] Andrea Mesa Munera, Método Para El Manejo Del Balanceo De Carga En
Sistemas De Cómputo Distribuido De Alto Desempeño, Universidad Nacional De
Colombia Sede Medellín Facultad De Minas Escuela De Sistemas Medellín, 2009

Página | 8