Vous êtes sur la page 1sur 10

UNIVERSIDAD DE LAS AMERICAS

FACULTAD: TECNOLOGIA REDES Y TELECOMUNICACIONES


NOMBRE: SANDOVAL ALVEAR CHRISTIAN JOSE Nº302969
TEMA: ALGORITMOS
FECHA: Jueves, 19 de Agosto del 2010

E l a l g o r i t m o de Eu c l i des

Un algoritmo es una secuencia de pasos para conseguir un

resultado.

El algoritmo de Euclides es un procedimiento para calcular el

m.c.d. de dos números. Los pasos son:

1. Se divide el número mayor entre el menor.

2. Si:

1. La división es exacta, el divisor es el m.c.d.

2. La división no es exacta, dividimos el divisor entre el resto


obtenido y se continúa de esta forma hasta obtener una división

exacta, siendo el último divisor el m.c.d.

m. c. d. (72, 16)
Teorema de Pitágoras

El Teorema de Pitágoras establece que en un triángulo rectángulo el cuadrado de la


longitud de la hipotenusa (el lado de mayor longitud del triángulo rectángulo) es igual a
la suma de los cuadrados de las longitudes de los dos catetos (los dos lados menores del
triángulo rectángulo: los que conforman el ángulo recto). Si un triángulo rectángulo
tiene catetos de longitudes y , y la medida de la hipotenusa es , se establece que:

El Teorema de Pitágoras lleva este nombre porque su descubrimiento recae sobre la


escuela pitagórica. Anteriormente, en Mesopotamia y el Antiguo Egipto se conocían
ternas de valores que se correspondían con los lados de un triángulo rectángulo, y se
utilizaban para resolver problemas referentes a los citados triángulos, tal como se indica
en algunas tablillas y papiros, pero no ha perdurado ningún documento que exponga
teóricamente su relación. La pirámide de Kefrén, datada en el siglo XXVI a. C., fue la
primera gran pirámide que se construyó basándose en el llamado triángulo sagrado
egipcio, de proporciones 3-4-5.
Algoritmo de la división

En la aritmética el algoritmo de la división, también para cualesquiera enteros D y


d, con d no nulo, existen enteros únicos c y r, llamados cociente y residuo
respectivamente, tales que
y .
El algoritmo de la división es comúnmente representado con una figura
similar a

Por ejemplo

lo que significa que , y además es claro que


.
Por el algoritmo de la división se deduce que es un dominio euclídeo
tomando como norma el valor absoluto. Una consecuencia inmediata del
algoritmo de la división es que puede usarse el algoritmo de Euclides para
calcular el máximo común divisor de dos números enteros.
Un concepto que generaliza el algoritmo de la división es el de norma
euclídea. De este modo cualquier dominio euclídeo cumple con un principio
similar al algoritmo de la división, como es el caso, por ejemplo, de un anillo de
polinomios en que es un cuerpo.

[editar] Ejemplos

otros
Algoritmo de Prim

El algoritmo de Prim es un algoritmo perteneciente a la teoría de los grafos para


encontrar un árbol recubridor mínimo en un grafo conexo, no dirigido y cuyas
aristas están etiquetadas.
En otras palabras, el algoritmo encuentra un subconjunto de aristas que forman un
árbol con todos los vértices, donde el peso total de todas las aristas en el árbol es
el mínimo posible. Si el grafo no es conexo, entonces el algoritmo encontrará el
árbol recubridor mínimo para uno de los componentes conexos que forman dicho
grafo no conexo.
El algoritmo fue diseñado en 1930 por el matemático Vojtech Jarnik y luego de
manera independiente por el científico computacional Robert C. Prim en 1957 y
redescubierto por Dijkstra en 1959. Por esta razón, el algoritmo es también
conocido como algoritmo DJP o algoritmo de Jarnik.

Descripción conceptual
El algoritmo incrementa continuamente el tamaño de un árbol, comenzando por
un vértice inicial al que se le van agregando sucesivamente vértices cuya distancia
a los anteriores es mínima. Esto significa que en cada paso, las aristas a
considerar son aquellas que inciden en vértices que ya pertenecen al árbol.
El árbol recubridor mínimo está completamente construido cuando no quedan
más vértices por agregar.
El algoritmo de Dijkstra

El algoritmo de Dijkstra, también llamado algoritmo de caminos mínimos, es un


algoritmo para la determinación del camino más corto dado un vértice origen al resto de
vértices en un grafo dirigido y con pesos en cada arista. Su nombre se refiere a Edsger
Dijkstra, quien lo describió por primera vez en 1959.

La idea subyacente en este algoritmo consiste en ir explorando todos los caminos más
cortos que parten del vértice origen y que llevan a todos los demás vértices; cuando se
obtiene el camino más corto desde el vértice origen, al resto de vértices que componen
el grafo, el algoritmo se detiene. El algoritmo es una especialización de la búsqueda de
costo uniforme, y como tal, no funciona en grafos con aristas de costo negativo (al
elegir siempre el nodo con distancia menor, pueden quedar excluidos de la búsqueda
nodos que en próximas iteraciones bajarían el costo general del camino al pasar por una
arista con costo negativo).

1. Inicializar todas las distancias en D con un valor infinito relativo ya que son
desconocidas al principio, exceptuando la de x que se debe colocar en 0 debido a
que la distancia de x a x sería 0.
2. Sea a = x (tomamos a como nodo actual).
3. Recorremos todos los nodos adyacentes de a, excepto los nodos marcados,
llamaremos a estos vi.
4. Si la distancia desde x hasta vi guardada en D es mayor que la distancia desde x
hasta a sumada a la distancia desde a hasta vi; esta se sustituye con la segunda
nombrada, esto es:
si (Di > Da + d(a, vi)) entonces Di = Da + d(a, vi)
El algoritmo de Kruskal

El algoritmo de Kruskal es un algoritmo de la teoría de grafos para encontrar un árbol


recubridor mínimo en un grafo conexo y ponderado. Es decir, busca un subconjunto de
aristas que, formando un árbol, incluyen todos los vértices y donde el valor total de
todas las aristas del árbol es el mínimo. Si el grafo no es conexo, entonces busca un
bosque expandido mínimo (un árbol expandido mínimo para cada componente conexa).
El algoritmo de Kruskal es un ejemplo de algoritmo voraz.

Un ejemplo de árbol expandido mínimo. Cada punto representa un vértice, el cual puede
ser un árbol por sí mismo. Se usa el Algoritmo para buscar las distancias más cortas
(árbol expandido) que conectan todos los puntos o vértices.

Funciona de la siguiente manera:

 se crea un bosque B (un conjunto de árboles), donde cada vértice del grafo es un
árbol separado
 se crea un conjunto C que contenga a todas las aristas del grafo
 mientras C es no vacío
o eliminar una arista de peso mínimo de C
o si esa arista conecta dos árboles diferentes se añade al bosque,
combinando los dos árboles en un solo árbol
o en caso contrario, se desecha la arista

Al acabar el algoritmo, el bosque tiene un solo componente, el cual forma un árbol de


expansión mínimo del grafo.

Este algoritmo fue publicado por primera vez en Proceedings of the American
Mathematical Society, pp. 48–50 en 1956, y fue escrito por
Algoritmo de cholesky
En matemáticas, la factorización o descomposición de Cholesky toma su nombre del
matemático André-Louis Cholesky, quien encontró que una matriz simétrica definida
positiva puede ser descompuesta como el producto de una matriz triangular inferior y la
traspuesta de la matriz triangular inferior. La matriz triangular inferior es el triángulo
de Cholesky de la matriz original positiva definida. El resultado de Cholesky ha sido
extendido a matrices con entradas complejas. Es una manera de resolver sistemas de
ecuaciones matriciales y se deriva de la factorización LU con una pequeña variación.

En general, si A es Hermitiana y definida positiva, entonces A puede ser descompuesta


como

donde L es una matriz triangular inferior con entradas diagonales estrictamente


positivas, y L* representa la conjugada traspuesta de L. Esta es la descomposición de
Cholesky.

La descomposición de Cholesky es única: dada una matriz Hermitiana positiva definida


A, hay una única matriz triangular inferior L con entradas diagonales estrictamente
positivas tales que A = LL*. El recíproco se tiene trivialmente: si A se puede escribir
como LL* para alguna matriz invertible L, triangular inferior o no, entonces A es
Hermitiana y definida positiva.

El requerimento de que L tenga entradas diagonales estrictamente positivas puede


extenderse para el caso de la descomposición en el caso de ser semidefinida positiva. La
proposición se lee ahora: una matriz cuadrada A tiene una descomposición de Cholesky
si y sólo si A es Hermitiana y semidefinida positiva. Las factorizaciones de Cholesky
para matrices semidefinidas positivas no son únicas en general.

En el caso especial que A es una matriz positiva definida simétrica con entradas reales,
L se puede asumir también con entradas reales. Una Matriz D diagonal con entradas
positivas en la diagonal, es factorizable como , donde es matriz
cuya diagonal consiste en la raíz cuadrada de cada elemento de D, que tomamos como
positivos. Así:

La factorización puede ser calculada directamente a través de las siguientes fórmulas


(en este caso realizamos la factorizacón superior A = UT * U):

para los elementos de la diagonal principal, y:


para el resto de los elementos. Donde uij son los
elementos de la matriz U.

Algoritmo de ordenamiento

En computación y matemáticas un algoritmo de ordenamiento recursivo es un


algoritmo que pone elementos de una lista o un vector en una secuencia dada por una
relación de orden, es decir, el resultado de salida ha de ser una permutación —o
reordenamiento— de la entrada que satisfaga la relación de orden dada. Las relaciones
de orden más usadas son el orden numérico y el orden lexicográfico. Ordenamientos
eficientes son importantes para optimizar el uso de otros algoritmos (como los de
búsqueda y fusión) que requieren listas ordenadas para una ejecución rápida. También
es útil para poner datos en forma canónica y para generar resultados legibles por
humanos.

Desde los comienzos de la computación, el problema del ordenamiento ha atraído gran


cantidad de investigación, tal vez debido a la complejidad de resolverlo eficientemente a
pesar de su planteamiento simple y familiar. Por ejemplo, BubbleSort fue analizado
desde 1956. Aunque muchos puedan considerarlo un problema resuelto, nuevos y útiles
algoritmos de ordenamiento se siguen inventado hasta el día de hoy (por ejemplo, el
ordenamiento de biblioteca se publicó por primera vez en el 2004). Los algoritmos de
ordenamiento son comunes en las clases introductorias a la computación, donde la
abundancia de algoritmos para el problema proporciona una gentil introducción a la
variedad de conceptos núcleo de los algoritmos, como notación de O mayúscula,
algoritmos divide y vencerás, estructuras de datos, análisis de los casos peor, mejor, y
promedio, y límites inferiores.
Método de Newton

En análisis numérico, el método de Newton (conocido también como el método de Newton-


Raphson o el método de Newton-Fourier) es un algoritmo eficiente para encontrar
aproximaciones de los ceros o raíces de una función real. También puede ser usado para
encontrar el máximo o mínimo de una función, encontrando los ceros de su primera derivada

El método de Newton-Raphson es un método abierto, en el sentido de que su


convergencia global no está garantizada. La única manera de alcanzar la convergencia
es seleccionar un valor inicial lo suficientemente cercano a la raíz buscada. Así, se ha de
comenzar la iteración con un valor razonablemente cercano al cero (denominado punto
de arranque o valor supuesto). La relativa cercanía del punto inicial a la raíz depende
mucho de la naturaleza de la propia función; si ésta presenta múltiples puntos de
inflexión o pendientes grandes en el entorno de la raíz, entonces las probabilidades de
que el algoritmo diverja aumentan, lo cual exige seleccionar un valor supuesto cercano a
la raíz. Una vez se ha hecho esto, el método linealiza la función por la recta tangente en
ese valor supuesto. La abscisa en el origen de dicha recta será, según el método, una
mejor aproximación de la raíz que el valor anterior. Se realizarán sucesivas iteraciones
hasta que el método haya convergido lo suficiente.

Sea f : [a, b] -> R función derivable definida en el intervalo real [a, b]. Empezamos con
un valor inicial x0 y definimos para cada número natural n

Donde f ' denota la derivada de f.


Nótese que el método descrito es de aplicación exclusiva para funciones de una sola
variable con forma analítica o implícita cognoscible. Existen variantes del método
aplicables a sistemas discretos que permiten estimar las raíces de la tendencia, así como
algoritmos que extienden el método de Newton a sistemas multivariables, sistemas de
ecuaciones, etc.

Vous aimerez peut-être aussi