Vous êtes sur la page 1sur 130

SISTEMAS LINEALES INCONSISTENTES

Y
AJUSTE DE REDES GPS

RAUL MARQUEZ

1
INDICE

página
Introducción …………………………………………………………………3-4

1.- Sistemas de Ecuaciones Lineales Inconsistentes …………………………..5

2.- Valores Propios y Vectores Propios ………………………………………15

3.- Forma Diagonal de una Matriz Simétrica bajo Equivalencia Ortogonal …18

4.- Descomposición en Valores Singulares …………………………………...28

5.- Mínimos Cuadrados Ponderados…………………………………………..33

6.- Ajuste de Redes GPS………………………………………………………43

- Ecuaciones de Observación para Componentes…………………………...47

- Ecuaciones de Observación para Distancias………………………………48

- Ecuaciones de Observación para Coordenadas……………………………49

- La matriz de los Pesos……………………………………………………..50

- La prueba Chi- Cuadrado………………………………………………….55

- Ajuste Libre y Vinculado………………………………………………….57

- La Red Optima…………………………………………………………….57

- Fiabilidad………………………………………………………………….62

- Control de Errores Groseros………………………………………………66

- Fiabilidad Interna…………………………………………………………71

- Fiabilidad Externa………………………………………………………...72

7.- Ajuste de una Red GPS Real……………………………………………75

8.- Diseño Satisfactorio de Redes GPS……………………………………..97

9.- Anexo…………………………………………………………………..107

Bibliografía…………………………………………………………………130

2
INTRODUCCION

El ajuste de las redes topogeodésicas y de las redes GPS en particular, requiere del
planteo y solución de sistemas lineales que presentan las siguientes características:

i) el número de ecuaciones supera al número de incógnitas


ii) el vector de los términos independientes no pertenece al espacio columna de
la matriz de coeficientes

En virtud de la característica i) estos sistemas lineales son superdeterminados, y por la


ii) son inconsistentes debido a los errores de observación que afectan al vector de
términos independientes, impidiéndole pertenecer al espacio columna de la matriz de
coeficientes.
La inconsistencia del sistema lineal, tiene como consecuencia la imposibilidad de hallar
una solución por los métodos clásicos (la eliminación gaussiana, por ejemplo). La
solución surge entonces de la aplicación del principio de los mínimos cuadrados de
Gauss, y se llama, precisamente, la solución mínimos cuadrados.
Si la red está vinculada a un número suficiente de constreñimientos externos, la
solución mínimos cuadrados es única, puesto que en ese caso no existe el defecto del
datum y tanto la matriz de coeficientes como la matriz normal resultan de rango
completo. Por el contrario, si la red es libre, el defecto del datum da lugar a que ambas
matrices sean defectuosas de rango y, en consecuencia, existan infinitas soluciones
mínimos cuadrados.
En la sección 1, “sistemas de ecuaciones lineales inconsistentes”, se presenta un método
para hallar la solución óptima; es decir la solución mínimos- cuadrados y mínima-
norma, que se obtiene como la proyección de una solución particular sobre el espacio
fila de la matriz normal. Si bien este método tiene valor teórico, no resulta práctico para
programarlo en una computadora.
La sección 2 está dedicada al estudio de ciertas propiedades de los “valores propios y
vectores propios” de las matrices simétricas.
En la sección 3, se describe “la forma diagonal de una matriz simétrica bajo
equivalencia ortogonal”, que conduce a la pseudoinversa de Moore-Penrose. La
pseudoinversa en cuestión permite hallar la solución óptima en forma directa cual si
fuera una regla práctica, tanto en los casos de rango completo como en los de
deficiencia de rango. La pseudoinversa de Moore-Penrose se construye a partir de los
valores propios y los vectores propios de la matriz normal.
En la sección 4 aparece la “descomposición en valores singulares” y su relación con la
forma diagonal bajo equivalencia ortogonal.
La sección 5 se dedica al caso de “los mínimos cuadrados ponderados”, ligados
íntimamente al ajuste de las redes topogeodésicas. La aplicación de la ley general de la
propagación de la varianza-covarianza, da lugar a la estimación de los errores estándar
de las incógnitas ajustadas y sus correlaciones.
En la sección 6, se describe el planteo de las ecuaciones de observación en el “ajuste de
redes GPS” y la solución del correspondiente sistema lineal inconsistente, mediante la
aplicación de los métodos presentados en las secciones anteriores. Se incluye también,
el concepto de la red óptima, conjuntamente con la fiabilidad interna y externa de redes,
delineando la teoría de Baarda.
Se presenta un criterio para escalar la matriz varianza-covarianza de las componentes de
un vector GPS, a fin de lograr que la matriz de los pesos se compatible con los errores
estándar especificados de las distancias o líneas base.

3
La varianza a posteriori, se somete a la prueba chi-cuadrado para calificar la corrección
del ajuste.
Las elipses de error absolutas, una horizontal y dos verticales, referidas al sistema
geodésico horizontal local centrado en cada estación, son una medida del error de
posicionamiento puntual.
Finalmente, en la sección 7 se presentan los ajustes libre y vinculado de “una red GPS
real”, medida en el departamento Iglesia de la provincia de San Juan por investigadores
de la UNLP. Los datos se procesaron con la aplicación MATLAB, REDGPS_ALV,
desarrollada en base a los algoritmos y métodos de las secciones anteriores.
En la sección 8 se muestran los aspectos fundamentales del diseño satisfactorio de redes
GPS, mediante el método “prueba y error” asistido por computadora. El procedimiento
del diseño satisfactorio, se lleva a cabo con la aplicación MATLAB, REDGPS_DNC1,
desarrollada a tal efecto.
En la sección 9, Anexo, se muestra el listado de las aplicaciones MATLAB utilizadas.
Los profesionales de la agrimensura podrían, tal vez, usar esta publicación como una
introducción al ajuste de redes GPS; mientras que los docentes y alumnos de la carrera
ingeniería en agrimensura, encuentren quizás una fuente de motivación y consulta en
estas páginas. Es la pretensión de este trabajo.

Raúl Márquez
2008

4
1.- Sistemas de Ecuaciones Lineales Inconsistentes

Consideremos un sistema de n ecuaciones lineales con m incógnitas:

a11 x1 + a12 x2 +…+ a1m xm = l1


a21 x1 + a22 x2 +... + a2m xm = l2 (1.1)
…………………………………
an1 x1 + an2 x2 +…+ anm xm = ln

expresado matricialmente es AX = L; es decir:

⎡ a11 a12 ... a1m ⎤ ⎡ x1 ⎤ ⎡ l1 ⎤


⎢a a 22 ... a 2 m ⎥⎥ ⎢ x ⎥ ⎢l ⎥
⎢ 21 ⎢ 2 ⎥ = ⎢ 2⎥ (2.1)
⎢ ... ... ... ... ⎥ ⎢ M ⎥ ⎢M⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎣ a n1 an2 ... a nm ⎦ ⎣ x m ⎦ ⎣l n ⎦

La matriz A puede considerarse como un operador lineal que representa a la


transformación lineal T:U Æ V que aplica el espacio vectorial U en el espacio vectorial
V. Puesto que A representa a T en la base usual o canónica, la transformación T puede
expresarse por A: R m Æ R n donde R es el cuerpo de los números reales y U ≡ R m, V ε
R n.
El núcleo de T se define por:

NUT = {X ε R m / AX = 0}

Vale decir que NUT contiene a todas las soluciones del sistema lineal homogéneo
asociado:

AX = 0 (3.1)

La imagen de la transformación lineal T es el conjunto de todas las imágenes de los


vectores X de R m :

IMT = V = {Y ε R n / AX = Y para todo X ε R m}

Sea X ε R m, entonces:

X = x1 e1 + x2 e2 +…+ xm em (4.1)

donde xj son las componentes del vector X en la base usual ej = {0, …,1, …. 0} para j
=1, m de R m.
El transformado de X es entonces:

m
AX = ∑ x j Ae j = L (5.1)
j =1

5
⎡ a11 a12 ... a1 j ... a1m ⎤ ⎡0⎤ ⎡ a1 j ⎤
⎢a a 22 ... a 2 j ... a 2 m ⎥⎥ ⎢0 ⎥ ⎢ a ⎥
⎢ 21 ⎢ ⎥ ⎢ 2j⎥
⎢ ... ... ... ... ... ... ⎥ ⎢M⎥ ⎢ M ⎥ (j)
Aej = ⎢ ⎥ ⎢ ⎥=⎢ ⎥=A (6.1)
⎢ ai1 ai 2 ... aij ... aim ⎥ ⎢1⎥ ⎢ aij ⎥
⎢ ... ... ... ... ... ... ⎥ ⎢M⎥ ⎢ M ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢⎣ a n1 an2 ... a nj ... a nm ⎥⎦ ⎢⎣0⎥⎦ ⎢⎣ a nj ⎥⎦

donde A(j) es la j-ésima columna de la matriz A. El transformado de X es entonces:

m
T(X) = AX = ∑x
j =1
j A( j ) = L (7.1)

Las columnas de A generan la imagen de T, a la que denominamos el “espacio columna


de A” y denotamos por ECA, tenemos entonces: IMT = ECA = V.
Se define el rango de T como la dimensión de su imagen y la nulidad de T como la
dimensión del núcleo, denotados por:

r = rango de T = R(A) = dim (IMT)


d = nulidad de T = dim (NUT)

Del teorema de la dimensión:

m = R(A) + dim (NUT) = r + d (8.1)

Se tiene entonces que la dimensión del espacio solución del sistema homogéneo
asociado (3.1) es d = m – r, donde m es el número de incógnitas y r es el rango de la
matriz A. Si dim (NUT) = 0 entonces m = R(A) y el sistema lineal (1.1) admite solución
única y la matriz A es de rango completo. Si, en cambio, dim (NUT) > 0, resulta R(A) <
m y el sistema lineal (1.1) tiene infinitas soluciones. En este caso la matriz A es
deficiente de rango. El defecto de rango, denotado por d, es d = m - R(A); es decir, igual
a la dimensión del núcleo de la transformación lineal T.
Sea XNU el conjunto de todas las soluciones del sistema lineal homogéneo asociado
(3.1) y sea F una solución particular del sistema lineal (1.1), entonces:

A XNU = 0 (9.1)
AF =L (10.1)

Sumando miembro a miembro (9.1) y (10.1):

A (XNU + F) = L (11.1)

La solución general del sistema lineal (1.1) es:

X = F + XNU (12.1)

6
Resulta evidente que si la dimensión del núcleo de T es cero, la única solución del
sistema lineal homogéneo asociado (3.1) es el vector nulo, XNU = 0, y la solución del
sistema lineal (1.1), X = F, es también única.

Ejemplo 1.1: Resolver el siguiente sistema de ecuaciones lineales A X = L:

⎡2 1 0 2⎤ ⎡5⎤
⎢1 0 1 ⎥⎥ ⎢ ⎥
⎢ 0 ⎡ x1 ⎤ ⎢ 2 ⎥
⎢1 1 0 1⎥ ⎢x ⎥ ⎢ 3 ⎥
⎢ ⎥ ⎢ 2⎥ = ⎢ ⎥
⎢0 − 1 0 0⎥ ⎢ x3 ⎥ ⎢− 1⎥
⎢1 0 ⎢ ⎥ ⎢ ⎥
0 1⎥ ⎣ x4 ⎦ 2
⎢ ⎥ ⎢ ⎥
⎣⎢1 2 0 1 ⎦⎥ ⎣⎢ 4 ⎦⎥

Resolución: El rango de A es r = R(A) = 2 puesto que la primera y cuarta columnas son


iguales y la tercera es el vector nulo; existen pues sólo dos columnas linealmente
independientes. Hallaremos la solución general aplicando la eliminación gaussiana a la
matriz ampliada con el vector de términos independientes como ultima columna:

⎡2 1 0 2 5 ⎤ ⎡2 1 0 2 5 ⎤ ⎡2 1 0 2 5 ⎤
⎢1 0 0 ⎥ ⎢
1 2 ⎥ ⎢0 − 1 / 2 0 0 − 1 / 2⎥⎥ ⎢⎢0 − 1 0 0 − 1⎥⎥

⎢1 1 0 1 3 ⎥ ⎢0 1 / 2 0 0 1 / 2 ⎥ ⎢0 1 0 0 1 ⎥
⎢ ⎥Æ⎢ ⎥ Æ⎢ ⎥Æ
⎢0 − 1 0 0 − 1⎥ ⎢0 − 1 0 0 − 1 ⎥ ⎢0 − 1 0 0 1 ⎥
⎢1 0 0 1 2 ⎥ ⎢0 − 1 / 2 0 0 − 1 / 2⎥ ⎢0 − 1 0 0 − 1⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎣⎢1 2 0 1 4 ⎦⎥ ⎣⎢0 3 / 2 0 0 3 / 2 ⎦⎥ ⎣⎢0 3 0 0 3 ⎥⎦

⎡2 1 0 2 5⎤
⎢0 − 1 0 0 − 1⎥⎥

⎢0 0 0 0 0⎥
Æ⎢ ⎥
⎢0 0 0 0 0⎥
⎢0 0 0 0 0⎥
⎢ ⎥
⎢⎣0 0 0 0 0 ⎥⎦

La matriz triangularizada tiene sólo dos filas no nulas; se confirma que el rango de A es
2.
El sistema triangular equivalente es:

2 x1 + x 2 + 2x4 = 5
-x2 = -1

Seleccionando a x3, x4 como variables libres y resolviendo por sustitución regresiva:

x2 = 1, x1 = 2 – x4, x3 = x3, x4 = x4

La solución general del sistema lineal A X = L es:

7
⎡ x1 ⎤ ⎡2 − x 4 ⎤ ⎡ 2⎤ ⎡0 ⎤ ⎡− 1⎤
⎢ x ⎥ ⎢1 ⎥ ⎢1 ⎥ ⎢0 ⎥ ⎢ ⎥
⎢ 2⎥ = ⎢ ⎥=⎢ ⎥+x ⎢ ⎥+x ⎢ 0 ⎥
⎢ x3 ⎥ ⎢ x3 ⎥ ⎢0 ⎥ 3
⎢1⎥ 4
⎢0⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎣ x4 ⎦ ⎣ x 4 ⎦ ⎣0 ⎦ ⎣0 ⎦ ⎣1⎦

es decir:

X = F + x3 N1 + x4 N2

Una solución particular del sistema lineal AX = b es F = [2, 1, 0, 0] T


La solución general del sistema lineal homogéneo asociado A X = 0 es:

XNU = x3 N1 + x4 N2, - ∞ < x3, x4 < +∞.

Una base para el espacio nulo es:

⎧⎡0⎤ ⎡− 1⎤ ⎫
⎪⎢ ⎥ ⎢ ⎥ ⎪
0 0
{N1 , N 2 } = ⎪⎨⎢ ⎥, ⎢ ⎥ ⎪⎬ Æ dim (NUT ) = d = 2
⎪ ⎢1 ⎥ ⎢ 0 ⎥ ⎪
⎪⎢⎣0⎥⎦ ⎢⎣ 1 ⎥⎦ ⎪
⎩ ⎭

Una base para la imagen de T, está formada por los vectores columnas independientes:

⎧ ⎡ 2⎤ ⎡ 1 ⎤ ⎫
⎪⎢ ⎥ ⎢ ⎥ ⎪
⎪ ⎢1 ⎥ ⎢ 0 ⎥ ⎪
⎪⎪⎢1 ⎥ ⎢ 1 ⎥ ⎪⎪
{A (1)
, A ( 2) } = ⎨⎢ ⎥, ⎢ ⎥ ⎬ Æ dim (IMT) = r = R(A) = 2
⎪⎢0⎥ ⎢− 1⎥ ⎪
⎪ ⎢1 ⎥ ⎢ 0 ⎥ ⎪
⎪⎢ ⎥ ⎢ ⎥ ⎪
⎪⎩⎣⎢1 ⎦⎥ ⎣⎢ 2 ⎦⎥ ⎪⎭

El sistema lineal (1.1) puede expresarse por:

⎡ a11 ⎤ ⎡ a12 ⎤ ⎡ a1m ⎤ ⎡ l1 ⎤


⎢a ⎥ ⎢a ⎥ ⎢a ⎥ ⎢l ⎥
x1 ⎢ 21 ⎥
+ x2 ⎢ 22 ⎥
+ ... + x m ⎢ 2 m ⎥ = ⎢ 2 ⎥ (13.1)
⎢ M ⎥ ⎢ M ⎥ ⎢ M ⎥ ⎢M⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎣ a n1 ⎦ ⎣a n 2 ⎦ ⎣ a nm ⎦ ⎣l n ⎦

En virtud de (7.1), la (13.1) establece que el sistema lineal (1.1) tiene solución si y sólo
si el vector L puede expresarse como una combinación lineal de las columnas A(j) de la
matriz A, con escalares xj para j = 1, m. Si tal combinación lineal no existe (porque no
existen los escalares xj), el vector de términos independientes L no pertenece al espacio
columna, ECA, de la matriz A. El sistema lineal se dice entonces, inconsistente; es
decir, no admite solución. No obstante, es posible hallar una solución sumando al vector
L un vector V (vector corrección o vector error) tal que:

8
AX = L + V (14.1)

Si escogemos V de tal manera que AX sea la proyección ortogonal de L sobre el ECA,


V es un vector de longitud mínima; es decir:

n
= V T V = ∑ vi = mínimo
2 2
V (15.1)
i =1

cuando y solamente cuando V sea perpendicular a ECA. La (15.1) es el conocido


principio de los mínimos cuadrados de Gauss.
Sea X ≠ 0 el vector solución mínimos cuadrados del sistema lineal (14.1). Si AX es
perpendicular a V, se tiene que el producto escalar es cero:

(AX)TV = 0 (16.1)

De la (14.1) V = AX – L, reemplazando en (16.1):

XTAT (AX –L) = 0

XT (ATA X – AT L) = 0

Puesto que X ≠ 0, necesariamente debe cumplirse:

ATA X – AT L = 0

es decir:

ATA X = AT L (17.1)

La (17.1) es el sistema de las ecuaciones normales, donde la matriz normal N = ATA es


simétrica de orden m x m (NT = N).
La solución mínimos cuadrados es:

X = N-1 AT L (18.1)

y será única si y sólo si el determinante de la matriz normal es distinto de cero. La


inversa de N es:

adj ( N )
N −1 = (19.1)
N

donde adj (N) es la matriz cofactor transpuesta. La (19.1) es válida solamente cuando N
es no singular.
Para que el sistema lineal inconsistente tenga solución mínimos cuadrados única, deberá
cumplirse las siguientes condiciones equivalentes:

i) Las columnas de A son linealmente independientes.


ii) El espacio nulo de A contiene sólo al vector nulo; es decir dim (NUA) = 0.

9
iii) La matriz A es de rango completo; es decir R(A) = m
iv) La matriz normal es no singular; es decir det (ATA) ≠ 0.

Si estas condiciones no se cumplen, el sistema de las ecuaciones normales (17.1)


admitirá infinitas soluciones mínimos cuadrados, de entre las cuales deberá
seleccionarse sólo una denominada la “solución óptima “.
Consideremos el sistema lineal homogéneo asociado AX = 0. El espacio solución puede
interpretarse de tres maneras:

i) El espacio solución consta de aquellos vectores X que dan soluciones


lineales:

x1 A(1) + x2 A(2) + … + xm A(m) = 0 (20.1)

donde A(j) es la j- ésima columna de la matriz A.

ii) Las soluciones forman el complemento ortogonal del espacio fila, EFA, de la
matriz A. En efecto, la i-ésima ecuación del sistema lineal homogéneo
asociado AX = 0, puede expresarse por:

⎡ x1 ⎤
⎢x ⎥
[ ]
Ai X = ai1 , ai 2 , ... aim ⎢ 2 ⎥ = 0 (21.1)
⎢M ⎥
⎢ ⎥
⎣ xm ⎦

donde la fila i-ésima de la matriz A, Ai = [ai1, ai2, …, aim] , resulta perpendicular a


todo X perteneciente al espacio nulo de A, solución de A X = 0.

iii) Las soluciones de AX = 0, forman el núcleo o espacio nulo de la


transformación lineal T, representada por la matriz A en la base usual o
canónica; es decir:

Núcleo de T = NUT = Espacio nulo de A = { X


/ AX = 0 }
Hemos visto hasta ahora que si A es una matriz de orden n x m, sus columnas A(j) para j
= m generan un subespacio vectorial denominado el espacio columna de A (ECA), que
es la imagen de la transformación lineal T representada por la matriz A en la base usual.
Es decir, ECA ≡ IMT ≡ V. La dimensión de la imagen de T se conoce como el rango de
A por columnas.
Las filas de la matriz A, Ai para i = 1, n, generan un subespacio vectorial denominado el
espacio fila de A (EFA), cuya dimensión se conoce como el rango por filas de A. El
rango por filas es el máximo número de filas linealmente independientes en A. El rango
por filas y el rango por columnas son iguales al rango de A, entonces el rango de A es el
máximo número de líneas (filas o columnas) independientes en la matriz A.
Sea ahora un sistema lineal inconsistente A X = L donde la matriz A es de orden n x m
defectuosa de rango; es decir, r = R(A) < m. El sistema de las ecuaciones normales
(17.1) admite también infinitas soluciones mínimos cuadrados, puesto que el rango de la
matriz normal N de orden m x m, es igual al rango de la matriz A (R(N) = R(A)).

10
Dado que la matriz normal es simétrica (NT = N), sus espacios fila y columnas son
coincidentes (ECN ≡ EFN). El espacio fila de N y el espacio nulo de N son
complementos ortogonales:

Rm = EFN + NUN (22.1)

donde el signo + es la suma vectorial. Según el teorema de la dimensión:

m = R(N) + dim (NUN) (23.1)

El espacio fila de N contiene todos los vectores ortogonales al espacio nulo de N y


viceversa. Si ambos son subespacios de otro espacio de mayor dimensión (Rm),
cualquier vector de Rm puede descomponerse en forma única, en dos componentes
ortogonales pertenecientes a los respectivos complementos ortogonales.
Puesto que la matriz normal N es deficiente de rango, existen infinitas soluciones
mínimos cuadrados:

X = F + XNU (24.1)

donde F es una solución particular y XNU representa a todos los vectores del espacio
nulo de N. Puesto que (24.1) debe satisfacer el sistema de las ecuaciones normales
(17.1), se tiene:

N (F + XNU) = ATL
N F + N XNU = ATL

N F = ATL (25.1)

El vector fijo F (solución particular) pertenece a Rm y puede descomponerse en los


complementos ortogonales EFN y NUN:

F = XF +XNU (26.1)

donde XF está en EFA y XNU pertenece a NUN.


Multiplicando a izquierda ambos miembros de (26.1) por la matriz normal N:

N F = N XF + N XNU = AT L

N XNU = 0 puesto que XNU representa a todos los vectores del espacio nulo de N.
Entonces:

N XF = AT L (27.1)

La (27.1) muestra que XF es una solución del sistema (17.1) de las ecuaciones normales;
es decir también es una solución mínimos cuadrados. El vector XF, proyección
ortogonal de F sobre el espacio fila de N, es la solución óptima puesto que es la
solución mínimos cuadrados de longitud o norma mínima. En efecto, la longitud de la
solución particular F obedece a la ley de Pitágoras, ya que las dos componentes son
ortogonales:

11
2 2 2
X F + X NU = XF + X NU (28.1)

La solución que tiene longitud mínima es XF. Deberíamos elegir como cero a la
componente en el espacio nulo, dejando una solución situada completamente en el
espacio fila de la matriz normal N.

La solución óptima XF, cumple la doble condición:

i) mínimos cuadrados: VTV = mínimo


ii) mínima norma : XFT XF = mínimo

Además, XF es única.

Según el teorema de la dimensión, si R(N) < m existen d = m – R(N) vectores


linealmente independientes N1, N2,…, Nd que generan al espacio nulo de la matriz
normal N, tales que la proyección del vector fijo F sobre el espacio fila de N, está
dada por:

XF = F + ν1 N1 + ν2 N2 +… +νd Nd (29.1)

donde ν1, ν2, …,νm son escalares a determinar.


Multiplicando escalarmente (29.1) por NiT, i = 1, m:

(N1TN1) ν 1 + (N1TN2) ν 2 +…+ (N1TNd) ν d = - N1TF


(N2TN1) ν 1 + (N2TN2) ν 2 +…+ (N2TNd) ν d = - N2TF (30.1)
…………………………………………………..
(NdTN1) ν 1 + (NdTN2) ν 2 +…+ (NdTNd) ν d = - NdTF

puesto que NiT XF = 0 para i = 1, 2,…, d


La (30.1) representa un sistema de d ecuaciones lineales independientes con d
incógnitas. La solución del sistema ν1, ν2,…,νd es única y reemplazada en (29.1)
permite hallar la solución óptima del sistema lineal inconsistente A X = L.

Ejemplo 2.1: Hallar la solución óptima del siguiente sistema lineal inconsistente:

⎡2 1 0 2⎤ ⎡6⎤
⎢1 0
⎢ 0 1 ⎥ ⎡ x1 ⎤ ⎢⎢ 1 ⎥⎥

⎢1 1 0 1 ⎥ ⎢⎢ x 2 ⎥⎥ ⎢ 3 ⎥
⎢ ⎥ =⎢ ⎥
⎢0 − 1 0 0⎥ ⎢ x3 ⎥ ⎢− 2⎥
⎢ ⎥
⎢1 0 0 1⎥ ⎣ x4 ⎦ ⎢ 1 ⎥
⎢ ⎥ ⎢ ⎥
⎢⎣1 2 0 1 ⎥⎦ ⎢⎣ 5 ⎥⎦

Aplicamos la eliminación gaussiana a la matriz A ampliada con el vector de


términos independientes L:

12
⎡2 1 0 2 6 ⎤ ⎡2 1 0 2 6⎤
⎢1 0 0 1 ⎥ ⎢
1 ⎥ ⎢0 − 1 / 2 0 0 − 2⎥⎥

⎢1 1 0 1 3 ⎥ ⎢0 1 / 2 0 0 0⎥
⎢ ⎥Æ⎢ ⎥Æ
⎢0 − 1 0 0 − 2⎥ ⎢0 − 1 0 0 − 2⎥
⎢1 0 0 1 1 ⎥ ⎢0 − 1 / 2 0 0 − 2⎥
⎢ ⎥ ⎢ ⎥
⎣⎢1 2 0 1 5 ⎦⎥ ⎣⎢0 3 / 2 0 0 2 ⎦⎥

⎡2 1 0 2 6 ⎤ ⎡2 1 0 2 6⎤
⎢0 − 1 0 0 − 4⎥⎥ ⎢⎢0 − 1 0 0 − 4⎥⎥

⎢0 1 0 0 0 ⎥ ⎢0 0 0 0 − 4⎥
⎢ ⎥Æ⎢ ⎥
⎢0 − 1 0 0 − 2⎥ ⎢0 0 0 0 2⎥
⎢0 − 1 0 0 − 4⎥ ⎢0 0 0 0 0⎥
⎢ ⎥ ⎢ ⎥
⎢⎣0 3 0 0 4 ⎥⎦ ⎢⎣0 0 0 0 − 8⎥⎦

Las filas 3º a 6º de la matriz ampliada son dependientes, pero cualquiera de ellas es


independiente de las 1º y 2º, entonces el rango de la matriz ampliada es igual a 3.
Puesto que el rango de A es 2, el vector L = [6, 1, 3, -2, 1, 5]T no pertenece al
espacio columna de A; luego, el sistema lineal dado es inconsistente.

El sistema de las ecuaciones normales (ATA) X = AT L es:

⎡8 5 0 8⎤ ⎡ x1 ⎤ ⎡22⎤
⎢5 7 0 5⎥⎥ ⎢ x ⎥ ⎢ 21⎥
⎢ ⎢ 2⎥ = ⎢ ⎥
⎢0 0 0 0⎥ ⎢ x3 ⎥ ⎢ 0 ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎣8 5 0 8⎦ ⎣ x 4 ⎦ ⎣22⎦

donde R(A) = R(ATA) = 2 Æ existen infinitas soluciones mínimos cuadrados..


Aplicamos la eliminación gaussiana para hallar la solución mínimos cuadrados
general:

⎡8 5 0 8⎤ ⎡22⎤ ⎡8 5 0 8⎤ ⎡ 22 ⎤
⎢5 7 0 ⎥ ⎢ ⎥
5⎥ ⎢ 21⎥ ⎢ 3.875 0 0⎥⎥ ⎢⎢7.25⎥⎥

⎢ Æ
⎢0 0 0 0⎥ ⎢ 0 ⎥ ⎢ 0 0⎥ ⎢ 0 ⎥
⎢ ⎥⎢ ⎥ ⎢ ⎥⎢ ⎥
⎣8 5 0 8⎦ ⎣22⎦ ⎣ 0⎦ ⎣ 0 ⎦

El sistema triangular equivalente es:

8x1 + 5x2 + 8x4 = 22


3.875x2 = 7.25

Adoptamos x3, x4 como variables libres:

x1 = 1.58064 – x4
x2 = 1.87097

13
La solución general mínimos cuadrados es:

⎡ x1 ⎤ ⎡1.58064 − x 4 ⎤ ⎡1.58064⎤ ⎡0 ⎤ ⎡− 1⎤
⎢ x ⎥ ⎢1.87097 ⎥ ⎢1.87097⎥ ⎢0 ⎥ ⎢ ⎥
⎢ 2⎥ = ⎢ ⎥=⎢ ⎥ + x3 ⎢ ⎥ + x 4 ⎢ 0 ⎥
⎢ x3 ⎥ ⎢ x3 ⎥ ⎢ 0 ⎥ ⎢1 ⎥ ⎢0⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎣ x4 ⎦ ⎣ x4 ⎦ ⎣ 0 ⎦ ⎣0 ⎦ ⎣1⎦

donde F = [1.58064, 1.87097, 0,0]T, N1 = [0,0,1,0]T, N2 = [-1,0,0,1]T

Claramente se ve que (ATA) N1 = 0, (ATA) N2 = 0 y (ATA) F= ATL


La proyección ortogonal del vector F sobre el espacio fila de N se determina
estableciendo las siguientes condiciones:

i) XF = F + ν1 N1 + ν2 N2
ii) N1TF = 0
iii) N2TF = 0

De las anteriores, se tiene:

(N1TN1) ν 1 + (N1TN2) ν 2 = - N1TF


(N2TN1) ν 1 + (N2TN2) ν 2 = - N2TF

N1TN1 = 1; N1TN2 = N2TN1 = 0; N2TN2 = 2; N1TF = 0; N2TF = -1.58064

El sistema de ecuaciones es:

ν1 + 0 ν2 = 0
0 ν1 + 2 ν2 = 1.58064

La solución es: ν1 = 0 y ν2 = 0.79032.

De la condición i), la solución óptima del sistema lineal inconsistente, es:

⎡1.58064⎤ ⎡− 1⎤ ⎡0.79032⎤
⎢1.87097⎥ ⎢ ⎥ ⎢ ⎥
XF = ⎢ ⎥ + 0.79032 ⎢ 0 ⎥ = ⎢1.87097 ⎥ Æ X = X T X = 2.1795 = mínimo
⎢ 0 ⎥ ⎢ 0 ⎥ ⎢0.00000⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎣ 0 ⎦ ⎣ 1 ⎦ ⎣0.79032⎦

El vector corrección V = A X-L es:

14
⎡− 0.9678⎤
⎢ 0.5806 ⎥
⎢ ⎥
⎢ 0.4516 ⎥
V =⎢ ⎥ Æ V = V V = 1.3912 = mínimo
T

⎢ 0.1290 ⎥
⎢ 0.5806 ⎥
⎢ ⎥
⎣⎢ 0.3226 ⎦⎥

Cualquier par de escalares distintos de ν1 = 0 y ν2 = 0.79032 reemplazados en la


condición i), dará una solución mínimos cuadrados cuya longitud será mayor que la
longitud de XF.
Este método, si bien tiene valor teórico, no resulta práctico para resolver sistemas
lineales inconsistentes de tamaño considerable. La solución óptima se halla
mediante la aplicación de una “regla práctica” que se verá mas adelante.

2.- Valores Propios y Vectores Propios

Dada una matriz cuadrada A de orden m x m, se define como un valor propio de A


al escalar λ y su correspondiente vector propio al vector X, si se cumple que:

AX= λX (1.2)

De la (1.2):

AX–λIX=0

(A – λ I) X = 0 (2.2)

La (2.2) es un sistema de ecuaciones lineales homogéneo que admite soluciones


distintas de la trivial (X = 0), cuando la matriz A – λ I es singular; es decir:

det (A – λ I) = 0 (3.2)

La (3.2) es la ecuación característica y es un polinomio de grado m en λ, cuyas


raíces son los valores propios de la matriz A. Para hallar los vectores propios
correspondientes, debe resolverse el sistema homogéneo (2.2) para cada raíz de
(3.2). La solución del sistema homogéneo (2.2) es un subespacio vectorial de R m,
cuya base es el o los vectores propios asociados con el valor propio correspondiente.

Ejemplo 1.2: Hallar los valores propios y vectores propios de la siguiente matriz A:

⎡ 2 −1 0 ⎤
A = ⎢⎢− 1 2 − 1⎥⎥
⎣⎢ 0 − 1 2 ⎥⎦

El polinomio característico A − λI = 0 : λ3 − 6λ2 + 10λ − 4 = 0

15
Valores propios: λ1 = 2 + 2 , λ 2 = 2, λ3 = 2 − 2

Vectores propios:
Para el valor propio: λ1 = 2 + 2 , el sistema homogéneo es:

⎡− 2 −1 0 ⎤ ⎡ x1 ⎤ ⎡0⎤
⎢ ⎥ ⎢ x ⎥ = ⎢0 ⎥
⎢ −1 − 2 −1 ⎥ ⎢ 2⎥ ⎢ ⎥
⎢ 0 −1 − 2 ⎥⎦ ⎢⎣ x3 ⎥⎦ ⎢⎣0⎥⎦

El sistema triangular equivalente:

− 2 x1 − x 2 =0
1
− x 2 − x3 = 0
2

Tomando a x3 como variable libre: x 2 = − 2x3 , x1 = x3

La solución general del sistema homogéneo es:

⎡ x1 ⎤ ⎡ x3 ⎤ ⎡ 1 ⎤
⎢ x ⎥ = ⎢− x 2 ⎥ = x ⎢− 2 ⎥ para -∞ < x3 < +∞
⎢ 2⎥ ⎢ 3 ⎥ 3⎢ ⎥
⎢⎣ x3 ⎥⎦ ⎢⎣ x3 ⎥⎦ ⎢⎣ 1 ⎥⎦

Para x3 = 1 se tiene el siguiente vector propio correspondiente al valor propio λ1:

⎡ 1 ⎤
X 1 = ⎢⎢− 2 ⎥⎥
⎢⎣ 1 ⎥⎦

El vector propio X1, genera el espacio al que pertenecen todos los vectores propios
correspondientes a λ1.

Procediendo en forma análoga se hallan los vectores propios:

⎡− 1⎤ ⎡1 ⎤
X 2 = ⎢⎢ 0 ⎥⎥ y X 3 = ⎢⎢ 2 ⎥⎥
⎢⎣ 1 ⎥⎦ ⎢⎣ 1 ⎥⎦

correspondientes a los valores propio λ2 y λ3, respectivamente.

Interesa especialmente el caso de las matrices simétricas, AT = A, para las cuales


valen las siguientes propiedades:

i) Los vectores propios de A son mutuamente ortogonales

16
ii) Los valores propios de A son mayores o iguales a cero.
iii) El número de valores propios nulos es igual al defecto de rango de la matriz
A.
iv) Puede haber soluciones múltiples en la ecuación característica.
v) El determinante de la matriz A, es igual al producto de los valores propios.

Interesan también las siguientes definiciones:

- Una matriz simétrica se dice positivamente definida cuando todos sus valores
propios son distintos de cero.
- Una matriz simétrica se dice positivamente semidefinida cuando no todos sus
valores propios son distintos de cero.

Probaremos algunas de estas propiedades:

Propiedad i): Sea A simétrica de orden m x m y λi, λj dos valores propios distintos
con sus respectivos vectores propios Xi, Xj.

Por hipótesis: A Xi = λi Xi (4.2)

Transponiendo ambos miembros de (4.2):

XiT AT = λi XiT

Multiplicando escalarmente por Xj ambos miembros a derecha:

XiTAT Xj = λi XiT Xj

Puesto que A es simétrica y Xj es un vector propio correspondiente al valor propio λj:

XiT λj Xj = λi XiT Xj

λj XiT Xj = λi XiT Xj

λj XiT Xj - λi XiT Xj = 0

(λj - λi) XiT Xj = 0

Puesto que los valores propios son distintos (λi ≠ λj), debe cumplirse que XiT Xj = 0; es
decir, Xi y Xj son ortogonales para i ≠ j.

Propiedad ii) Si A es una matriz simétrica de orden m x m, podemos expresarla como A


= BTB donde B es una matriz de orden n x m. Sea λj un valor propio de A y Xj un
vector propio correspondiente:

A Xj = λj Xj

BTB Xj = λj Xj

Premultiplicando ambos miembros por XjT

17
XjT BTB Xj = λj XjT Xj

(BXj)T BXj = λj XjT Xj


2 2
BX j = λj X j (5.2)

entonces:

2
⎛ BX j ⎞
λj = ⎜ ⎟ ≥ 0, j = 1,..., m (6.2)
⎜ X ⎟
⎝ j ⎠

Propiedad iii): Toda matriz A simétrica de orden m x m, puede factorizarse como


A =BTB donde B es una matriz de orden n x m. Un valor propio de A es nulo si y sólo
si BXj = 0; en efecto:
A Xj = BTB Xj = BT (BXj) = λj Xj

Si BXj = 0 Æ λj Xj = 0 Æ λj = 0 puesto que Xj ≠ 0


Si λj = 0 Æ λj Xj = 0 Æ BXj = 0 puesto que B ≠ 0

El conjunto de los Xj que hacen BXj = 0 es el espacio nulo de la matriz B y tiene


dimensión d = m – R (B); es decir; existen d vectores propios independientes que lo
generan. Si el rango de B (también el rango de A = BTB) es igual a m, la dimensión del
espacio nulo de B es cero (la dimensión del espacio nulo de A también es cero por ser
iguales los espacios nulos de A y B). Luego no existen valores propios nulos y la matriz
A (también B) es de rango completo. El número de valores propios de A es entonces
igual al defecto de rango de la matriz A: d = m - R.(A).

3.- Forma Diagonal de una Matriz Simétrica bajo Equivalencia Ortogonal

Según la propiedad i) de la sección 2, si A es una matriz simétrica de orden m x m sus


vectores propios son ortogonales: XiT Xj = 0 para i ≠ j. Denotamos por qj a los vectores
propios normalizados (Forsythe G. y Moler C, 1973):

Xj
qj = para j = 1,…,m (1.3)
Xj

Se tiene así, un conjunto ortonormal de vectores propios normalizados:

⎧0 sii i ≠ j ⎫
q iTq j = ⎨ ⎬ (2.3)
⎩ 1 sii i = j ⎭

que son las columnas de la matriz Q:

Q = [q1, q2,…, qm] (3.3)

18
La matriz Q es ortogonal en virtud de la (2.3), entonces:

Q-1 = QT (4.3)

El producto AQ se expresa por:

AQ = A [q1, q2,…, qm] = [Aq1, Aq2,…, Aqm] = [λ1q1, λ2q2,…, λmqm]

⎡λ1 ⎤
⎢ λ2 ⎥
AQ = [q1 q2 ... q m ] ⎢ ⎥ = QΛ
⎢ O ⎥
⎢ ⎥
⎣ λm ⎦

AQ = Q Λ (5.3)

donde Λ es una matriz diagonal de orden m x m, cuyos elementos diagonales son los
valores propios de la matriz simétrica A, generalmente ordenados de mayor a menor:

λ1 ≥ λ2 ≥…≥ λm ≥ 0

Multiplicando ambos miembros de (5.3) por QT a derecha y teniendo en cuenta que Q es


ortogonal, la matriz simétrica A se factoriza como:

A = Q Λ QT (6.3)

Considérese la matriz simétrica A como representando a una transformación lineal de


un espacio m_dimensional X en un segundo espacio Y. Así, y = A X está en Y para
cualquier x en X. Al representar la transformación lineal mediante una matriz A, se
suponen determinados sistemas ortogonales tanto en X como en Y. La transformación
Ax = y, puede expresarse ahora:

Q Λ QT x = y (7.3)

Λ QT x = QTy (8.3)

Mediante un cambio ortogonal de coordenadas en X:

QT x = x’ (9.3)

y en Y:
QT y = y’ (10.3)

La (8.3) es ahora:

Λ x’ = y’ (11.3)

En los sistemas ortogonales nuevos, la transformación (11.3) tiene una representación


muy sencilla. En términos de componentes, se tiene:

19
y1’ = λ1 x1’
y2’ = λ2 x2’
…………. (12.3)
ym’ = λm xm’

Elevando al cuadrado y sumando miembro a miembro en (12.3), se tiene:

2 2 2
y '1 y'2 y'm m
= ∑ x ' j = x 'T x ' = x '
2 2
+ + ... + (13.3)
λ1 2
λ2 2
λm 2
j =1

Si x’ es tal que x' = 1 , la (13.3) se transforma en:

2 2 2
y '1 y'2 y'm
+ + ... + =1 (14.3)
λ1 2 λ2 2 λm 2

La (14.3) es la ecuación de un hiperelipsoide m-dimensional que es la transformación


mediante Λ, de la esfera unitaria:

S= { x'
/ x' = 1 } (15.3)

La matriz diagonal Λ representa a la transformación lineal en una base ortonormal que


son sus vectores propios normalizados. Uno de los puntos del hiperelipsoide (14.3) mas
alejados del origen 0 es el punto (λ1, 0, 0,…, 0) T y uno de los puntos más cercanos al
origen es (0, 0,0,…, λm)T , donde λ1 = λmax y λm = λmin.

Sea ahora el sistema lineal inconsistente AX = L, donde A es una matriz real de orden n
x m, de rango completo; es decir, r = R (A) = m.
El sistema de las ecuaciones normales (17.1) se expresa:

NX = L’ (16.3)

haciendo N =ATA y L’ = ATL.


Un cambio δL’ en el segundo miembro de (16.3), produce un cambio δX en la solución
de tal forma que:

N(X + δX) = L’ + δL’ (17.3)

X + δX = N-1L’ + N-1δL’
δX = N-1 δL’ (18.3)

Según la definición de norma de un vector y sus propiedades:

δX ≤ N −1 δL' (19.3)

L' ≤ N X (20.3)

20
Multiplicando miembro a miembro (19.3) y (20.3):

δX L' ≤ N N −1 δL' X

δX δL'
≤ N N −1 (21.3)
X L'

El error relativo del vector de términos independientes se amplifica por el factor


N N −1 para obtener el error relativo de la solución. Se define.

cond (N) = N N −1 (22.3)

como el factor de amplificación y se denomina la condición de la matriz N.

La norma de la matriz N, se define por:

NX
N = max ,X ≠0 (23.3)
X

λX λ
N = max( X ≠ 0) = max( X ≠ 0) X (24.3)
X X

N = max λ = λmax = λ1 (25.3)

La matriz N se factoriza:

N = Q Λ QT (26.3)

Λ es una matriz diagonal cuyos elementos diagonales son los valores propios de N,
mientras que Q es una matriz ortogonal cuyas columnas son los vectores propios de N,
normalizados. El determinante de N, de la (26.3), es:

det (N) = det (Q) det (Λ) det (QT) = λ1 λ2…λm (27.3)

puesto que Q es ortogonal y su determinante es 1 o -1. Queda probada entonces la


propiedad v) de la sección 2.
De las (26.3) y (4.3):
N-1 = (Q Λ QT) -1 = (Q Λ Q-1) -1

N-1 = Q Λ-1 QT (28.3)

El determinante de la inversa de N, es:

21
1 1 1
det (N-1) = ... (29.3)
λ1 λ2 λm

La norma de N-1 es:

1 1 1
N −1 = max = = (30.3)
λ λ min λm

El número de condición de la matriz normal N, es:

λmax λ1
cond ( N) = N N −1 = = (31.3)
λmin λm

Si la matriz normal N = ATA es positivamente definida, todos sus valores propios son
mayores que cero, su rango es igual a m y la solución del sistema AX = L es única.
De la (28.3), la solución mínimos cuadrados, es:

X = Q Λ-1 QT ATL (32.3)

y puede expresarse de la siguiente manera:

⎡1 / λ1 ⎤ ⎡ q1T ⎤ ⎡ ⎤
⎢ ⎥ ⎢ T⎥ ⎢ L'⎥
1 / λ2
X = [q1 , q 2 , ... q m ] ⎢ ⎥ ⎢ q2 ⎥ ⎢ ⎥ (33.3)
⎢ O ⎥ ⎢ M ⎥ ⎢ ⎥
⎢ ⎥ ⎢ T⎥ ⎢ ⎥
⎣ 1 / λm ⎦ ⎣⎢q m ⎦⎥ ⎣ ⎦

donde L’ = ATL; entonces:

1 1 1
X = q1 (q1 L' ) + q 2 (q 2 L' ) + ... +
T T T
q m (q m L' ) (34.3)
λ1 λ2 λm

Pero qjT L’ es la proyección ortogonal de L’ sobre el vector propio qj y qj(qjTL’)


es la componente de L’ en la dirección de qj.
T
q j L'
m
X =∑ qj (35.3)
j =1 λj

Así, la solución X es una combinación lineal de la base ortonormal de R m formada por


los valores propios de la matriz N normalizados. Las proyecciones individuales están
ponderadas por los recíprocos de los valores propios de la matriz N.
Si N es positivamente semidefinida, el rango N (también el rango de A), es menor que
m y existen entonces d = m – R (A) valores propios nulos, resultando así N una matriz
singular. Al reescribir (33.3), debe eliminarse de Λ los d valores propios nulos, puesto
que la división por cero no está permitida. Al mismo tiempo deben removerse los
vectores propios normalizados correspondientes, de las columnas de la matriz ortogonal
Q y de las filas de QT.

22
La expresión (33.3) es ahora:

⎡1 / λ1 ⎤ ⎡ q1T ⎤ ⎡ ⎤
⎢ ⎥ ⎢ T⎥ ⎢ L'⎥
1 / λ2
X = [q1, q 2 , ..., q r ] ⎢ ⎥ ⎢q 2 ⎥ ⎢ ⎥ (36.3)
⎢ O ⎥ ⎢ M ⎥ ⎢ ⎥
⎢ ⎥ ⎢ T⎥ ⎢ ⎥
⎣ 1 / λr ⎦ ⎣⎢ q r ⎦⎥ ⎣ ⎦

Así:

T T T
q1 L' q 2 L' q L'
X = q1 + q 2 + ... + r qr (37.3)
λ1 λ2 λr

La solución resulta pues, una combinación lineal de los q1, q2,…, qr vectores propios
normalizados que son una base ortonormal del espacio fila, EFN, de la matriz normal
N, cuya dimensión es r = R (A) = R (N) = m – d. Los valores propios se presentan en
orden descendente:

λ1 ≥ λ2 ≥ …≥ λr ≥ λr+1 = λ r+2 =… = λ r+d = 0

La solución X, mínimos cuadrados, dada por la (37.3) pertenece al espacio fila de la


matriz normal, por tanto su norma es mínima. En consecuencia:

X = Q Λ-1 QT ATL

es la solución óptima mínimos cuadrados y mínima norma y la (32.3) es la ”regla


práctica” antes mencionada.
Vale la pena mencionar que la matriz N-1 = Q Λ-1 QT cumple con las siguientes
condiciones:

i) N N-1 N = N
ii) N-1 N N-1 = N-1
iii) (N N-1)T = N N-1 (38.3)
iv) (N-1 N)T = N-1 N

Prueba:

i): N N-1 N = Q Λ QT Q Λ-1 QT Q Λ QT = Q ΛΛ-1 Λ QT = Q Λ QT = N

ii): N-1 N N-1 = Q Λ-1 QT Q Λ QT Q Λ-1 QT = Q Λ-1ΛΛ-1 QT = Q Λ-1 QT = N-1

iii): (N N-1)T = (Q Λ QT Q Λ-1 QT )T = (Q ΛΛ-1QT)T= (Q QT)T = Q QT = N N-1

iv): (N-1 N)T = (Q Λ-1 QT Q Λ QT )T = (Q Λ-1ΛQT)T = (Q QT)T = Q QT = N-1 N

La matriz N-1 = Q Λ-1 QT es la pseudoinversa de Moore-Penrose y se denota por:

N+ = Q Λ-1 QT (39.3)

23
Hallar la solución óptima del siguiente sistema lineal inconsistente mediante la
pseudoinversa de Moore-Penrose:

⎡2 1 0 2⎤ ⎡6⎤
⎢1 0 1 ⎥⎥ ⎢ ⎥
⎢ 0 ⎡ x1 ⎤ ⎢ 1 ⎥
⎢1 1 0 1⎥ ⎢x ⎥ ⎢ 3 ⎥
⎢ ⎥ ⎢ 2⎥ = ⎢ ⎥
⎢0 − 1 0 0⎥ ⎢ x3 ⎥ ⎢− 2⎥
⎢1 0 ⎢ ⎥ ⎢ ⎥
0 1⎥ ⎣ x4 ⎦ 1
⎢ ⎥ ⎢ ⎥
⎢⎣1 2 0 1 ⎥⎦ ⎢⎣ 5 ⎥⎦

La matriz normal N = ATA y el vector de términos independientes ATL:

⎡8 5 0 8⎤ ⎡22⎤
⎢5 7 0 ⎥
5⎥ ⎢ 21⎥
N = A A=⎢
T
; A L=⎢ ⎥
T

⎢0 0 0 0⎥ ⎢0⎥
⎢ ⎥ ⎢ ⎥
⎣8 5 0 8⎦ ⎣22⎦

La ecuación característica:

⎡8 − λ 5 0 8 ⎤
⎢ 5 7−λ 0 5 ⎥⎥
N − λI = ⎢ = λ4 − 23λ3 + 62λ2 = 0
⎢ 0 0 −λ 0 ⎥
⎢ ⎥
⎣ 8 5 0 8 − λ⎦

Los valores propios:

λ1 = 19.88153; λ2 = 3.11847; λ3 = 0; λ4 = 0

Vectores propios:

λ1 = 19.88153. Aplicamos la eliminación gaussiana para resolver el sistema


homogéneo correspondiente: (N –λ1) X = 0

⎡− 11.88153 5 0 8 0⎤
⎢ 5 − 12.88153 0 5 0⎥⎥

⎢ 0 0 − 19.88153 0 0⎥
⎢ ⎥
⎣ 8 5 0 − 11.88153 0⎦

24
⎡− 11.88153 5 0 8 0⎤
⎢ 0 − 10.77742 0 8.36657 0⎥⎥

⎢ 0 0 − 19.88153 0 0⎥
⎢ ⎥
⎣ 0 8.36657 0 − 6.49502 0⎦

⎡− 11.88153 5 0 8 0⎤
⎢ 0 − 10.77742 0 8.36657 0⎥⎥

⎢ 0 0 − 19.88153 0 0⎥
⎢ ⎥
⎣ 0 0 0 0 0⎦

El sistema triangular equivalente:

-11.88153 x1 + 5 x2 + 8 x4 = 0

-10.77742 x2 + 8.36657 x4 = 0

-19.88153 x3 =0

Adoptamos x4 como la variable libre:

x3 = 0; x2 = 0.77630 x4; x1 = x4

La solución general del sistema homogéneo:

⎡ x1 ⎤ ⎡ x4 ⎤ ⎡ 1 ⎤
⎢ x ⎥ ⎢0.77630 x ⎥ ⎢0.77630⎥
⎢ 2⎥ = ⎢ 4⎥
= x4 ⎢ ⎥;
⎢ x3 ⎥ ⎢ 0 ⎥ ⎢ 0 ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎣ x4 ⎦ ⎣ x4 ⎦ ⎣ 1 ⎦

⎡ 1 ⎤
⎢0.77630⎥
para x4 = 1, un vector propio es: X 1 = ⎢ ⎥ Æ X1 = X 1 X 1 = 1.61327
T

⎢ 0 ⎥
⎢ ⎥
⎣ 1 ⎦

El vector propio normalizado:

⎡0.61986⎤
⎢0.48120⎥
X1
q1 = =⎢ ⎥
X1 ⎢0.00000⎥
⎢ ⎥
⎣0.61986⎦

Para el valor propio λ2 = 3.11847, se obtiene el vector propio normalizado q2:

25
⎡ 0.34026 ⎤
⎢− 0.87661⎥
q2 = ⎢ ⎥
⎢ 0.00000 ⎥
⎢ ⎥
⎣ 0.34026 ⎦

Las matrices Λ, Λ-1 y Q:


Removiendo los valores propios nulos y los vectores propios correspondientes:

⎡19.88153 ⎤ ⎡0.05030 ⎤
Λ=⎢ ; Λ−1 = ⎢
⎣ 3.11847⎥⎦ ⎣ 0.32607⎥⎦

⎡0.61986 0.34026 ⎤
⎢0.48120 − 0.87661⎥
Q=⎢ ⎥
⎢0.00000 0.00000 ⎥
⎢ ⎥
⎣0.61986 0.34026 ⎦

La matriz pseudoinversa N+ = Q Λ-1 QT:

⎡ 0.05645 − 0.08064 0.00000 0.05645 ⎤


⎢− 0.08064 0.25806 0.00000 − 0.08064⎥⎥
N =⎢
+
⎢ 0.00000 0.00000 0.00000 0.00000 ⎥
⎢ ⎥
⎣ 0.05645 − 0.08064 0.00000 0.05645 ⎦

La solución óptima X = Q Λ-1 QT ATL:

⎡0.79034⎤
⎢1.87095 ⎥
X =⎢ ⎥ Æ X = X T X = 2.17939
⎢0.00000⎥
⎢ ⎥
⎣0.79034⎦

El vector error V = AX – L:

⎡− 0.96770⎤
⎢ 0.58067 ⎥
⎢ ⎥
⎢ 0.45162 ⎥
V =⎢ ⎥ Æ V = V V = 1.93541
T

⎢ 0.12905 ⎥
⎢ 0.58067 ⎥
⎢ ⎥
⎢⎣ 0.32258 ⎥⎦

Varianza y error estándar de una componente del vector de términos independientes:

La varianza estimada es:

26
V TV 1.93541
σˆ 0 2 = = = 0.48385
n − ℜ( A) 6−2

El error estándar estimado es:

V TV
σˆ 0 = = 0.69651
n − ℜ( A)

La matriz varianza-covarianza del vector de incógnitas:

La solución óptima es: X = Q Λ-1 QT AT L


La matriz varianza-covarianza del vector de incógnitas X es según la ley general de
la propagación de la varianza-covarianza:

Σ X = (QΛ−1Q T AT )Σ L (QΛ−1Q T AT ) T (40.3)

La matriz varianza covarianza del vector L es:

⎡σˆ 0 2 ⎤
⎢ ⎥
σˆ 0 2
ΣL = ⎢ ⎥ = σˆ 2 I (41.3)
⎢ O ⎥ 0

⎢ ⎥
⎣⎢ σˆ 0 2 ⎦⎥

donde se ha considerado que las componentes de L son estocásticamente no


correlacionadas; es decir que sus covarianzas son nulas. Teniendo en cuenta las
condiciones i)-iv) que debe cumplir la pseudoinversa de Moore-Penrose, la matriz
varianza-covarianza del vector de incógnitas X, es:

Σ X = σˆ 0 QΛ−1Q T
2
(42.3)

Entonces la matriz varianza- covarianza es:

⎡σx1 2 σx1 x 2 σx1 x3 σx1 x 4 ⎤ ⎡0.02731 − 0.03902 0 0.02731 ⎤


⎢ ⎥ ⎢
σx 2 2 σx 2 x3 σx 2 x 4 ⎥ ⎢ 0.12487 0 − 0.03902⎥⎥
ΣX = ⎢ =
⎢ σx3 2 σx3 x 4 ⎥ ⎢ 0 0 ⎥
⎢ ⎥ ⎢ ⎥
⎣⎢ sim σx 4 2 ⎦⎥ ⎣ sim 0.02731 ⎦

Varianzas y errores estándar de las incógnitas:

σx12 = 0.02731 Æ σx1 = 0.16526 σx32 = 0 Æ σx3 = 0

σx22 = 0.12487 Æ σx2 = 0.35337 σx42 = 0.02731Æ σx4 = 0.16526

Estimación de la norma de δL: δL = V T V = 1.93541

27
La norma de L es: L = LT L = 8.7178
Estimación del error relativo del término independiente:

δL 1.93541
= = 0.0420
L 8.7178

Estimación de la norma de δX: δX = (σx1 , σx 2 , σx3 , σx 4 ) T

δX = δX T δX = 0.179492 = 0.4237

La norma de X: X = X T X = 2.1794

Estimación del error relativo del vector solución:

δX 0.4237
= = 0.1944
X 2.1794

λmax 19.88153
Condición de la matriz normal: cond (N) = = = 6.3754
λmin 3.11847

Debe cumplirse la (21.3):

δX δL
≤ cond ( N ) Æ 0.1944 ≤ 6.3754 0.0420 = 0.2678
X L

4.- Descomposición en Valores Singulares

Toda matriz A de orden n x m y de rango r ≤ m, puede factorizarse mediante el uso


de una matriz diagonal D y dos matrices ortogonales U y V:

A = U D VT (1.4)

donde UT U =VT V = Im
y

⎡ µ1 ⎤
⎢ µ2 ⎥
D=⎢ ⎥
⎢ O ⎥
⎢ ⎥
⎣ µm ⎦

µi : raíces positivas de los valores propios de la matriz ATA (valores singulares). Los
valores singulares se ordenan de la siguiente manera:

28
µ1 ≥ µ2 ≥…≥ µr > µ r+1 = µ r+2 =…= µ m = 0

Prueba: Existe una matriz ortogonal V que satisface:

VT (ATA) V = Λ (2.4)

donde V = Q = [q1, q2, …, qm], qj para j = 1, 2, …, m son los vectores propios


normalizados de ATA y Λ es una matriz diagonal, cuyos elementos diagonales son
los valores propios de ATA.
Según la definición de valor singular: Λ = D2, entonces la (2.4) puede escribirse:

VT (ATA) V = D2 (3.4)

Sea:

AV = F (4.4)

FTF = (AV)TAV = VT ATA V = D2 (5.4)

F = [f1, f2,…, fr, f r+1, f r+2,…, fm]

Removiendo los vectores propios correspondientes a los valores singulares nulos,


redefinimos F:

F = [f1, f2,…, fr] (6.4)

De (5.4) se ve que:
2
fjT fj = f j = µj
2
(7.4)

entonces:

fj = µj (8.4)

Se define la matriz U de la siguiente manera:

⎡f f2 fr ⎤
U =⎢ 1 ... = F D-1 (9.4)
⎣ µ1 µ2 µ r ⎥⎦

Así definida, U es una matriz ortogonal; en efecto:

UTU = (FD-1)T F D-1 = D-1 FTF D-1 = D-1 D2 D-1= D-1 D D D-1 = Ir Ir = Ir

UTU = Ir Æ U es una matriz ortogonal.

De la (9.4):

29
F = UD (10.4)

Reemplazando (10.4) en (4.4):

AV = UD (11.4)

Multiplicando ambos miembros de (11.4) a derecha, por VT:

A = U D VT

Se tiene la (1.4), como se quería demostrar.

La inversa de la matriz A es:

A-1 = (U D VT)-1 = (VT)-1D-1U-1 = V D-1 UT

A-1 = V D-1 UT (12.4)

La (12.4), denotada por A+, cumple con las siguientes condiciones:

i) AA+A = A
ii) A+AA+ = A+ (13.4)
iii) (AA+)T =AA+
iv) (A+A)T = A+A

Según las (13.4), A+ = V D-1 UT, es la pseudoinversa de Moore – Penrose de la matriz


A.
Dado que V = Q y U = FD-1, reemplazando en la (12.4), la solución del sistema lineal
inconsistente AX = L es:

X = A+L = VD-1UT L = QD-1(FD-1)T L = QD-1D-1FT L

Reemplazando por F = AV:

X = Q D-1D-1(AV)T L = Q D-2 VTATL

X = Q (D2)-1 VTATL = Q Λ-1 QT ATL

X = Q Λ-1 QT ATL (14.4)

La (14.4) es la solución óptima mínimos cuadrados, mínima norma que vimos en la


sección 3.

Ejemplo 1.4: Resolver el siguiente sistema lineal inconsistente AX=L por


descomposición en valores singulares:

30
⎡2 1 0 2⎤ ⎡6⎤
⎢1 0 1 ⎥⎥ ⎢ ⎥
⎢ 0 ⎡ x1 ⎤ ⎢ 1 ⎥
⎢1 1 0 1⎥ ⎢x ⎥ ⎢ 3 ⎥
⎢ ⎥ ⎢ 2⎥ = ⎢ ⎥
⎢0 − 1 0 0⎥ ⎢ x3 ⎥ ⎢− 2⎥
⎢1 0 ⎢ ⎥ ⎢ ⎥
0 1⎥ ⎣ x4 ⎦ 1
⎢ ⎥ ⎢ ⎥
⎣⎢1 2 0 1 ⎦⎥ ⎣⎢ 5 ⎦⎥

Valores propios de ATA:

λ1 = 19.88153, λ2 = 3.11847, λ3 = 0, λ4 = 0
Valores singulares:

µ1 = 4.45887, µ2 = 1.76592, µ3 = 0, µ4 = 0

Las matrices D y D-1 luego de remover los valores singulares nulos:

⎡4.45887 ⎤ ⎡0.22427 ⎤
D=⎢ D −1 = ⎢
⎣ 1.76592⎥⎦ ⎣ 0.56626⎥⎦

La matriz V, luego de remover los vectores propios correspondientes a los valores


propios nulos:

⎡0.61986 0.34026 ⎤
⎢0.48120 − 0.87661⎥
V =⎢ ⎥
⎢0.00000 0.00000 ⎥
⎢ ⎥
⎣ 061986 0.34026 ⎦

La matriz F = AV:

⎡ 2.9606 0.4844 ⎤
⎢ 1.2397 0.6805 ⎥⎥

⎢ 1.7209 − 0.1961⎥
F=⎢ ⎥
⎢− 0.4812 0.8766 ⎥
⎢ 1.2397 0.6805 ⎥
⎢ ⎥
⎣⎢ 2.2021 − 1.0727⎦⎥

La matriz U = FD-1:

31
⎡ 0.6640 0.2743 ⎤
⎢ 0.2780 0.3854 ⎥⎥

⎢ 0.2860 − 0.1110⎥
U =⎢ ⎥
⎢− 0.1079 0.4964 ⎥
⎢ 0.2780 0.854 ⎥
⎢ ⎥
⎣⎢ 0.4939 − 0.6074⎦⎥

La pseudoinversa de Moore-Penrose: A+ = VD-1UT:

⎡ 0.145161 0.112903 0.032258 0.080645 0.112903 − 0.48387 ⎤


⎢− 0.064516 − 0.161290 0096774 − 0.258064 − 0.161290 0.354839 ⎥
A+ = ⎢ ⎥
⎢ 0.000000 0.000000 0.000000 0.000000 0.000000 0.000000 ⎥
⎢ ⎥
⎣ 0.145161 0.112903 0.032258 0.080645 0.112903 − 0.048398⎦

La solución óptima: X = A+L = VD-1UT L:

⎡ x1 ⎤ ⎡0.790322⎤
⎢ x ⎥ ⎢1.870968 ⎥
X = ⎢ 2⎥ = ⎢ ⎥ Æ X = X T X = 2.1739
⎢ x3 ⎥ ⎢0.000000⎥
⎢ ⎥ ⎢ ⎥
⎣ x 4 ⎦ ⎣0.790322⎦

El vector error: V = AX – L:

⎡− 0.9677⎤
⎢ 0.5806 ⎥
⎢ ⎥
⎢ 0.4516 ⎥
V =⎢ ⎥ Æ V = V V = 1.93541
T

⎢ 0.1290 ⎥
⎢ 0.5806 ⎥
⎢ ⎥
⎣⎢ 0.3226 ⎦⎥

Estimación de la varianza y del error estándar de las componentes de L:

V TV
σˆ 0 2 = = 0.4839 , σˆ 0 = 0.6956
n − ℜ( A)

La matriz varianza-covarianza del vector solución:

Según la ley general de propagación de la varianza-covarianza aplicada a la expresión


de la solución óptima X = A+L = VD-1UT L

ΣX = A+ ΣL A+T = A+ σ02I A+T = σ02 A A+T = σ02 VD-1UT (VD-1UT)T

ΣX = σ02 VD-1UTUD-1VT = σ02 VD-1D-1VT = σ02 VD-2VT = σ02 Q (D2)-1QT

32
ΣX = σ02 Q Λ-1 QT

Esta expresión es la (42.3) de la sección anterior.

5.- Mínimos Cuadrados Ponderados

Supóngase que se desea estimar el peso de un objeto en base a dos observaciones x = l1


y x = l2. A menos que estas observaciones sean idénticas, nos enfrentamos a un sistema
inconsistente de dos ecuaciones con una incógnita: AX = L (Strang G., 1986):

⎡1⎤ ⎡ l1 ⎤
⎢1⎥[ X ] = ⎢l ⎥ (1.5)
⎣⎦ ⎣ 2⎦

Supongamos que ambas observaciones son igualmente fidedignas y buscamos el valor x


que minimice:

V2 = (x – l1)2 + (x – l2)2 (2.5)

La condición de mínimo es:

dV 2
= 2( x − l1 ) + 2( x − l 2 ) = 0 (3.5)
dx

Entonces:

l1 + l 2
x= (4.5)
2

La x óptima es la media aritmética de ambas observaciones. Supongamos ahora que las


dos observaciones no son confiables en el mismo grado. El valor de x = l1 se obtuvo con
un instrumento más preciso que el valor de x = l2; no obstante no estamos dispuestos a
desechar la información contenida en la segunda observación. El camino más sencillo
consiste en adjudicar diferentes pesos pi = wi2 a las dos observaciones y elegir la Xw que
minimice la suma ponderada de cuadrados:

V2 = w12(x –l1)2 + w22 (x –l2)2 (5.5)

Si w1 > w2, entonces se adjudica más importancia a la primera observación.


Para hallar la solución óptima x, hacemos:

dV 2
dx
[2 2
]
= 2 w1 ( x − l1 ) + w2 ( x − l 2 ) = 0 (6.5)

de donde:

33
2 2
w1 l1 + w2 l 2
Xw = 2 2
(7.5)
w1 + w2

En lugar de la media aritmética de l1 y l2, como cuando w1 = w2, Xw es un promedio


ponderado de los datos. Este promedio está más cerca de l1 que de l2.
Llamemos W a la matriz:

⎡w 0⎤
W =⎢ 1 (8.5)
⎣0 w2 ⎥⎦

y multipliquemos ambos miembros a la izquierda de (1.5):

⎡ w1 0 ⎤ ⎡1⎤
[x] = ⎡⎢ 1
w 0 ⎤ ⎡ l1 ⎤
⎢0 ⎥ (9.5)

⎢ ⎥
w2 ⎦ ⎣1⎦ ⎣0 w2 ⎥⎦ ⎢⎣l 2 ⎥⎦

⎡ w1 ⎤ ⎡ w1l1 ⎤
⎢ w ⎥ [x ] = ⎢ w l ⎥ (10.5)
⎣ 2⎦ ⎣ 2 2⎦
Es decir:

WAX = WL (11.5)

La solución mínimos cuadrados es ahora:

Xw = [(WA)T(WA)] -1 (WA)TWL

Xw = [AT(WTW)A)] -1 AT(WT W) L (12.5)

Si hacemos:

P = WTW (13.2)

se tiene:

Xw = (ATPA)-1ATPL (14.5)

donde:

⎡w 2 0 ⎤
P=⎢ 1 2⎥
(15.5)
⎣ 0 w2 ⎦

es la matriz de los pesos de las observaciones.

Sea AX = L un sistema de ecuaciones lineales, donde A es una matriz real de orden n x


m, R (A) ≤ m y L es el vector de los términos independientes de orden nx1. Las
componentes de L son observaciones de iguales o distintos pesos. Los errores de
observación que afectan las componentes de L, impiden a éste pertenecer al espacio

34
columna de la matriz A. En consecuencia, el sistema lineal en cuestión, resulta
inconsistente.
Supongamos que el vector L es una variable estocástica conjunta de dimensión n y σi
son los errores o desvíos estándar de cada componente li. La matriz varianza covarianza
de L es:

⎡σ 1 2 σ 12 ... σ 1n ⎤
⎢ ⎥
⎢ σ 2 2 ... σ 2 n ⎥
ΣL = (16.5)
⎢ O M ⎥
⎢ ⎥
⎣⎢ sim σ n 2 ⎥⎦

Si las observaciones son no correlacionadas, las covarianzas son nulas (σij = 0, i ≠ j),
entonces la (16.5) es:

⎡σ 1 2 ⎤
⎢ ⎥
⎢ σ2 2

ΣL = (17.5)
⎢ O ⎥
⎢ ⎥
⎣⎢ σ n 2 ⎥⎦
El peso de cada observación se define por:

σ 02
pi = 2 (18.5)
σi

donde σ0 es el error estándar de una observación hipotética a la que se asigna peso 1,


entonces:

σ 02
σi2 = (19.5)
pi

La (17.5) puede escribirse de la siguiente manera:

⎡1 / p1 ⎤
⎢ 1 / p2 ⎥
ΣL = σ 0 ⎢ ⎥ = σ02 P-1
2
(20.5)
⎢ O ⎥
⎢ ⎥
⎣ 1 / pn ⎦

Entonces la matriz de los pesos, es:

P = σ02 ΣL-1 (21.5)

σ02 es la varianza poblacional estimada por la muestra de observaciones [l1, l2,…, ln]T.
La estimación de σ02 está dada por:

35
V T PV
σˆ 0 2 = (22.5)
n − ℜ( A)

Una prueba de hipótesis y significación con la distribución chi-cuadrado, permite tomar


la decisión de aceptar o rechazar que el valor de σˆ 0 está suficientemente cercano a 1 al
2

nivel de confianza escogido. Hemos aceptado a priori, que la desviación estándar de la


observación hipotética de peso 1, es igual a1.
El sistema inconsistente AX = L, se denomina el sistema de las ecuaciones de
observación. Las varianzas y covarianzas de las observaciones contenidas en el vector
L, se propagan inevitablemente al vector de las incógnitas X.
De la (14.5), la solución mínimos cuadrados es:

X = (ATPA)-1ATPL

X = (Q Λ-1QT ATP)L (23.5)

La matriz varianza covarianza del vector X, es:

ΣX = (Q Λ-1QT ATP) ΣL (Q Λ-1QT ATP)T = (Q Λ-1QT ATP) σ02 P-1(Q Λ-1QT ATP)T

ΣX = σ02 Q Λ-1QT (ATP A)Q Λ-1QT = σ02 N+NN+ = σ02 N+ = σ02 Q Λ-1QT
donde
ΣX = σ02 Q Λ-1QT

es la (42.3) de la sección 3.

Ejemplo 1.5: Resolver el siguiente sistema lineal inconsistente:

⎡2 1 0 2⎤ ⎡6⎤
⎢1 0 1 ⎥⎥ ⎢ ⎥
⎢ 0 ⎡ x1 ⎤ ⎢ 1 ⎥
⎢1 1 0 1⎥ ⎢x ⎥ ⎢ 3 ⎥
⎢ ⎥ ⎢ 2 ⎥ = ⎢ ⎥ , R (A) = 2
⎢0 − 1 0 0⎥ ⎢ x3 ⎥ ⎢− 2⎥
⎢1 0 ⎢ ⎥ ⎢ ⎥
0 1⎥ ⎣ x4 ⎦ 1
⎢ ⎥ ⎢ ⎥
⎣⎢1 2 0 1 ⎦⎥ ⎣⎢ 5 ⎦⎥

con la matriz varianza- covarianza de los términos independientes:

⎡ 0.5 0.2 0.01 0.02 0.01 0.03⎤


⎢ 0.2 0.7 0.02 0.03 0.02 0.01⎥⎥

⎢ 0.01 0.02 0.2 0.1 0.01 0.02⎥
ΣL = ⎢ ⎥
⎢0.02 0.03 0.1 0.4 0.03 0.01⎥
⎢ 0.01 0.02 0.01 0.03 0.6 0.2 ⎥
⎢ ⎥
⎣⎢0.03 0.01 0.02 0.01 0.2 0.3 ⎦⎥

36
Las componentes (observaciones) l1 y l2, l3 y l4, l5 y l6 están moderadamente
correlacionadas, mientras que l1 y l2 con l3, l4, l5, l6 y l3 y l4 con l5 y l6 están
débilmente correlacionadas.

Coeficientes de correlación:

σ ij
Se definen como: ρ ij = (24.5)
σ iσ j

Así:

ρ1 2 = 0.34, ρ3 4 = 0.35, ρ5 6 = 0.47 Æ correlaciones moderadas

ρ1 3 = 0.02, ρ1 4 = 0.09, ρ1 5 = 0.02, ρ1 6 = 0.08 Æ correlaciones débiles


ρ2 3 = 0.05, ρ2 4 = 0.06, ρ2 5 = 0.03, ρ2 6 = 0.02 Æ correlaciones débiles
ρ3 5 = 0.03, ρ3 6 = 0.02, ρ4 6 = 0.06, ρ5 6 = 0.03 Æ correlaciones débiles

Valores propios de ΣL:

λ1 = 0.83726, λ2 = 0.69529, λ3 = 0.20232, λ4 = 0.15390, λ5 = 0.37826, λ6 =0.43297

Todos los valores propios de ΣL son positivos, luego la matriz varianza – covarianza
de las observaciones es positivamente definida y la matriz de los pesos también lo
es.

La matriz de los pesos: P = ΣL-1:

⎡2.2744 − 0.6456 0.0052 − 0.6560 0.0750 − 0.2511⎤


⎢ 1.6194 − 0.1022 − 0.0607 − 0.0578 0.0579 ⎥⎥

⎢ 5.7680 − 1.4312 0.4570 − 0.4106⎥
P= ⎢ ⎥
⎢ 2.8714 − 0.1536 0.1106 ⎥
⎢ 2.1545 − 1.4441⎥
⎢ ⎥
⎢⎣ sim 4.3429 ⎥⎦

La matriz normal: N = ATPA

⎡16.0095 14.8563 0 16.0095⎤


⎢14.8563 28.1962 0 14.8563⎥⎥
N =⎢ , R (N) = 2
⎢ 0 0 0 0 ⎥
⎢ ⎥
⎣16.0095 14.8563 0 16.0095⎦

Los valores propios de N: λ1 = 51.204, λ2 = 9.0109, λ3 = 0, λ4 = 0.

La matriz N es positivamente semidefinida (λ3 = 0, λ4 = 0), su determinante es cero.


Es necesario remover los valores propios nulos de la matriz Λ y los vectores propios
normalizados correspondientes de la matriz Q, para hallar la pseudoinversa N+.

37
Las matrices Λ y Λ-1 (se remueven los valores propios nulos):

⎡51.204 0 ⎤ ⎡0.01953 0 ⎤
Λ=⎢ Λ−1 = ⎢
⎣ 0 9.0109⎥⎦ ⎣ 0 0.11098⎥⎦

La matriz Q (luego de remover los vectores propios normalizados correspondientes


a los valores propios nulos):

⎡0.5222 − 0.4768⎤
⎢0.6743 0.7384 ⎥
Q=⎢ ⎥
⎢ 0 0 ⎥
⎢ ⎥
⎣0.5222 − 0.4768⎦

La matriz pseudoinversa: N+ = Q Λ-1 QT

⎡ 0.0306 − 0.0322 0 0.0306 ⎤


⎢− 0.0322 0.0694 0 − 0.0322⎥⎥
N+ = ⎢
⎢ 0 0 0 0 ⎥
⎢ ⎥
⎣ 0.0306 − 0.0322 0 0.0306 ⎦

La solución óptima: X = Q Λ-1QTATPL

⎡0.8369⎤
⎢1.7757 ⎥
X =⎢ ⎥ Æ X = X T X = 2.1340
⎢0.0000⎥
⎢ ⎥
⎣0.8369⎦

El vector error: V = AX – L

⎡− 0.8766⎤
⎢ 0.6739 ⎥
⎢ ⎥
⎢ 0.4495 ⎥
V =⎢ ⎥ Æ V = V V = 1.4070
T

⎢ 0.2243 ⎥
⎢ 0.6739 ⎥
⎢ ⎥
⎢⎣ 0.2252 ⎥⎦

Estimación de la varianza:

V T PV
σˆ 0 2 = = 1.2251
n − ℜ( A)

La prueba chi-cuadrado para la estimación de la varianza σˆ 0


2

38
Hipótesis Nula H0: σˆ 0 2 = σ 0 2 = 1

Hipótesis Alternativa H1: σˆ 0 ≠ σ 0 = 1


2 2

ν = n – R (A) = 6 – 2 = 4 (grados de libertad)

χ2 ν, 0.025 = 0.488, χ2 ν, 0.975 = 11.1

νσˆ 0 2 νσˆ 0 2
≤ 1 ≤ Æ 0.441 ≤ 1 ≤ 10.042 Æ La varianza pasa la prueba χ2 al
χ ν , 0.975
2
χ ν ,0.025
2

95% de confianza. Podemos tomar la decisión de aceptar (o al menos no rechazar) la


hipótesis de que la varianza poblacional, σ02, es igual a 1.

La matriz varianza- covarianza del vector incógnita X: ΣX = σˆ 0 QΛ−1Q T


2

⎡0.0151 − 0.0159 0 0.0151 ⎤


⎢ 0.0343 0 − 0.0159⎥⎥
ΣX = ⎢
⎢ 0 0 ⎥
⎢ ⎥
⎣ sim 0.0151 ⎦

Los errores estándar de las incógnitas: σx1 = 0.1230, σx2 =0.1853, σx3 = 0
σx4 =0.1230.

Los coeficientes de correlación de las incógnitas: ρ x1x 2 = −0.6976 , ρ x1x 3 = 0


ρ x1x 4 = 0.9981 , ρ x 2 x 3 = 0 , ρ x 2 x 4 = −0.6976 , ρ x 3 x 4 = 0 .

En el siguiente cálculo no consideraremos las correlaciones débiles. La matriz


varianza-covarianza del vector L es ahora:

⎡ 05 0.2 0 0 0 0⎤
⎢02. 0.7 0 0 0 0 ⎥⎥

⎢0 0 0.2 0.1 0 0⎥
ΣL = ⎢ ⎥
⎢0 0 0.1 0.4 0 0⎥
⎢0 0 0 0 0.6 0.2⎥
⎢ ⎥
⎢⎣ 0 0 0 0 0.2 0.3⎥⎦

Los valores propios de la matriz covarianza: λ1 =0.3764, λ2 = 0.8263, λ3 = 0.1586


λ4 = 0.4414, λ5 = 0.7000, λ6 = 0.2000. Todos los valores propios son positivos,
entonces ΣL es positivamente definida.

La matriz de los pesos: P = ΣL-1

39
⎡ 2.2581 − 0.6452 ⎤
⎢− 0.6452 1.6129 ⎥
⎢ ⎥
⎢ 5.7143 − 1.4286 ⎥
P=⎢ ⎥
⎢ − 1.4286 2.8571 ⎥
⎢ 2.1429 − 1.4286⎥
⎢ ⎥
⎣⎢ − 1.4286 4.2857 ⎦⎥

La matriz normal: N = ATPA

⎡17.3502 16.7281 0 17.3502⎤


⎢16.7281 30.8295 0 16.7281⎥⎥
N=⎢
⎢ 0 0 0 0 ⎥
⎢ ⎥
⎣17.3502 16.7281 0 17.3502⎦

Los valores propios de N: λ1 = 56.5011, λ2 = 9.0288, λ3 = 0, λ4 = 0


La matriz N es positivamente semidefinida (λ3 = 0, λ4 = 0), su determinante es cero.
Es necesario remover los valores propios nulos de la matriz Λ y los vectores propios
normalizados correspondientes de la matriz Q, para hallar la pseudoinversa N+.

Las matrices Λ y Λ-1:

⎡56.5011 0 ⎤ ⎡0.0172 0 ⎤
Λ=⎢ Λ−1 = ⎢
⎣ 0 9.0288⎥⎦ ⎣ 0 0.1108⎥⎦

La matriz Q:

⎡0.5200 − 0.4792⎤
⎢0.6777 0.7354 ⎥
Q=⎢ ⎥
⎢ 0.000 0.0000 ⎥
⎢ ⎥
⎣0.5200 − 0.4792⎦

La matriz pseudoinversa: N+ = Q Λ-1 QT.

⎡ 0.0302 − 0.0328 0 0.0302 ⎤


⎢− 0.0328 0.0680 0 − 0.0328⎥⎥
N =⎢
+
⎢ 0 0 0 0 ⎥
⎢ ⎥
⎣ 0.0302 − 0.0328 0 0.0302 ⎦

La solución óptima: X = N+ATPL.

40
⎡0.8198⎤
⎢1.7995 ⎥
X =⎢ ⎥Æ X = X T X = 2.1406
⎢0.0000⎥
⎢ ⎥
⎣0.8198⎦

El vector error: V = AX – L

⎡− 0.9214⎤
⎢ 0.6396 ⎥
⎢ ⎥
⎢ 0.4390 ⎥
V =⎢ ⎥ Æ V = V V = 1.9570
T

⎢ 0.2005 ⎥
⎢ 0.6396 ⎥
⎢ ⎥
⎢⎣ 0.2385 ⎥⎦

Estimación de la varianza:

V T PV
σˆ 0 2 = = 1.2466
n − ℜ( A)

Pasa la prueba chi-cuadrado al 95% de confianza.

La matriz varianza-covarianza de las incógnitas: Σ X = σˆ 0 N +


2

⎡ 0.0377 − 0.0409 0 0.0377 ⎤


⎢− 0.0409 0.0848 0 − 0.0409⎥⎥
ΣX = ⎢
⎢ 0 0 0 0 ⎥
⎢ ⎥
⎣ 0.0377 − 0.0409 0 0.0377 ⎦

Los errores estándar de las incógnitas:

σx1 = 0.1941, σx2 = 0.2912, σx3 = 0, σx4 = 0.1941

En el siguiente cálculo no consideramos las correlaciones. La matriz varianza-


covarianza es ahora:

⎡0.5 ⎤
⎢ 0.7 ⎥
⎢ ⎥
⎢ 0.2 ⎥
ΣL = ⎢ ⎥
⎢ 0.4 ⎥
⎢ 0.6 ⎥
⎢ ⎥
⎢⎣ 0.3⎥⎦

41
Los valores propios son los elementos diagonales. La matriz ΣL es positivamente
definida.

La matriz de los pesos: P = ΣL -1.

⎡2 ⎤
⎢ 1.4286 ⎥
⎢ ⎥
⎢ 5 ⎥
P=⎢ ⎥
⎢ 2.5 ⎥
⎢ 1.6667 ⎥
⎢ ⎥
⎢⎣ 3.3333⎥⎦

La matriz N = ATPA

⎡19.4286 15.6667 0 19.4286⎤


⎢15.6667 22.8333 0 15.6667⎥⎥
N =⎢
⎢ 0 0 0 0 ⎥
⎢ ⎥
⎣19.4286 15.6667 0 19.4286⎦

Los valores propios de N: λ1 = 54.4405, λ2 = 7.2851, λ3 = 0, λ4 = 0.


La matriz N es positivamente semidefinida (λ3 = 0, λ4 = 0), su determinante es cero.
Es necesario remover los valores propios nulos de la matriz Λ y los vectores propios
normalizados correspondientes de la matriz Q, para hallar la pseudoinversa N+.

Las matrices Λ y Λ-1.:

⎡54.4405 0 ⎤ ⎡0.0184 0 ⎤
Λ=⎢ Λ−1 = ⎢
⎣ 0 7.2851⎥⎦ ⎣ 0 0.1373⎥⎦

La matriz Q:

⎡0.5788 − 0.4062⎤
⎢0.5744 0.8186 ⎥
Q=⎢ ⎥
⎢0.0000 0.0000 ⎥
⎢ ⎥
⎣0.5788 − 0.4062⎦

La matriz pseudoinversa: N+ = Q Λ-1 QT y la solución óptima: X = N+ATPL

⎡ 0.0288 − 0.0395 0 0.0288 ⎤ ⎡0.8028⎤


⎢− 0.0395 0.0980 0 − 0.0395⎥⎥ ⎢1.7597 ⎥
N =⎢
+
; X =⎢ ⎥
⎢ 0 0 0 0 ⎥ ⎢0.0000⎥
⎢ ⎥ ⎢ ⎥
⎣ 0.0288 − 0.0395 0 0.0288 ⎦ ⎣0.8028⎦

42
El vector de los residuos: V = AX – L

⎡− 1.0297⎤
⎢ 0.6055 ⎥
⎢ ⎥
⎢ 0.3652 ⎥
V =⎢ ⎥
⎢ 0.2403 ⎥
⎢ 0.6055 ⎥
⎢ ⎥
⎣⎢ 0.1249 ⎦⎥

Estimación de la varianza:

V T PV
σˆ 0 2
= = 1.0292
n − ℜ( A)

Pasa la prueba chi-cuadrado al 95% de confianza.

La matriz varianza-covarianza de las incógnitas: Σ X = σˆ 0 N +


2

⎡ 0.0296 − 0.0407 0 0.0296 ⎤


⎢− 0.0407 0.1009 0 − 0.0407⎥⎥
ΣX = ⎢
⎢ 0 0 0 0 ⎥
⎢ ⎥
⎣ 0.0296 − 0.0407 0 0.0296 ⎦

Los errores estándar de las incógnitas:

σx1 = 0.1722, σx2 = 0.3177, σx3 = 0, σx4 = 0.1722

Este ejemplo muestra que tanto las incógnitas como sus errores estándar, cambian
con la matriz varianza-covarianza de las componentes del vector L; es decir las
observaciones. Ciertos problemas de ingeniería, el ajuste de redes GPS por ejemplo,
requieren determinadas precisiones en las incógnitas. En consecuencia es necesario
tener en cuenta las correlaciones entre las observaciones, cuando existen, a fin de
modelar adecuadamente los errores de observación.

6.- Ajuste de Redes GPS

Los dos resultados inmediatos del procesamiento de la fase de la portadora son el vector
entre estaciones, usualmente expresado en diferencias de coordenadas cartesianas
WGS’84, y la matriz varianza-covarianza de orden 3x3, de las diferencias de
coordenadas. Los resultados de un levantamiento GPS se obtienen de esta forma si el
procesamiento de la fase se lleva a cabo vector a vector. Un vector GPS entre dos
estaciones se denota por ∆ y está representado en WGS’84 por las diferencias de
coordenadas o componentes:

∆ = [∆X, ∆Y, ∆Z]T (1.6)

43
La matriz varianza-covarianza del vector ∆ es:

⎡σ ∆ X 2 σ ∆X∆Y σ ∆X∆Z ⎤
⎢ ⎥
Σ∆ = ⎢ σ ∆Y 2 σ ∆Y∆Z ⎥ (2.6)
⎢ σ ∆ Z 2 ⎥⎦
⎣ sim

Un conjunto de nv vectores GPS que conectan p estaciones formando figuras cerradas,


conforman una red espacial. Las figuras formadas no cierran debido a los inevitables
errores de observación de las componentes; es decir:

Σ ∆X = εX ≠ 0
Σ ∆Y = εY ≠ 0 (3.6)
Σ ∆Z = εZ ≠ 0

Si el error de cierre en cada figura:

ε = ε X 2 + εY 2 + ε Z 2 (4.6)

está por debajo de una cierta tolerancia, la red GPS podrá ser ajustada mediante algún
algoritmo determinado. El modulo de un vector GPS o distancia entre estaciones es:

2 2 2
∆ = ∆ X + ∆Y + ∆ Z (5.6)

y el error “estándar especificado” es:

(σ ∆ ) = a + b ppm ∆ (mm) (6.6)

La tolerancia de cierre para una figura espacial de nl lados, puede expresarse:

nl
Tol = 2.5 ∑ (σ
k =1
∆k )2 (7.6)

En una red GPS los parámetros a ajustar son las coordenadas cartesianas X, Y, Z de las
estaciones, mientras que las observaciones son las componentes ∆X, ∆Y, ∆Z de los
vectores medidos. Las distancias entre estaciones, que son invariantes respecto del
sistema de coordenadas, pueden incluirse también como observaciones.
En la red GPS existe una relación explícita entre observaciones y parámetros:

La = F (Xa) (8.6)

La ≡ vector de observaciones ajustado, de dimensión n.


Xa ≡ vector de parámetros ajustado, de dimensión m.
F ≡ un conjunto de n funciones donde algunas pueden ser no lineales.

44
Sea n el número de observaciones y m el número de parámetros de la red. Así, una red
GPS con p estaciones donde se han medido nv vectores, tiene m = 3p parámetros
incógnitas y n = 4nv observaciones si se incluyen las distancias.
El vector Xa se expresa:

Xa = Xº + X (9.6)

donde Xº es un vector de parámetros aproximados que son las coordenadas a priori de


todas las estaciones de una red de referencia, de la cual se parte para llegar a la red
ajustada, tras sucesivas iteraciones. Algunos centenares de metros son suficientes para
lograr una buena convergencia a los valores definitivos. Las coordenadas absolutas a
partir del procesamiento de las observaciones de código C/A cumplen holgadamente
con estas exigencias. El vector X es un vector de correcciones diferenciales a los
parámetros aproximados.
Asimismo:
La = Lb + V (10.6)

Lb es el vector de las observaciones y V es el vector de las correcciones o residuos.


Reemplazando (9.6) y (10.6) en la (8.6):

F (Xº + X) = Lb + V (11.6)

Desarrollando (11.6) en serie de Taylor:

⎛ ∂F ⎞
F(X º ) + ⎜ ⎟ X = Lb + V (12.6)
⎝ ∂X ⎠ 0

⎛ ∂F ⎞
⎜ ⎟ X = Lb − F ( X º ) + V (13.6)
⎝ ∂X ⎠ 0

Haciendo L = Lb – F(Xº) y reemplazando en (13.6):

⎛ ∂F ⎞
⎜ ⎟ X = L +V (14.6)
⎝ ∂X ⎠ 0

La derivada parcial de F respecto de X, evaluada en los parámetros aproximados, se


denota por A y se la denomina la matriz de diseño. La (14.6) puede escribirse ahora:

AX=L+V (15.6)

La (15.6) es la expresión matricial del sistema de las ecuaciones de observación y tiene


dos incógnitas, los vectores X y V. El sistema lineal A X = L es inconsistente debido a
que en las componentes del vector L, están las observaciones afectadas de sus propios
errores. El problema se resuelve minimizando la cantidad:

n
V T PV = ∑ pi vi
2
(16.6)
i =1

45
donde P es la matriz de los pesos (21.5). Si las observaciones son solamente las
componentes de los vectores GPS medidos, la matriz varianza-covarianza de la red, es
diagonal por bloques de orden 3 x 3. Así, el orden de la matriz ΣL (y también de la
matriz P) es 3nv x 3nv.

De la (15.6):

V=AX–L (17.6)

Reemplazando (17.6) en (16.6):

Φ ( X ) = ( AX − L) T P( AX − L)
Φ ( X ) = ( X T AT − LT )( PAX − PL)
Φ ( X ) = X T AT PAX − X T AT PL − LT PAX + LT PL

La diferencial total de Φ ( X ) , teniendo en cuenta la diferenciación de formas


cuadráticas y la simetría de la matriz ATPA, es:

dΦ ( X ) = (2 X T AT PA − 2 LT PA)dX (18.6)

La condición de mínimo para la función Φ ( X ) , es:

dΦ ( X )
=0 (19.6)
dX

De la (18.6):

dΦ ( X )
= 2 X T AT PA − 2 LT PA = 0 (20.6)
dX

XTATPA = LTPA (21.6)

Transponiendo ambos miembros de (21.6):

ATPA X = ATPL (22.6)

La (22.6) es el sistema de las ecuaciones normales en un problema de mínimos


cuadrados ponderados, cuya solución es:

X = (ATPA)-1ATPL (23.6)

Reemplazando (23.6) en (17.6) se obtienen las correcciones a las observaciones.


Reemplazando V en (10.6) se tiene el vector de las observaciones ajustadas La.
Los vectores Xa y La satisfacen la relación explícita entre observaciones y
parámetros.
Un vector espacial presenta seis grados de libertad manifestados por la orientación,
la escala y tres desplazamientos respecto del origen de coordenadas en la dirección
de los tres ejes coordenados. Así, para un vector GPS, ∆ = [∆X, ∆Y, ∆Z]T, se tiene:

46
orientación: rumbo ψ y elevación θ:

∆Y ∆Z
ψ = arctg , θ = arctg (24.6)
∆X ∆X 2 + ∆Y 2
La escala queda determinada por la distancia entre estaciones:

∆ = ∆X 2 + ∆Y 2 + ∆Z 2

Los vectores GPS fijan tres grados de libertad, orientación (rumbo y elevación) y
escala, mientras que quedan libres los tres desplazamientos respecto del origen
según los ejes coordenados.
Si una red GPS se ajusta sin estar vinculada a punto fijo alguno (constreñimiento
externo), se dice libre o no constreñida. Si, en cambio, se ajusta vinculada a sólo un
punto fijo, se dice fija mínimamente constreñida y si se la ajusta ligada a dos o más
puntos fijos, se dice fija sobre constreñida. La matriz normal N en una red libre, es
defectuosa de rango debido a la incertidumbre del origen (defecto del datum)
producido por los tres desplazamientos sin fijar. En consecuencia, la matriz normal
es positivamente semidefinida con tres valores propios nulos. La solución óptima se
obtiene mediante la pseudoinversa de Moore-Penrose, (39.3):

X = Q Λ-1 QT AT P L (25.6)

Si la red es mínimamente constreñida o sobre constreñida, queda fijada en


orientación, escala y origen y desaparece el defecto del datum. La matriz normal N
es ahora positivamente definida; es decir, de rango completo. La solución también
esta dada por la (25.6).

Para construir la matriz de diseño A, es necesario plantear ahora las ecuaciones de


observación para componentes y distancias.

Ecuaciones de observación para componentes:

Denotamos la componente ∆X ajustada por ∆Xaij, para un vector GPS entre las
estaciones I y J.

∆Xaij =Xj – Xi = ∆Xbij + v∆Xij (26.6)

Xi, Xj son coordenadas ajustadas o parámetros de las estaciones I, J, ∆Xbij es la


primera componente del vector ∆ observada y v∆Xij es la corrección o residuo
correspondiente. Las coordenadas ajustadas son:

Xi = Xiº + dXi, Xj = Xºj + dXj (27.6)

Reemplazando (27.6) en (26.6):

∆Xaij =Xºj + dXj – Xºi - dXi = ∆Xbij + v∆Xij

- dXi + dXj = ∆Xbij – (Xºj – Xºi) + v∆Xij

47
Haciendo Xºj – Xºi = ∆ºXij:

- dXi + dXj = ∆Xbij – ∆ºXij + v∆Xij (28.6)

Haciendo ahora ∆Xbij – ∆ºXij =L∆Xij:

- dXi + dXj = L∆Xij + v∆Xij (29.6)

La (29.6) es la ecuación de observación para la componente ∆X; análogamente:

- dYi + dYj = L∆Yij + v∆Yij (30.6)

- dZi + dZj = L∆Zij + v∆Zij (31.6)

son las ecuaciones de observación para ∆Y y ∆Z respectivamente. Las (29.6) a


(31.6), pueden escribirse ahora:

- dXi + dXj = L∆Xij + v∆Xij

- dYi + dYj = L∆Yij + v∆Yij

- dZi + dZj = L∆Zij + v∆Zij

y matricialmente, para el vector entre las estaciones I-J:

⎡ M ⎤
⎢ dX ⎥
⎢ i⎥
⎡... ... ... ... ... ... ... ... ...⎤ ⎢ dYi ⎥ ⎡ M ⎤ ⎡ M ⎤
⎢... − 1 0 0 ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢ ... 1 0 0 ...⎥⎥ ⎢ dZ i ⎥ ⎢ L∆Xij ⎥ ⎢v ∆Xij ⎥
⎢... 0 − 1 0 ... 0 1 0 ...⎥ ⎢ M ⎥ = ⎢ L∆Yij ⎥ + ⎢ v ∆Yij ⎥ (32.6)
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢... 0 0 − 1 ... 0 0 1 ...⎥ ⎢dX j ⎥ ⎢ L∆Zij ⎥ ⎢v ∆Zij ⎥
⎢⎣... ... ... ... ... ... ... ... ...⎥⎦ ⎢ dY ⎥ ⎢ M ⎥ ⎢ M ⎥
⎢ j⎥ ⎣ ⎦ ⎣ ⎦
⎢ dZ j ⎥
⎢ M ⎥
⎣ ⎦

Ecuaciones de observación para distancias:

La distancia entre dos estaciones I-J:

∆ = ( X j − X i ) 2 + (Y j − Yi ) 2 + ( Z j − Z i ) 2 = f ( X i , Yi , Z i , X j , Y j , Z j ) (33.6)

es una función no lineal de las coordenadas o parámetros involucrados. Debe ser


linealizada por un desarrollo en serie de Taylor. Los coeficientes numéricos del
desarrollo son:

48
⎛ ∂f ⎞ 1 ∆X º i j
⎜⎜ ⎟⎟ = − 2( X º j − X º i ) = − = − cos α (34.6)
⎝ ∂X i ⎠0 2∆ º i j ∆º i j

Análogamente:

⎛ ∂f ⎞ ∂f ⎞
⎜⎜ ⎟⎟ = − cos β ; ⎛⎜ ⎟ = − cos γ
⎝ ∂Yi ⎠ 0 ⎝ ∂Zi ⎠ 0
⎛ ∂f ⎞ ⎛ ⎞ ⎛ ⎞
⎜ ⎟ = cos α ; ⎜ ∂f ⎟ = cos β ; ⎜ ∂f ⎟ = cos γ
⎜ ∂X ⎟ ⎜ ∂Y ⎟ ⎜ ∂Z ⎟
⎝ j ⎠0 ⎝ j ⎠0 ⎝ j ⎠0

α, β, γ son los cosenos directores de la dirección espacial I-J.

La ecuación de distancia linealizada, (35.6), es:

-cos α dXi – cos β dYi – cos γ dZi + cos α dXj + cos β dYj+ cos γ dZj = ∆bij – ∆ºij + v∆ij

Haciendo ∆bij – ∆ºij = L∆ij, la (35.6) se escribe:

-cos α dXi – cos β dYi – cos γ dZi + cos α dXj + cos β dYj + cos γ dZj = L∆ij + v∆ij (36.6)

La expresión matricial para el vector I-J, (37.6), es:

⎡ M ⎤
⎢ dX ⎥
⎢ i⎥
⎢ dYi ⎥
⎢ ⎥
⎡... ... ... ... ... ... ... ... ...⎤ ⎢ dZ i ⎥ ⎡ M ⎤ ⎡ M ⎤
⎢... − cos α − cos β − cos γ ... cos α cos β cos γ ...⎥⎥ ⎢ M ⎥ = ⎢ L∆ij ⎥ + ⎢v ∆ij ⎥
⎢ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢⎣... ... ... ... ... ... ... ... ...⎥⎦ ⎢ j ⎥ ⎢⎣ M ⎥⎦ ⎢⎣ M ⎥⎦
dX
⎢ dY ⎥
⎢ j⎥
⎢ dZ j ⎥
⎢ M ⎥
⎣ ⎦

Ecuaciones de observación para coordenadas:

Si la estación I, por ejemplo, tiene coordenadas conocidas con errores estándar σXi, σYi,
σZi, podemos asignar a dichas coordenadas la categoría de observaciones, cuyas
ecuaciones son:

Xai = Xºi + dXi = Xbi + vXi

Yai = Yºi + dYi = Ybi + vYi (38.6)

Zai = Zºi + dZi = Zbi + vzi

49
Las Xºi, Yºi, Zºi, son las coordenadas aproximadas y las Xbi, Ybi, Zbi son las coordenadas
conocidas que se consideran como “observadas”. Las (38.6) se escriben:

dXi = Xbi – Xºi + vXi


dYi = Ybi – Yºi + vYi (39.6)
dZi = Zbi – Zºi + vZi

Matricialmente, las ecuaciones de observación para las coordenadas conocidas de la


estación I, son:

⎡... ... ... ... ...⎤ ⎡ M ⎤ ⎡ M ⎤ ⎡ M ⎤


⎢... 1 0 0 ...⎥⎥ ⎢dX ⎥ ⎢ L ⎥ ⎢v ⎥
⎢ ⎢ i⎥ ⎢ Xi⎥ ⎢ Xi⎥
⎢... 0 1 0 ...⎥ ⎢ dYi ⎥ = ⎢ LY i ⎥ + ⎢ vY i ⎥ (40.6)
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢... 0 0 1 ...⎥ ⎢ dZ i ⎥ ⎢ LZ i ⎥ ⎢ v Z i ⎥
⎢⎣... ... ... ... ...⎥⎦ ⎢⎣ M ⎥⎦ ⎢⎣ M ⎥⎦ ⎢⎣ M ⎥⎦

El sistema de las ecuaciones de observación de la red GPS, (41.6), presenta el siguiente


aspecto según las (32.6), (37.6) y (40.6):

⎡... ... ... ... ... ... ... ... .. ⎤ ⎡ M ⎤ ⎡ M ⎤


⎢... −1 .. ⎥⎥ ⎢ ⎥ ⎢ ⎥
⎢ 0 0 ... 1 0 0 ⎡ M ⎤ ⎢ L∆Xij ⎥ ⎢v ∆Xij ⎥
⎢... 0 −1 0 ... 0 1 0 ...⎥ ⎢ dX ⎥ ⎢ L ⎥ ⎢ v ⎥
⎢ ⎥ ⎢ i ⎥ ⎢ ∆Yij ⎥ ⎢ ∆Yij ⎥
⎢... 0 0 −1 ... 0 0 1 ...⎥ ⎢ dYi ⎥ ⎢ L∆Zij ⎥ ⎢v ∆Zij ⎥
⎢... ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
... ... ... ... ... ... ... ...⎥ ⎢ dZ i ⎥ ⎢ M ⎥ ⎢ M ⎥
⎢ ⎥
⎢... − cos α − cos β − cos γ ... cos α cos β cos γ ...⎥ ⎢ M ⎥ = ⎢ L∆ij ⎥ + ⎢ v ∆ij ⎥
⎢... ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
... ... ... ... ... ... ... ...⎥ ⎢dX j ⎥ ⎢ M ⎥ ⎢ M ⎥
⎢ ⎥
⎢... 1 0 0 ... ... ... ... ...⎥ ⎢ dY ⎥ ⎢ L ⎥ ⎢ v ⎥
⎢... ⎢ j ⎥ ⎢ X i ⎥ ⎢ Xi ⎥
0 1 0 ... ... ... ... ...⎥ ⎢ dZ j ⎥ ⎢ LY i ⎥ ⎢ vYi ⎥
⎢ ⎥
⎢... 0 0 1 ... ... ... ... ...⎥ ⎢ M ⎥ ⎢L ⎥ ⎢v ⎥
⎣ ⎦ Zi Zi
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎣... ... ... ... ... ... .. ... ...⎦ ⎣ M ⎦ ⎣ M ⎦

Cuando la red es vinculada, mínimamente constreñida o sobre constreñida, las


ecuaciones de observación de las coordenadas de los constreñimientos externos o
puntos fijos, resultan independientes de las ecuaciones de componentes y distancias. Se
supera así, tanto el defecto rango de la matriz A como el defecto del datum. La matriz
normal N = ATPA resulta ahora positivamente definida; es decir, no singular.

La matriz de los pesos:

Hemos dicho que la distancia entre dos estaciones I y J, es igual al módulo del vector
GPS que las conecta:

∆= ∆X 2 + ∆Y 2 + ∆Z 2 = f (∆X , ∆Y , ∆Z ) (42.6)

50
Desarrollando en serie de Taylor y conservando términos lineales solamente:

∂f ∂f ∂f
∆= d∆X + d∆Y + d∆Z (43.6)
∂∆X ∂∆Y ∂∆Z

d∆X =∆X – ∆ºX; d∆Y = ∆Y – ∆ºY; d∆Z = ∆Z – ∆ºZ

∂f ∂f ∂f
∆= ( ∆X − ∆X 0 ) + ( ∆Y − ∆Y 0 ) + ( ∆Z − ∆Z 0 ) (44.6)
∂∆X ∂∆Y ∂∆Z

∂f ∂f ∂f ∂f ∂f ∂f
∆= ∆X + ∆Y + ∆Z − ( ∆X 0 + ∆Y 0 + ∆Z 0 )
∂∆X ∂∆Y ∂∆Z ∂∆X ∂∆Y ∂∆Z

En notación matricial:

⎡∆X ⎤
⎡ ∂f ∂f ∂f ⎤ ⎢ ⎥
∆=⎢ ∆Y − Cte (45.6)
⎣ ∂∆X ∂∆Y ∂∆Z ⎥⎦ ⎢ ⎥
⎢⎣ ∆Z ⎥⎦

La varianza de la distancia ∆, a partir de las componentes del vector ∆, es:

⎡ ∂f ⎤
⎢ ∂∆X ⎥
⎡ ∂f ∂f ∂f ⎤ ⎢ ∂f ⎥
σ∆2 = ⎢ Σ ⎢ ⎥ (46.6)
∂∆Z ⎥⎦

⎣ ∂∆X ∂∆Y ⎢ ∂∆Y ⎥
⎢ ∂f ⎥
⎢⎣ ∂∆Z ⎥⎦

⎡ ∂f ⎤
⎡σ ∆ X 2
σ ∆X∆Y σ ∆X∆Z ⎤ ⎢ ∂∆X ⎥
⎡ ∂f ∂f ∂f ⎤ ⎢ ⎥ ⎢ ∂f ⎥
σ∆ 2
=⎢ σ ∆Y 2 σ ∆Y∆Z ⎥ ⎢ ⎥ (47.6)
⎣ ∂∆X ∂∆Y ∂∆Z ⎥⎦ ⎢⎢ ⎢ ∂∆Y ⎥
⎣ sim σ ∆Z 2 ⎥⎦ ⎢ ∂f ⎥
⎢⎣ ∂∆Z ⎥⎦

Efectuando los productos de matrices en (47.6):

2 2 2
⎛ ∂f ⎞ ⎛ ∂f ⎞ ⎛ ∂f ⎞
σ∆ 2
=⎜ ⎟ σ ∆X + ⎜
2
⎟ σ ∆Y + ⎜
2
⎟ σ ∆Z +
2

⎝ ∂∆X ⎠ ⎝ ∂∆Y ⎠ ⎝ ∂∆Z ⎠


∂f ∂f ∂f ∂f ∂f ∂f
+2 σ ∆X∆Y + 2 σ ∆X∆Z + 2 σ ∆Y∆Z (48.6)
∂∆X ∂∆Y ∂∆X ∂∆Z ∂∆Y ∂∆Z

51
∂f ∆X ∂f ∆Y ∂f ∆Z
= cos α = ; = cos β = ; = cos γ =
∂∆X ∆ ∂∆Y ∆ ∂∆Z ∆

Remplazando en (48.6):

2 2 2
⎛ ∆X ⎞ ⎛ ∆Y ⎞ ⎛ ∆Z ⎞
σ∆ 2
=⎜ ⎟ σ ∆X + ⎜
2
⎟ σ ∆Y + ⎜
2
⎟ σ ∆Z +
2

⎝ ∆ ⎠ ⎝ ∆ ⎠ ⎝ ∆ ⎠
∆X∆Y ∆X∆Z ∆Y∆Z
+2 σ ∆X∆Y + 2 2 σ ∆X∆Z + 2 2 σ ∆Y∆Z
∆2
∆ ∆

y operando algebraicamente, se obtiene la expresión (49.6) para la varianza de la


distancia ∆:

2
σ ∆2 = [0.5 (∆X2σ∆X2 + ∆Y2σ∆Y2 + ∆Z2σ∆Z2) + ∆X∆Yσ∆X∆Y + ∆X∆Zσ∆X∆Z +
∆2

+ ∆Y∆Zσ∆Y∆Z]

Ejemplo 1.6: Se ha medido un vector GPS entre las estaciones I, J con dos receptores
geodésicos (doble frecuencia) y el procesamiento de la fase de la portadora arroja el
siguiente resultado:

El vector GPS ∆ medido, es:

∆ = [∆X, ∆Y, ∆Z]T = [-13699.115, -6568.702, 1227.127]T

La matriz varianza-covarianza del vector ∆, es:

⎡σ ∆X 2 σ ∆X∆Y σ ∆X∆Z ⎤ ⎡2.72024010 −6 − 1.65381410 −6 − 7.65579010 −7 ⎤


⎢ ⎥ ⎢ ⎥
Σ∆ = ⎢ σ ∆Y 2 σ ∆Y∆Z ⎥ = ⎢ 1.60379810 −5 6.89644810 −6 ⎥
⎢ sim σ ∆Z 2 ⎥⎦ ⎢⎣ 6.31491110 −6 ⎥⎦
⎣ sim

Hallar la varianza σ∆2 y el error estándar σ∆ de la distancia ∆.

El error estándar especificado, (σ∆), para la distancia ∆ es:

(σ∆) = 5 mm + 1 ppm ∆ (mm) (50.6)

Calcular (σ∆) y compararlo con σ∆.

∆= ∆X 2 + ∆Y 2 + ∆Z 2 = 15242 .029 m Æ ∆2= 232319438.421 m2

1
2
( 2 2 2
)
∆X 2σ ∆X + ∆Y 2σ ∆Y + ∆Z 2σ ∆Z = 605.300200 m 4

52
∆X ∆Y σ∆X∆Y = -148.819121 m4
∆X ∆Z σ∆X∆Z = 12.870143 m4
∆Y ∆Z σ∆Y∆Z = -55.589726 m4
------------------ -------------------
Suma = -191.538704 m4

2
σ∆ 2 = [605.300200 + (−191.538704)] = 3.56200510 −6 m 2
232319438 .421

σ∆ = 0.001887 m ≈ 0.002 m = 2 mm

(σ∆) = 5 mm + 1 ppm ∆ (mm) = 5 mm + 1 10-6 15242029 mm = 20.02 mm = 0.0202 m

(σ∆)2 = 4.0804 10-4 m2

En síntesis: σ∆ = 1.887 mm y (σ∆) = 20.02 mm

El error estándar de ∆ calculado a partir de la matriz varianza-covarianza del vector ∆


resulta en general, menor (más optimista) que el error estándar especificado de ∆,
estimado por la (50.6). Es necesario pues, definir un factor de escala FE, a fin de escalar
la matriz varianza-covarianza Σ∆. Definimos entonces el factor de escala:

(σ ∆ ) 2
FE = (51.6)
σ ∆2

La matriz varianza-covarianza escalada:

(Σ∆) = FE Σ∆ (52.6)

Para el ejemplo (1.6)

(σ ∆ ) 2 4.0804110 −4
FE = = = 114.5535
σ ∆2 3.56200510 −6
Aplicando (52.6):

⎡3.11612910 −4 − 1.89450110 −4 − 8.76997210 −5 ⎤


⎢ ⎥
(Σ ∆ ) = ⎢ 1.83720610 −3 7.90012010 − 4 ⎥
⎢ 7.23394910 − 4 ⎥⎦
⎣ sim

La matriz de los pesos, es la inversa de la matriz varianza- covarianza escalada:

P = (Σ∆)-1 (53.6)

Ejemplo 2.6: Sean tres estaciones 1, 2, 3 conectadas por tres vectores GPS ∆1, ∆2, ∆3.
Escribir la matriz varianza-covarianza escalada, (Σ∆), y la matriz de los pesos, P.

53
Datos:
vector org.- extr. Componentes distancia
∆1 1 2 ∆X1 ∆Y1 ∆Z1 ∆1
∆2 2 3 ∆X2 ∆Y2 ∆Z2 ∆2
∆3 1 3 ∆X3 ∆Y3 ∆Z3 ∆3

Las matrices varianza-covarianza de cada vector.

⎡σ ∆X 1 2 σ ∆X 1∆Y 1 σ ∆X 1∆Z 1 ⎤ ⎡σ ∆X 2 2 σ ∆X 2 ∆Y 2 σ ∆X 2 ∆Z 2 ⎤
⎢ ⎥ ⎢ ⎥
Σ ∆1 =⎢ σ ∆Y 1 2 σ ∆Y 1∆Z 1 ⎥ , Σ ∆2 =⎢ σ ∆Y 2 2 σ ∆Y 2 ∆Z 2 ⎥
⎢ sim σ ∆Z 1 2 ⎥⎦ ⎢ sim σ ∆Z 2 2 ⎥⎦
⎣ ⎣

⎡σ ∆X 32 σ ∆X 3∆Y 3 σ ∆X 3∆Z 3 ⎤
⎢ ⎥
Σ∆3 =⎢ σ ∆Y 32 σ ∆Y 3∆Z 3 ⎥
⎢ sim σ ∆Z 32 ⎥⎦

Errores estándar especificados para las distancias:

(σ∆1) = a + b ppm ∆1 (mm), (σ∆2) = a + b ppm ∆2 (mm), (σ∆3) = a + b ppm ∆3 (mm)

Factores de escala:

(σ ∆1 ) 2 (σ ∆ 2 ) 2 (σ ∆ 3 ) 2
FE1 = , FE 2 = , FE3 =
σ ∆1 2 σ ∆2 2 σ ∆3 2

Los valores de σ∆12, σ∆22, σ∆32 se obtienen de la (49.6).

Las matrices varianza-covarianza escaladas para los vectores ∆v, v = 1, 2, 3:

⎡σ ∆Xv 2 σ ∆Xv∆Yv σ ∆Xv∆Zv ⎤ ⎡qv11 q v12 q v13 ⎤


⎢ ⎥
Qv = FE v ⎢ σ ∆Yv 2 σ ∆Yv∆Zv ⎥ = ⎢⎢ q v 22 q v 23 ⎥⎥
⎢ sim 2 ⎥
σ ∆Zv ⎦ ⎢⎣ sim q v 33 ⎥⎦

La matriz varianza especificada para las distancias ∆v, v = 1, 2, 3:

⎡(σ ∆1 ) 2 ⎤
⎢ ⎥
(σ ∆ ) 2 = ⎢ (σ ∆ 2 ) 2

⎢ (σ ∆ 3 ) 2 ⎥⎦

La matriz varianza- covarianza escalada para el triangulo espacial:

54
⎡ q11 q12 q13 ⎤
⎢ q q 22 q 23 ⎥
⎢ 21 ⎥
⎢ q31 q32 q33 ⎥
⎢ ⎥
⎢ q 44 q 45 q 46 ⎥
⎢ q54 q55 q56 ⎥
⎢ ⎥
⎢ q 64 q 65 q 66 ⎥
Q=⎢ ⎥
q 77 q 78 q 79
⎢ ⎥
⎢ q87 q88 q89 ⎥
⎢ q97 q98 q99 ⎥
⎢ ⎥
⎢ (σ ∆1 ) 2 ⎥
⎢ ⎥
⎢ (σ ∆ 2 ) 2 ⎥
⎢⎣ (σ ∆ 3 ) 2 ⎥⎦

La matriz de los pesos:

P = Q-1

La matriz P es, también, diagonal por bloques de orden 3 x 3; es decir:

⎡ 1 ⎤
⎢ ⎥
⎢ (σ ∆1 )
2

1
P1 = Q1-1, P2 = Q2-1, P3 = Q3-1, P4 = [ (σ∆)2] -1 = ⎢ ⎥
⎢ (σ ∆ 2 ) 2 ⎥
⎢ 1 ⎥⎥

⎢⎣ (σ ∆ 3 ) 2 ⎥⎦

La prueba chi-cuadrado: Sea una red GPS con n observaciones. Se tiene entonces una
muestra de tamaño n. El vector de los residuos de la red ajustada es V = A X – L, cuyas
componentes son vi , i = 1,…, n. La variable estocástica que representa a los residuos es
v, con varianza estimada:
n

T
V PV
∑pv i i
2

σˆ 0 2 = = i =1

ν ν

donde ν = n – R (A) = n – m + d: m ≡ número de parámetros, d ≡ defecto de rango de la


matriz A. σ̂ 0 se denomina la varianza muestral o varianza a-posteriori de peso 1.
2

Llamamos σ02 a la varianza poblacional o varianza a-priori, suponiendo una población


de observaciones infinitamente grande. Se define el siguiente estadístico muestral:

55
n

∑pv
2

σˆ 2 V T PV i i
χ 2 =ν 02 = = i =1
(54.6)
σ0 σ 02 σ 02

que distribuye chi-cuadrado con ν grados de libertad si v distribuye normal con media
cero y varianza σ02.
Se formulan las siguientes hipótesis:

σ02 = σ̂ 0
2
Hipótesis nula (H0):
Hipótesis alternativa (H1): σ 0 ≠ σ̂ 0
2 2

La varianza muestral σ̂ 0 es un estimador insesgado de la varianza poblacional,


2

entonces la esperanza del estadístico muestral es igual al parámetro poblacional a


estimar:

[ ]
E σˆ 0 = σ 0
2 2
(55.6)

Seleccionamos un nivel de significación α y el nivel de confianza es 1 - α. La H0


establece que la varianza a- priori de peso 1 o varianza poblacional, es estadísticamente
igual a la varianza a-posteriori de peso 1 o varianza muestral. Esto significa que ambas
varianzas no difieren significativamente al nivel de significación o riesgo α. Si se acepta
H0 (o al menos no se rechaza) al nivel α, el ajuste se dice correcto.
Se acepta la hipótesis nula si:

χ 2ν ,α2 p χ 2 p χ 2ν ,1− α2 (56.6)

de la (54.6)

σˆ 0 2
χ 2ν ,α2 p ν p χ 2ν ,1− α
σ0 2 2

1 σ0
2
1 1
f f
χ 2
ν,
α
ν σˆ 0 2
χ 2
ν ,1−
α
2 2

νσˆ 0 2 νσˆ 0 2
p σ 0
2
p (57.6)
χ 2ν ,1− α2 χ 2ν ,α2

La (57.6) define un intervalo de confianza para la varianza poblacional σ02 al nivel de


significación α. Esto significa que la varianza poblacional se encuentra entre los límites
indicados a un nivel de confianza 1 - α y se tiene una probabilidad α de equivocarse al
hacer tal afirmación. También puede decirse que la varianza muestral o a-posteriori no
difiere significativamente de la varianza poblacional o a-priori. Si la condición (57.6) no
se cumple, entonces la diferencia entre ambas varianzas es significativa al nivel α y

56
deberá rechazarse la hipótesis nula. La no aceptación de H0 significa que el ajuste
mínimos cuadrados de la red no es correcto.
Si adoptamos un nivel de significación α = 0.05, el nivel de confianza es 0.95 y el
intervalo de confianza será:

νσˆ 0 2 νσˆ 0 2
p σ 0
2
p (58.6)
χ 2ν , 0.975 χ 2ν , 0.025

En los ajustes mínimos cuadrados, se establece que la varianza a-priori de peso 1 es


igual 1, entonces:

νσˆ 0 2 νσˆ 0 2
p 1 p (59.6)
χ 2ν , 0.975 χ 2ν , 0.025

Cuando se cumple la condición (59.6), estamos aceptando al 95% de confianza que los
residuos vi, i = 1, n distribuyen normal con media cero y varianza σ02, tal como lo
predice la teoría de los errores de Gauss.
El rechazo de la hipótesis nula se interpreta como una indicación de que algo anda mal
en el ajuste. Una causa frecuente de rechazo de H0 es la presencia de uno o más errores
no tolerables en las observaciones. Un modelo matemático inadecuado o la modelación
incorrecta de los errores de observación, son causales de rechazo de la hipótesis nula.

Ajuste libre y ajuste vinculado:

El ajuste libre es necesario para determinar el acuerdo interno de la red. Si se supera la


prueba chi-cuadrado, se tendrá la seguridad de que las observaciones están libres de
errores no tolerables, el modelo matemático está debidamente linealizado y los errores
han sido correctamente modelados. Se ejecuta entonces el ajuste vinculado a uno o más
puntos fijos de coordenadas conocidas en WGS’84, con el objeto de dar coordenadas
ajustadas a todas las estaciones de la red, en el mismo sistema de referencia de los
constreñimientos externos.
Una vez ejecutado exitosamente el ajuste vinculado, las coordenadas cartesianas de la
red deberán transformarse a coordenadas geodésicas, latitud, longitud y altura
elipsoidal. La transformación de coordenadas, puede hacerse mediante procesos
iterativos y cerrados que conducen a los mismos resultados. Los algoritmos se
presentan en detalle en los buenos textos de Geodesia.

La red óptima:

La red óptima es aquella que permite lograr las precisiones preestablecidas a costo
mínimo. Uno de los factores con fuerte incidencia en el costo de una red, es el número
de observaciones. Se trata pues, de lograr las precisiones requeridas con un mínimo de
observaciones.
Toda selección de la red óptima tiene significado, solamente si hemos hecho una
definición sobre como comparar las diferentes redes. Debe definirse algún tipo de
prueba que pueda dar una indicación útil. Se requiere de una medida que sea invariante
respecto del origen y cualquier rotación; es decir que sea invariante respecto del sistema
de referencia.

57
Si consideramos todos los puntos de la red como incógnitas, tenemos una red libre de
constreñimientos externos donde la solución óptima está dada por la pseudoinversa N+
que es única. La traza de la matriz varianza-covarianza del vector incógnita X, ΣX, es:

∑ (σ )= σ
k
+ σ Yi + σ Zi
2 2 2 2
tr (ΣX) = Xi 0 tr ( N + ) (60.6)
i =1

donde k es el número de estaciones y σXi, σYi, σZi son los errores estándar de las
coordenadas Xi, Yi, Zi, respectivamente. La (60.6) resulta invariante respecto del
sistema coordenado.
Una medida adecuada para comparar las distintas redes, es la varianza singular media
(Bjerhammar, 1973):

σ sm 2 =
1 k

k i =1
( 1
)
σ X i 2 + σ Y i 2 + σ Z i 2 = σ 0 2 tr ( N + )
k
(61.6)

que es una expresión invariante, de todas las coordenadas. La división por el número de
estaciones de la red, permite una medida que puede usarse para comparar redes con
diferente número de estaciones.
La matriz normal N = ATPA, depende de la matriz de diseño A y de la matriz de los
pesos, P. La matriz A se construye a partir de las coordenadas aproximadas adoptadas a
priori y la matriz de los pesos puede obtenerse con los errores a-priori de las distancias,
obviando en primera instancia las correlaciones entre las componentes de los vectores
GPS. Así, la pseudoinversa N+ y la matriz varianza-covarianza ΣX, con σ02 = 1,
permiten estudiar distintas alternativas hasta lograr la red óptima; es decir aquella que
presenta la menor varianza singular media.
Otra medida invariante respecto del sistema de referencia, es el elipsoide de error en
cada estación de la red GPS libre. Sea:

⎡σ Xj 2 σ XjYj σ XjZj ⎤
⎢ ⎥
Σ X j ,Y j , Z j = ⎢ σ Yj 2 σ YjZj ⎥ (62.6)
⎢ sim σ Zj 2 ⎥⎦

el j-ésimo bloque diagonal de orden 3x3 de la matriz ΣX. De los elementos de la matriz
(62.6), se obtienen los semiejes A, B, C del elipsoide de error y sus orientaciones
espaciales (cosenos directores).
La ecuación del elipsoide de error para un nivel de confianza 1 - α, es:

2 2 2
z1 z2 z3
+ + =1 (62.6a)
σˆ 0 2 ( λ1 3F α 3,n − m ) 2 σˆ 0 2 ( λ 2 3F α 3,n − m ) 2 σˆ 0 2 ( λ3 3F α 3,n − m ) 2

donde:
- λ1, λ2, λ3 son los valores propios, ordenados de mayor a menor, del boque
diagonal de orden 3x3 correspondiente a la estación nueva Ej en la matriz varianza-
covarianza ΣX de la red. Puesto que ΣX es simétrica positivamente definida, sus
valores propios son números reales positivos y sus vectores propios son ortogonales
entre sí.

58
- z1, z2, z3 son los ejes coordenados definidos por los vectores propios del bloque
diagonal 3x3, correspondientes a los valores propios λ1, λ2, λ3, centrados en la
estación nueva Ej:
- La matriz varianza-covarianza de la red, es:

Σ X = σˆ 0 ( AT PA) −1 = σˆ 0 N −1
2 2
(62.6b)

donde A es la matriz de diseño de la red GPS y P es la matriz de los pesos estimados


de las observaciones. N es la matriz normal.
- Fα 3,n-m es el valor de tabla de la distribución F de Fisher con ν1 = 3 y ν2 = n - m
grados de libertad, α es el nivel de riesgo o significación, n es el número de
observaciones y m es el número de parámetros o incógnitas.
- σˆ 0 es la varianza a-posteriori, dada por:
2

V T PV
σ̂ 0 2
= (62.6c)
n−m

V es el vector de los residuos o correcciones a las observaciones.


1
Si en la (62.6a) hacemos F α 3,n −m = , tendremos la ecuación del elipsoide de error
3
estándar. Los semiejes escalados para un nivel de confianza 1 - α son:

A = σˆ 0 λ1 3F α 3,n − m
B = σˆ 0 λ 2 3F α 3,n − m (62.6d)
C = σˆ 0 λ3 3F α 3, n − m

donde:
FE = 3F α 3,n − m (62.6e)

es el factor de escala.
Si consideramos la varianza a-priori σ02 = 1, las expresiones (62.6d), nos dan los
semiejes escalados a-priori, que permiten hacer una estimación previa del error de
posicionamiento; es decir, sin necesidad de los vectores GPS observados. Basta
solamente conocer las coordenadas aproximadas Xº, Yº, Zº de las estaciones para
construir la matriz de diseño A, y los errores estándar especificados de las líneas-
base para estimar la matriz P de los pesos a-priori.
La matriz varianza-covarianza ΣX, esta dada por:

Σ X = N −1 = Q Λ−1 Q T (62.6f)

donde Λ es una matriz diagonal cuyos elementos diagonales son los valores propios,
todos positivos, de la matriz normal N que es simétrica positivamente definida. Q es
una matriz ortogonal cuyas columnas son los vectores propios normalizados de N.
Para la estación nueva Ej, se tiene una submatriz de orden 3x3 simétrica, que es un
bloque diagonal de la matriz ΣX :

59
⎡σ Xj 2 σ XjYj σ XjZj ⎤
⎢ ⎥
Σ ( X ,Y , Z ) j = ⎢ σ Yj 2 σ YjZj ⎥ (62.6g)
⎢ sim σ Zj 2 ⎥⎦

Se calculan los valores propios λ1, λ2, λ3 de la matriz Σ(X, Y, Z) j, se reemplazan en las
2
(62.6d) y, considerando la varianza a-priori σ0 = 1, se obtienen los semiejes a-priori
escalados al 95% de confianza. Las componentes de los vectores propios normalizados;
es decir, los cosenos directores de los semiejes, definen sus respectiva orientaciones en
el espacio. Puede calcularse los rumbos ψ y las elevaciones θ que también definen la
orientación de los semiejes.
Frecuentemente se desea conocer la precision del posisionamiento GPS en dos
dimensiones. Se prefiere hacerlo con tres elipses de error, una horizontal y dos
verticales, en los planos coordenados del sistema geodésico horizontal local, centrado
en cada una de las estaciones Ei de la red. Los ejes coordenados son n, e, h; es decir
norte, este y la dirección de la normal al elipsoide de referencia en la estación Ei.
Según la ley general de la propagación de la varianza-covarianza:

⎡σ n 2 σ ne σ nh ⎤
⎢ ⎥
Σ ni , ei , hi = R (Σ X i , Y i , Z i ) R T = ⎢ σ e2 σ eh ⎥ (63.6)
⎢ sim σ h 2 ⎥⎦

donde:

⎡− senϕ i cos λi − senϕ i senλi cos ϕ i ⎤


R = ⎢⎢ − senλi cos λi 0 ⎥⎥ (64.6)
⎢⎣ cos ϕ i cos λi cos ϕ i senλi senϕ i ⎥⎦

es la matriz de transformación de coordenadas entre el sistema geodésico geocéntrico


absoluto (G, X, Y, Z) y el sistema geodésico horizontal local (Ei, n, e, h); ϕi, λi son las
coordenadas geodésicas latitud y longitud de la estación Ei.

De la (63.6), se extraen las submatrices de orden 2x2:

⎡σ n 2 σ ne ⎤ ⎡σ n 2 σ nh ⎤ ⎡σ e 2 σ e h ⎤
⎢ ⎥; ⎢ ⎥; ⎢ 2⎥
(65.6)
⎣ sim σ e2 ⎦ ⎣ sim σ h2 ⎦ ⎣ sim σ h ⎦

La elipse de error horizontal, se obtiene de la primera submatriz, partiendo del


polinomio característico:

(
λ2 − (σ n 2 + σ e 2 )λ + σ n 2σ e 2 − σ n e 2 = 0 ) (66.6)

Con los valores propios máximo y mínimo, λmáx., λmín. (raíces del polinomio
característico), se calculan los semiejes de la elipse horizontal n-e:

60
Semieje mayor: A = λ máx . , Semieje menor: B = λ mín . (67.6)

La orientación del semieje mayor A, es:

1 2σ n e
ϕ = arctg (68.6)
2 σ n2 −σ e2

ϕ es el ángulo que forma el semieje mayor A con el eje coordenado n.


En forma análoga, de las submatrices segunda y tercera, se obtienen las elipses
verticales n-h y e-h, respectivamente.
Es conveniente destacar que éstas son elipses estándar; es decir, del 39% de confianza.
El factor de magnificación por el que debe multiplicarse los semiejes A y B de la elipse
estándar para obtener la elipse correspondiente a otro nivel de probabilidad, depende no
solamente del nivel seleccionado, sino también de la redundancia ν = n – R (A) de la
red. Intuitivamente, esto tiene sentido puesto que al crecer el número de observaciones
n, los errores de posicionamiento decrecen en magnitud y, en consecuencia, se obtienen
elipses de menor tamaño. Los factores de magnificación se muestran en la siguiente
tabla (A. Leick, 1995):

Probabilidad 1 - α
ν 95% 98% 99%

1 20.00 50.00 100.00


2 6.16 9.90 14.10
3 4.37 6.14 7.85
4 3.73 4.93 6.00
5 3.40 4.35 5.15
6 3.21 4.01 4.67
8 2.99 3.64 4.16
10 2.86 3.44 3.89
12 2.79 3.32 3.72
15 2.71 3.20 3.57
20 2.64 3.09 3.42
30 2.58 2.99 3.28
50 2.52 2.91 3.18
100 2.49 2.85 3.11
∞ 2.45 2.80 3.03

Para comparar las distintas redes, puede usarse también la suma de las áreas de las
elipses de error, denominada el área de incertidumbre:

k
Area = π ∑ Ai Bi (69.6)
i =1
que califica el tamaño de las elipses de error, y la suma de las excentricidades:

61
k
Ai − Bi
Excentr. = ∑ (70.6)
i =1 Ai
que califica la forma de las elipses de error.

Fiabilidad:

La teoría aquí delineada sigue a Baarda (Leick, A.1995 y Chueca Pazos, 2000) y está
relacionada con la estadística del ajuste.
La configuración apropiada de las figuras geométricas constituyentes de la red, la
pequeñez de los residuos y varianzas, la compatibilidad estadística de los estimadores
de la varianza de la observación de peso 1 a priori y a posteriori, la compatibilidad de la
red libre y la sometida a constreñimientos externos y la buena configuración de las
elipses de error, entre otras, son pruebas de buena calidad de una red. Sin embargo
puede no ser suficiente. Así, un error grosero introducido en una observación, influye en
todos los residuos de la red y desequilibra su calidad. Se llama fiabilidad interna de la
red a su capacidad, expresada numéricamente, de control general y especifico de las
observaciones junto con la detección y particularización de posibles errores groseros.
Del mismo modo, es necesario relacionar los posibles errores no eliminados o
remanentes de la red con su influencia en los parámetros ajustados. Se llama entonces
fiabilidad externa a la respuesta y sensibilidad de la red ante un nivel de error cualquiera
en sus observaciones.
Recordando las expresiones de las matrices varianza-covarianza del vector Lb de las
observaciones y del vector X de las incógnitas:

Σ L b = σˆ 0 P −1 = σˆ 0 QL b
2 2
(71.6)

Σ X = σˆ 0 N + = σˆ 0 Q X
2 2
(72.6)

donde QLb = P-1 y QX = N+ son las matrices cofactor de los vectores Lb y X,


respectivamente. Puede hallarse una expresión para la matriz cofactor del vector de los
residuos V:

V = AX – L

V = A N+ATPL – L

V = (AN+ATP – I) L

V = (AN+AT – P-1) PL (73.6)

De la ley general de la propagación de la varianza covarianza:

ΣV = (AN+AT- P – 1) P ΣL [(AN+AT – P-1) P]T (74.6)

ΣV = σ̂ 0 (AN+AT- P – 1) P P-1P (AN+AT – P-1)


2

ΣV = σ̂ 0 (AN+AT- P – 1) (PAN+AT – I)
2

62
ΣV = σ̂ 0 [AN+ (ATPA) N+AT- AN+AT-AN+AT + P-1]
2

ΣV = σ̂ 0 [A (N+ NN+) AT- AN+AT-AN+AT + P-1]


2

ΣV = σ̂ 0 [AN+AT- AN+AT-AN+AT + P-1]


2

ΣV = σ̂ 0 [-AN+AT + P-1]
2
(75.6)

La matriz cofactor del vector de los residuos es:

QV = P-1 – AN+AT (76.6)

El vector de las observaciones ajustadas es:

La = Lb + V = Lb +AX - L

La = Lb + AN+ATPL – L

La = Lb + AN+ATPL – (Lb – Lº)

La = AN+ATPL + Lº (77.6)

La matriz varianza-covarianza de La es:

ΣLa = (AN+ATP) ΣL (AN+ATP)T (78.6)


ΣLa = σ̂ 0 AN+AT PP-1 PAN+AT
2

ΣLa = σ̂ 0 AN+ (AT PA) N+AT


2

ΣLa = σ̂ 0 A (N+NN+) AT
2

ΣLa = σ̂ 0 A N+ AT
2
(79.6)

La matriz cofactor del vector La es:

QLa = AN+AT (80.6)


En resumen:
ΣLb = σ̂ 0 QLb = σ̂ 0 P-1
2 2

ΣX = σ̂ 0 QX = σ̂ 0 N+
2 2

ΣLb = σ̂ 0 QV = σ̂ 0 (P-1 – AN+AT)


2 2

ΣLa = σ̂ 0 QLa = σ̂ 0 AN+AT


2 2

Multiplicando a derecha ambos miembros de (76.6):

QVP = I – AN+ATP (81.6)

Puede demostrarse que:

63
tr(QVP) = n – R (A) = ν

Denotando por ri a los elementos de la diagonal principal de QVP:

n
tr(QVP) = ∑r
i =1
i = n – R (A) = ν (82.6)

donde ν es la redundancia de la red y ri es el número de redundancia de la i-ésima


observación. El número de redundancia ri, representa la contribución de la i-ésima
observación a la redundancia ν de la red.
De la (82.6):
ri = qi pi (83.6)

donde qi, pi son los elementos de orden i de la diagonal principal de las matrices QV y P.

De las (76.6) y (80.6):

P-1 = QV + AN+AT = QV + QLa (84.6)

Los elementos de la diagonal principal de QV son todos mayores que cero por tratarse
de una matriz cofactor, lo mismo sucede con los elementos diagonales de QLa y
teniendo en cuenta la (84.6):

1
0 ≤ qi ≤ (85.6)
pi

Multiplicando por pi ambos miembros de (85.6):

0 ≤ qi pi ≤ 1

0 ≤ ri ≤ 1 (86.6)

La redundancia de una observación cualquiera es siempre positiva y menor que la


unidad, siendo la suma de todas ellas la redundancia general de la red.
De la (84.6):

QLa = P-1 – QV (87.6)

Si los números de redundancia son cercanos a la unidad, se tendrá:

ri ≈ 1 (88.6)

qi pi ≈ 1 (89.6)

1
qi ≈ (90.6)
pi

y en (87.6), con qai = elemento de orden i de la diagonal principal de QLa:

64
qai = pi-1 – qi ≈ 0 (91.6)

σˆ a i 2 = σˆ 0 2 q a i ≈ 0 (92.6)

Se infiere que si la redundancia del observable se acerca a la unidad, la varianza del


observable ajustado, σˆ a i , tenderá a cero. Del mismo modo:
2

σˆ 0 2 pi −1 = σˆ 0 2 qi (93.6)

El ajuste da lugar a varianzas pequeñas en las observaciones ajustadas. Las


observaciones ajustadas son claramente más precisas que las iniciales, y se concluye la
ventaja de disponer de observaciones con redundancias cercanas a la unidad, que deben
buscarse y preferirse.
Al contrario, si los números de redundancia son cercanos a cero:

ri ≈ 0 (94.6)

qi ri ≈ 0 (95.6)

qi ≈ 0 (96.6)

Las varianzas de los residuos son:

σˆ 0 2 qi ≈ 0 (97.6)

Las varianzas de las observaciones ajustadas, de la (91.6), son:

σˆ 0 2 q a i ≈ σˆ 0 2 pi −1 (98.6)

Si las expresiones anteriores se extienden y cumplen a lo largo de la red, las varianzas


de los residuos resultarán muy pequeñas y las varianzas de los observables ajustados no
variaran sensiblemente con respecto a las iniciales. Se habrá logrado muy escasa ventaja
en precisión al practicar el ajuste y en consecuencia, deberán evitarse las observaciones
de redundancias cercanas a cero.
De la (71.6):

Σ L b = σˆ 0 P −1
2

siendo el peso de la i-ésima observación el elemento del mismo orden pi de la diagonal


principal de la matriz P, que valdrá:

σ 02
pi = (99.6)
σi2

cociente de las varianzas a priori de la observación de peso 1 y de la observación i-


ésima.

65
Pero siendo:
ΣV = σˆ 0 QV = σˆ 0 ( P −1 − AN + AT )
2 2

escribimos la desviación estándar a posteriori del residuo vi:

σˆ v i = σˆ 0 qi (100.6)

de donde:

ri s σ 2

σˆ v i = σˆ 0 = σ 0 ri i 2
pi σ0

σi
σˆ v i = σˆ 0 ri (101.6)
σ0

Si σ̂ 0 es estadísticamente igual a σ0 (aceptación de H0 en la prueba chi-cuadrado) y ri ≈


1, se tiene de la (101.6):

σˆ v i ≈ σ i (102.6)

es decir; la desviación estándar estimada de un residuo vi es igual, en orden de


magnitud, a la desviación estándar de la observación lbi correspondiente.
Con lo que se confirma nuevamente a las redundancias ri particulares de las
observaciones como un buen índice de calidad del ajuste, que será tanto mejor cuanto
más se aproximen dichos valores a la unidad.
En primera instancia, puede expresarse la redundancia media del ajuste:

ν n − ℜ( A)
rM = = (103.6)
n n

con la misma interpretación para juzgar al conjunto de la red.

Control de errores groseros:

El control de errores groseros en el ajuste requiere de la formulación de las siguientes


hipótesis:

H0: Las observaciones no contienen errores groseros.

H1: - Las observaciones contienen un error grosero.


- Está localizado en la i-ésima observación.
- Su magnitud es ∇i.

En el vector de observaciones Lb, la i-ésima observación es errónea, lbi + ∇i:

lbi +∇i – fi(Xº) = Li + ∇i (104.6)

66
La i-ésima componente del vector L es: Li + ∇i.
De las (73.6) y (76.6):

V = -QV PL (105.6)

⎡ L1 ⎤ ⎧⎡ L1 ⎤ ⎡0⎤ ⎫
⎢ L ⎥ ⎪⎢ ⎥ ⎢ ⎥ ⎪
⎢ 2 ⎥ ⎪ ⎢ L2 ⎥ ⎢ 0 ⎥ ⎪
⎢ M ⎥ ⎪⎪⎢ M ⎥ ⎢ M ⎥ ⎪⎪
V = -QV P ⎢ ⎥ = -QV P ⎨⎢ ⎥ − ⎢ ⎥ ∇ i ⎬
⎢ Li + ∇ i ⎥ ⎪⎢ Li ⎥ ⎢1⎥ ⎪
⎢ M ⎥ ⎪⎢ M ⎥ ⎢ M ⎥ ⎪
⎢ ⎥ ⎪⎢ ⎥ ⎢ ⎥ ⎪
⎣⎢ Ln ⎦⎥ ⎪⎩⎣⎢ Ln ⎦⎥ ⎣⎢0⎦⎥ ⎪⎭

Haciendo ei = [0,0,…, 1,…,0]T:

V = - QV P (L – ei∇i) = - QV PL + QV Pei∇i (106.6)

Bajo la hipótesis alternativa H1, el vector de residuos se expresa por:

V/H1 = QV Pei ∇i – QV PL

V/H1 = QV Pei ∇i + V (107.6)

La esperanza matemática del vector V, bajo la hipótesis H1, es:

E (V/H1) = QV Pei∇i (108.6)

puesto que , por hipótesis, E (V) = 0.

La matriz varianza-covarianza, bajo la hipótesis H1, es:

ΣV/H1 = σ02 QV (109.6)

en virtud de que QV Pei∇i es constante.


Entonces V/H1 es una variable estocástica conjunta que distribuye normal con media QV
Pei ∇i y varianza-covarianza σ02 QV; es decir:

V/H1 ∼ N (QV Pei∇i , σ02 QV) (110.6)

Los residuos individuales vi son a su vez, variables estocásticas que distribuyen normal
con media qi pi∇i y varianza σ02qi, es decir:

vi /H1 = ∼ n (qi pi∇i, σ02qi) (111.6)

Estandarizando la variable vi /H1:

(v1 / H 1 )
ω1 / H 1 = (112.6)
σ vi

67
y teniendo en cuenta que σ v i = σ 0 qi , podemos escribir:

(v i / H 1 ) qi pi ∇ i
ω1 / H 1 = ∼ n( , 1) (113.6)
σ 0 qi σ 0 qi

Multiplicando y dividiendo la esperanza de ω1/H1 por qi :

qi pi ∇ i
E (ω1 / H 1 ) = (114.6)
σ0

Entonces:
(v i / H 1 ) qi pi ∇ i
ω1 / H 1 = ∼n( , 1) (115.6)
σ vi σ0

Bajo la hipótesis nula H0:

(v i / H 0 )
H0: ω 0 = ∼ n (0,1) (116.6)
σ vi
El parámetro de no-centralidad, traslación o desplazamiento; es decir, la media de una
distribución gaussiana no-central, se denota por δi y es:

∇ i p i qi
δi = (117.6)
σ0

σ 02
Puesto que: pi = 2
σi

σ 0 = σ i pi (118.6)

Reemplazando (118.6) en (117.6):

∇ i pi q i
δi = (119.6)
σ i pi

Multiplicando y dividiendo el segundo miembro de (119.6) por pi :

∇ i pi pi qi ∇ i pi qi
δi = =
σ i pi σi

Puesto que ri = piqi, el parámetro de traslación es:

68
∇ i ri
δi = (120.6)
σi

y el error grosero ∇i:

δ iσ i
∇i = (121.6)
ri

La expresión (121.6) muestra una vez más la conveniencia de lograr redundancias


elevadas, cercanas a la unidad si es posible, a efectos de minimizar ∇i para el parámetro
de traslación δi de la i-ésima observación.
Ningún ∇i ni δi será conocido en su verdadera dimensión. Es preciso entonces, aplicar
el método estadístico usual de prueba de contraste de errores tipo I y tipo II.
Será necesario establecer el nivel de significación α de rechazo de la hipótesis nula.
Generalmente se establece un valor α muy pequeño para asegurar un mínimo de rechazo
de observaciones aceptables o errores de tipo I (rechazar H0 cuando debe ser aceptada).
La probabilidad de cometer un error de tipo I bajo la hipótesis nula, puede expresarse en
la forma:
α
t
2
P( ω0 ≥ t α ) = 1 −
2
∫αn (0,1) dt = 1 − (1 − α ) = α (122.6)
−t
2

obteniéndose t α de las tablas de la distribución normal.


2
El tratamiento del error de tipo II requiere establecer la potencia del test β o
probabilidad de aceptación de la hipótesis alternativa H1, siendo verdadera.
La probabilidad de cometer un error de tipo II será, por tanto, igual a 1 – β. Su
expresión es:
α
t
2
P ( ω1 ≥ t α ) = 1 − ∫ n (δ 0 ,1) dt = 1 − β (123.6)
2 −∞

Para fijar ideas y según es de general aplicación, establezcamos:

α = 0.001
β = 0.90

En la figura se representa la aplicación de las expresiones (122.6) y (123.6):

69
3.29 1.28

β = 0.90

1/2 α = 0.0005
δ = 4.57

En las tablas de distribución normal entramos con el argumento:

1
0.5 − α = 0.5 − 0.0005 = 0.4995
2

obteniéndose:
t = 3.29

Para que el parámetro de desplazamiento δ0 de lugar a β = 0.90, será preciso entrar con
el argumento 0.90 – 0.50 = 0.40, obteniendo t = 1.28.
Con lo que resulta inmediatamente:

δ0 = 3.29 + 1.28 = 4.57

A partir de la (111.6) se obtiene el llamado ω-test debido a Baarda, ampliamente


utilizado en la exploración de posibles errores groseros cometidos en el ajuste de redes.
La (113.6) es el test de Baarda bajo la hipótesis alternativa H1, que conduce a contrastar
una distribución normal con un parámetro de traslación que es proporcional al error
grosero ∇i y sirve, por tanto, para controlarlo. La interpretacion completa del test de
Baarda con parámetros α = 0.001 y β = 0.90 es inmediata:
v
- Un residuo estandarizado que cumpla: ω 0 i = i ≥ 3.29 supone el rechazo de la
σ vi
hipotesis nula con un nivel de significación de α = 0.001. Es decir hay solo 1 por
1000 de probabilidad de que se rechace la observacion y sea correcta. Con
fiabilidad 0.999 contendra un error grosero.

- Con el criterio anterior, cualquier error grosero que cumpla:

δ 0σ i σi
∇0i = ≥ 4.57 (124.6)
ri ri

será rechazado con una fiabilidad de β = 0.90. Podrán deslizarse, por tanto, hasta un
10% de errores iguales o superiores al indicado y será preciso admitir como norma
general los inferiores al valor establecido en (124.6).

Siendo conocidos los valores de σi y ri de cada observación puede, pues, analizarse


el ajuste suprimiendo sucesivamente y en orden descendente aquellos que excedan
el valor establecido para ω0i, realizando un nuevo ajuste despues de cada supresión,
hasta la aceptación en bloque de todas las observaciones remanentes.

70
Especialmente importante es contrastar la adecuacion de los pesos y errores a priori
imputados a las observaciones. Si la precisión supuesta a priori resulta ser muy
inferior a la lograda, el número de observaciones rechazadas será elevado y la
descripcion de la red será irreal. La aceptación de la prueba chi-cuadrado para la
varianza a posteriori, es una buena indicación de la adecuación de los pesos y
errores a priori de las observaciones.
La elección del parámetro de significación α y la potencia del test β tampoco es
arbitraria, mereciendo la pena frecuentemente realizar más de una prueba. Puede
empezarse con los valores presentados (α = 0.001 y β = 0.90) y, si el resultado, por
cualquier razón no es satisfactorio, ensayar alguna pareja de valores distintos, cuyo
cálculo es sencillo. La siguiente tabla ofrece pares α y β junto al parametro de
traslación asociado (Chueca Pazos, 2000):

α β δ0
0.050 0.80 2.80
0.025 0.80 3.10
0.001 0.80 4.12
0.050 0.90 3.24
0.025 0.90 3.52
0.001 0.90 4.57

Fiabilidad interna: Segun se vio, se entiende por fiabilidad interna de la red, su


capacidad de detección y control de posibles errores groseros en las observaciones.
La expresion (124.6) es utilizable en cuanto el modelo matemático y el estocástico
sean conocidos. A traves de ella es posible determinar la sensibilidad de la red ante
los errores groseros y, por tanto, tomar desiciones lógicas sobre su proyecto y
observación, modificando en cuanto sea necesario y siempre dentro de las
posibilidades del terreno su configuracion inicial hasta su optimización. En
consecuencia el estudio de la fiabilidad interna de la red es útil no solamente para
conocer la calidad del ajuste realizado, sino para proyectarlo previamente.
Así, tanto en simulación y proyecto como en control de redes, el primer parámetro
de control de fiabilidad interna, presente en todas las expresiones deducidas, es el
número de redundancia ri de cada observable.

Se dice que un observable está:

- perfectamente controlado si: ri = 1


- bien controlado si : 0.4 ≤ ri ≤ 1
- débilmente controlado si : 0.1 ≤ ri ≤ 0.4
- mal controlado si : 0 ≤ ri ≤ 0.1
- no está controlado si : ri = 0

Es útil el estudio de homogeneidad de una red comparando las redundancias en


distintas zonas con la redundancia media (103.6). Las zonas de redundancia
promedio insatisfactorias sugieren su densificación mediante un suficiente
incremento de observaciones. Se utiliza a este efecto el parámetro:

δ0
µ IN i = (125.6)
ri

71
obtenido directamente de la expresion (124.6). Independientemente de σi, su
variación relativa en cuanto menor sea, califica más favorablemente la
homogeneidad de la red. Se prefieren valores absolutos pequeños que significan
altas redundancias (ri ≈ 1). La fiabilidad interna de una red queda, por tanto, definida
por los siguientes elementos:

- Los números de redundancia, tanto en cada observación como la redundancia


media.
- Los parámetros µINi de homogeneidad de la red.
- Los valores ∇0i deducidos de (124.6), mínimo error detectable por el test con
potencia β y el nivel de significación α, o índices de sensibilidad de la red.

Fiabilidad externa: Una buena y homogénea fiabilidad interna no garantiza


automáticamente parámetros fiables. El objetivo de la fiabilidad externa es
establecer la influencia de los errores deslizados o no detectados en las
observaciones sobre los valores ajustados de los parámetros. Los parámetros
estimados en presencia de un error groseros son, para el modelo de las ecuaciones
de observación:

X = N+ATP(L - ei∇) (126.6)

El efecto de un error grosero en la i-ésima observación es:

∇X = -N+ATPei∇i (127.6)

Las variaciones ∇X se denominan fiabilidad local externa. El error grosero ∇i


afecta, pues, a todos los parámetros. El impacto (influencia) del error mínimo detectable
en los parámetros a través del ω-test con potencia β y nivel de significación α,
ocasionado por un error grosero ∇i localizado en la i-ésima observación, es:

∇X0i = N+ATPei∇0i (128.6)

Puesto que hay n observaciones, pueden computarse n vectores ∇X0i, mostrando el


impacto de cada error mínimo detectable ∇0i sobre los parámetros.
Baarda sugirió la siguiente expresión alternativa:

∇X 0 i N ∇ X 0 i
T

λ0 i =
2
(129.6)
σ 02

Sustituyendo la expresión (128.6) en la (129.6):

( N + AT Pei ∇ 0 i ) T N ( N + AT Pei ∇ 0 i )
λ0 i =
2

σ 02

72
∇ 0 i ei PA ( N + NN + ) AT Pei ∇ 0 i
T

λ0 i =
2

σ 02

Puesto que N+NN+ = N+:

∇ 0 i ei PA N + AT Pei ∇ 0 i
T

λ0 i =
2
(130.6)
σ 02

De la (76.6), AN+AT = I - QVP, entonces:


1
λ0 i 2 = 2 ∇ 0 i ei T P ( I − QV P)ei ∇ 0 i (131.6)
σ0

1 1
λ0 i 2 = 2
∇ 0 i (ei Pei − ei PQV Pei ) =
T T 2 2
∇ 0 i ( pi − pi qi )
σ0 2
σ0 2

1
λ0 i 2 = 2
pi ∇ 0 i (1 − ri )
σ0 2

Y teniendo en cuenta la expresión (124.6):

1
λ0 i 2 = δ 0 2σ i 2 pi (1 − ri ) (132.6)
riσ 0
2

σ 02
De la definición de peso, pi = , sustituyendo en (132.6):
σi2

1 1
λ0 i 2 = δ 0 2σ i 2σ 0 2 (1 − ri ) = δ 0 (1 − ri )
2

riσ i σ 0
2 2
ri

Llamamos µEXi a la cantidad λ0i, entonces:

1 − ri
µ EX i = δ 0 (133.6)
ri

es el parámetro de homogeneidad de la fiabilidad externa, con una interpretación


paralela a la de µINi.
La fiabilidad externa de la red quedará definida por los siguientes elementos:

- Los vectores ∇X0i.


- Los parámetros µEXi de homogeneidad de la red.

con análoga discusión e interpretación a la antes efectuada.


La fiabilidad externa se refiere al máximo efecto producido por los minimos errores
detectables ∇0i sobre los parámetros estimados. Este efecto o influencia está dado por la

73
(128.6). Puesto que hay n onservables pueden computarse n vectores ∇X0i, mostrando el
efecto o influencia de cada minimo error detectable sobre todos los parámetros
ajustados o estimados. Es deseable que el módulo del vector influencia total IT=
⎜⎜∇X0i⎜⎜sea menor que el error esférico radial medio estándar (EERMest.=
σ X 2 + σ Y 2 + σ Z 2 ); es decir, IT< EERMest.
Un criterio mas restrictivo es el siguiente: ⎜⎜∇X0i⎜⎜< DIE, donde DIE es la distancia
desde el punto j-ésimo hasta la intersección n de la direccion del vector ∇X0i con el
elipsoide de error estandar, según la figura siguiente:

ZE

YE
n b
c ∇ xOi

j Y
a

XE
X

El sistema de referencia (j, XE, YE, ZE) está definido por los vectores propios de la
submatriz diagonal de orden 3x3 (62.6), correspondiente a la estacion j-ésima en la
matriz varianza covarianza ΣX=N+ de la solución mínimos cuadrados.
La ecuación del elipsoide de error estandar en dicho sistema es:

2 2 2
xE y z
2
+ E2 + E2 = 1 (134.6)
a b c

Las componentes del vector influencia ∇X0i en el sistema (j, XE, YE, ZE), son:

(∇X0i)E = (∇xE, ∇yE, ∇zE)T = Q ∇X0i (135.6)

donde Q es una matriz 3x3 cuyas columnas son los vectores propios de la matriz (62.6).
La ecuación de la recta que pasa por la estacion j-ésima y está dirigida por el vector
(∇X0i)E, es:

74
xE y z
= E = E =µ (136.6)
∇ XE ∇ YE ∇ ZE

entonces:

xE = µ∇xE; yE = µ∇yE; zE = µ∇zE (137.6)

Reemplazando en (134.6).

⎡⎛ ∇x E ⎞ 2 ⎛ ∇y E ⎞ 2 ⎛ ∇z E ⎞ 2 ⎤
µ ⎢⎜ 2 ⎟ + ⎜ 2 ⎟ + ⎜ 2 ⎟ ⎥ = 1
2

⎢⎣⎝ a ⎠ ⎝ b ⎠ ⎝ c ⎠ ⎥⎦

de donde:

1
µ= 2 2 2
(138.6)
⎛ ∇x E ⎞ ⎛ ∇y E ⎞ ⎛ ∇z E ⎞
⎜ 2 ⎟ +⎜ 2 ⎟ +⎜ 2 ⎟
⎝ a ⎠ ⎝ b ⎠ ⎝ c ⎠

2 2
⎛ ∇ x ⎞ ⎛ ∇y ⎞ ⎛ ∇ z ⎞ 1
Haciendo K = ⎜ 2E ⎟ + ⎜ 2E ⎟ + ⎜ 2E ⎟ ; se tiene µ = y reemplazando en
⎝ a ⎠ ⎝ b ⎠ ⎝ c ⎠ K
(137.6), las coodenadas del punto intersección n, son:

∇x E ∇y E ∇z E
xn = ; yn = ; zn = (139.6)
K K K

y la distancia intersección con el elipsoide estándar, es:

1 2 2 2
DIE = ∇ x E + ∇ y E + ∇z E (140.6)
K

7.- Ajuste de una Red GPS Real

En las redes GPS, los parámetros a ajustar son las coordenadas tridimensionales de los
vértices referidas al sistema geodésico absoluto WGS’84. Los observables son las
componentes ∆X, ∆Y, ∆Z de los vectores GPS medidos entre los vértices de la red.
Dichas componentes son variables estocásticas correlacionadas. Por cada vector GPS
observado, existe una matriz varianza_covarianza definida por:

⎡ σ 2 ∆X σ ∆X∆Y σ ∆X∆Z ⎤
⎢ ⎥
∑∆ = ⎢σ ∆Y∆X σ 2 ∆Y σ ∆Y∆Z ⎥
⎢σ ∆Z∆X σ ∆Z∆Y σ 2 ∆Z ⎥⎦

75
donde ∆ = [∆X, ∆Y, ∆Z]T es el vector GPS observado.
Puede incluirse como observable el módulo del vector ∆: ∆ = ∆X 2 + ∆Y 2 + ∆Z 2
El módulo del vector ∆ es una función no lineal que debe linealizarse por un desarrollo
en serie de Taylor.
La varianza del módulo ∆, obtenida de la matriz varianza_covarianza ∑∆, es:

σ ∆2 =
2 ⎡1
2 ⎢
∆ ⎣2
( ) ⎤
∆X 2σ ∆X + ∆Y 2σ ∆Y + ∆Z 2σ ∆Z + ∆X∆Yσ ∆X∆Y + ∆X∆Zσ ∆X∆Z + ∆Y∆Zσ ∆Y∆Z ⎥
2 2 2

El error estándar especificado para el módulo ∆ observado es:

(σ∆) = a + b ppm ∆(mm)

donde a = 5 mm y b = 1 ppm son valores típicos para los receptores doble frecuencia.
Es necesario definir un factor de escala FE, a fin de escalar correctamente la matriz
varianza_covarianza ∑∆ :

FE =
(σ )

2

σ ∆2

La matriz varianza_covarianza escalada, es:

(Σ∆) = FE Σ∆

Se ha desarrollado la siguiente aplicación MATALAB: REDGPS_ALV (ver anexo),


que ajusta una red GPS, libre o vinculada, con componentes de un vector GPS
correlacionadas.
Datos: Matriz OGPS, almacena los códigos (origen y extremo) y las componentes ∆X,
∆Y, ∆Z de los vectores GPS observados. Matriz P0GPS, almacena la identificación de
los puntos de la red GPS y sus coordenadas geodésicas WGS’84 aproximadas. Matriz
QL, almacena las matrices varianza_covarianza a posteriori, producidas en el informe
del procesamiento de cada vector GPS observado.
Estas matrices se graban en planillas EXCEL y se transfieren a MATLAB.

Por pantalla se ingresa:


- Valores a (mm) y b (ppm) para determinar el error estándar
especificado (σ∆) de la línea base (módulo del vector GPS).
- Número de puntos fijos, identificación y errores estándar de sus
coordenadas.
- Número de iteraciones.
- Valores críticos chi _ cuadrado.
Salida por pantalla:
- Redundancia de la red.
- Residuos y varianza a posteriori
- Resultados de la prueba chi _ cuadrado.
- Coordenadas cartesianas tridimensionales ajustadas y sus errores
estándar.

76
- Elipsoides de error absolutos: semiejes y sus orientaciones.
- Elipses de error absolutas horizontales y verticales en el sistema
geodésico horizontal local para cada vértice de la red.
- Fiabilidad interna y externa.
- Transferencia a coordenadas: Vectores de fiabilidad externa.
- Observables ajustados y sus errores estándar.
- Error en ppm de cada línea base ajustada.
- Posiciones geodésicas ajustadas en WGS’84.

Los datos y observaciones se tomaron de la red GPS Falla el Tigre, medida en el


Departamento Iglesia de la Provincia de San Juan, por investigadores de la UNLP. La
red fue medida con receptores ASTECH-Z12 en dos sesiones triple receptor:
Sesión 1: P1 (Campamento Base), P2 (Tocota), P3 (Mina San Francisco)
Sesión 2: P1 (Campamento Base), P4 (Villa Nueva), P3 (Mina San Francisco).

Esquema de la red:

Tocota
2

Mina 3
San Francisco 1
Campamento
Base

4 Villa
Nueva

Datos: Coordenadas Geodésicas Aproximadas: WGS’84

Punto ϕ0 λ0 h0
1 -30º 51’ 59” -69º 13’ 20” 2694 m
2 -30 19 37 -69 25 45 2634
3 -30 49 52 -69 37 36 2798
4 -31 01 47 -69 27 19 1804

77
Componentes observadas y varianzas_covarianzas a priori:

Vector Org. –Extr. ∆X (m) ∆Y (m) ∆Z (m)


1 2 - 1 14296.367 17820.999 -19.700.196
1.024 10-3 0 0
-1.295 10-3 3.249 10-3 0
-6.019 10-4 1.373 10-3 1.089 10-2

2 3 - 2 18070. 512 -3464.677 16362.982


1.960 10-4 0 0
-2.555 10-4 6.250 10-4 0
-1.254 10-4 2.840 10-4 2.560 10-4

3 1 - 3 -32366.915 -14356.244 3337.279


3.610 10-4 0 0
-4.651 10-4 1.156 10-3 0
-2.052 10-4 4.692 10-4 4.000 10-4

4 4 - 1 24254.657 -1642.671 15055.688


2.560 10-4 0 0
-3.078 10-4 1.369 10-3 0
-1.064 10-4 4.198 10-4 3.610 10-4

5 3 - 4 8112.244 15998.976 -18393.056


4.410 10-4 0 0
-2.587 10-4 3.316 10-3 0
-2.570 10-4 1.123 10-3 1.156 10-3

6 1 - 3 -32366.836 -14356.268 3337.355


6.760 10-4 0 0
-4.186 10-4 4.900 10-3 0
-3.749 10-4 1.702 10-3 1.697 10-3

Errores de Cierre:

Malla I:
Triangulo 1: ∑∆X = -0.036 m, ∑∆Y = 0.078 m, ∑∆Z = 0.065 m
Triangulo 2: ∑∆X = 0.043 m, ∑∆Y = 0.054 m, ∑∆Z = 0.141 m
σ ∑∆ = σ 2 21 + σ 2 32 + σ 213 = 0.062 m => Tol = 2.6 σ ∑∆ = 0.161 m
2 2 2
Triangulo 1: ε I, 1 = (Σ∆X )1 + (Σ∆Y )1 + (Σ∆Z )1 = 0.108m => ε I, 1 < Tol
2 2 2
Triangulo 2: ε I, 2 = (Σ∆X ) 2 + (Σ∆Y ) 2 + Σ∆Z ) 2 = 0.157 m => ε I, 2 < Tol

Malla II:
Triangulo 1: ∑∆X = -0.014 m, ∑∆Y = 0.061 m, ∑∆Z = - 0.089 m
Triangulo 2: ∑∆X = 0.065 m, ∑∆Y = 0.037 m, ∑∆Z = - 0.013 m
σ Σ∆ = σ 213 + σ 2 34 + σ 214 = 0.061 => Tol = 2.6 σ Σ∆ = 0.158m

Triangulo 1: ε II, 1 = 0.109 m => ε II, 1 < Tol

78
Triangulo 2: ε II, 2 = 0.076 m => ε II, 2 < Tol

Ambas mallas cierran dentro de tolerancia.

Ajuste Libre Correlacionado y Control de Calidad:

Se ejecutó con la aplicación MATLAB REDGPS_ALV:


- Número de observaciones: 6 vectores, 18 componentes => n = 24
- Número de parámetros: 4 puntos = > m = 12
- Número de grados de libertad de la red: d = 3 (tres traslaciones en X,
Y, Z)
- Redundancia: ν = n – m + d = 24 -12 + 3 =15
- Número de iteraciones: 4
- Varianza a posteriori: σ) 0 = 1.0251 , pasa la prueba chi _ cuadrado al
2

95% de confianza con valores críticos: χ2 15, 0.025 = 6.26, χ2 15, 0.975 =
27.5. Error estándar de la línea base en el ajuste: σ LB = 5 mm + 0.88
ppm

Errores estandar de las coordenadas ajustadas

Punto σX(m) σY(m) σZ(m) EERMest.(m)


1 0.0096 0.0216 0.0158 0.0284
2 0.0119 0.0244 0.0196 0.0335
3 0.0104 0.0232 0.0152 0.0296
4 0.0128 0.0319 0.0195 0.0396

0.05
Elipsoides de error del 95% de confianza ( F3,15 = 3.29 )
Pto A(m) ψº θº B(m) ψº θº C(m) ψº θºEERM Vol(cm3)
1 0.078 107.7 28.3 0.038 279.8 61.5 0.022 15.9 3.3
0.089 274.523
2 0.093 110.8 32.9 0.042 283.7 56.9 0.026 18.7 3.2
0.105 432.281
3 0.085 107.2 28.2 0.030 256.2 58.0 0.025 9.5 13.9
0.093 262.510
4 0.113 102.6 26.4 0.041 234.0 53.1 0.033 359.9 23.8
0.124 642.338
Σ = 1611.652
A, B, C son los semiejes mayor, intermedio y menor del elipsoide del 95% de
confianza, mientras que ψ y θ son sus respectivos rumbos y elevaciones.

Elipses de Error Horizontales del 95% N-E (FM = 2.71)

Punto ϕº A (m) B (m) excentr. área (cm2)


1 -5.91 0.0326 0.0195 0.6435 19.96
2 -3.73 0.0367 0.0227 0.6186 26.19
3 -19.99 0.0259 0.0216 0.3055 17.60
4 -38.95 0.0371 0.0294 0.3721 34.21
∑ = 1.9397 ∑ = 97.93

79
Elipses de Error Verticales del 95% N-n (FM =2.71)

Punto ϕº A (m) B (m) excentr. área (cm2)


1 -2.34 0.0671 0.0324 0.7665 68.29
2 2.43 0.0798 0.0365 0.7903 91.64
3 -2.40 0.0729 0.0253 0.8797 57.98
4 -4.04 0.0964 0.0336 0.8783 101.92
∑ = 3.3149 ∑ = 319.83

Elipses de Error Verticales del 95% E-n (FM =2.71)

Punto ϕº A (m) B (m) excentr. área (cm2)


1 2.66 0.0671 0.0194 0.7665 40.96
2 -0.13 0.0798 0.0228 0.9186 57.02
3 2.83 0.0730 0.0219 0.9100 50.18
4 7.04 0.0969 0.0306 0.9001 93.22
∑ = 3.6448 ∑ = 241.38

Varianza Singular Media: σ2SM = 0.0015 m2


Desv. Estándar Singular Media: σSM = 0.0387 m

Fiabilidad:

Índices de sensibilidad de la red: α = 0.05, β0 = 0.20.


Potencia de test: β = 1 - β0 = 0.80
Parámetro de desplazamiento: δ0 = 2.80

Obs. vi(m) ωi ri ⎜∇0i⎜(m)


∆X 2-1 -0.0049 -1.5249 0.1715 0.071
∆Y 2-1 -0.0029 -0.7729 0.1091 0.158
∆Z 2-1 -0.0598 -1.4432 0.7444 0.156
∆X 3-2 -0.0021 -0.6090 0.7498 0.080
∆Y 3-2 -0.0201 0.0276 0.5257 0.144
∆Z 3-2 -0.0330 -1.2435 0.4554 0.121
∆X1-3 0.0430 0.6797 0.9246 0.115
∆Y1-3 -0.0551 -0.6851 0.8275 0.188
∆Z1-3 0.0278 1.3640 0.7803 0.138
∆X1-4 -0.0198 0.08512 0.6919 0.100
∆Y1-4 -0.0129 -1.4079 0.6810 0.199
∆Z1-4 0.0390 1.7148 0.4887 0.132
∆X3-4 -0.0092 -0.4565 0.2734 0.096
∆Y3-4 0.0070 -0.4576 0.5066 0.170
∆Z3-4 0.0222 1.0515 0.3613 0.113
∆X1-3 -0.0360 -1.9534 0.6996 0.095
∆Y1-3 -0.0311 0.2347 0.8101 0.204
∆Z1-3 -0.0482 -1.6437 0.7205 0.104
∆2-1 0.0350 1.2916 0.7399 0.104
∆3-2 -0.0207 -0.9504 0.6659 0.093

80
∆1-3 -0.0143 -0.4198 0.8767 0.110
∆4-1 0.0045 0.1752 0.7231 0.101
∆3-4 -0.0144 -0.6762 0.5961 0.101
∆1-3 0.0408 1.2008 0.8767 0.110

Fiabilidad Interna y Externa:


24

Suma de redundancias: Sr =
∑r 1
i = 15

Sr
Redundancia Media: rM = = 0.625
24

Transferencia a Coordenadas: Vectores de Fiabilidad Externa (Influencia sobre


Coordenadas: ISX, ISY, ISZ):

Observable 1: componente ∆X2-1


P1 P2 P3 P4
ISX (m): 0.0216 -0.0374 IT<DIE IT<DIE
ISY (m): 0.0050 0.0025
ISZ (m): 0.0037 0.0038
IT (m): 0.0225 0.0376
EERMest 0.0384 0.0335
DIE(m): 0.0071 0.0091

Observable 2: componente ∆Y2-1


P1 P2 P3 P4
ISX (m): -0.0015 0.0010 IT<DIE IT<DIE
ISY (m): 0.0609 -0.0795
ISZ (m): 0.0228 -0.0309
IT (m): 0.0650 0.0853
EERMest: 0.0284 0.0335
DIE (m): 0.0186 0.0198

Observable 3: componente ∆Z2-1


P1 P2 P3 P4
ISX (m): 0.0011 0.0009 IT<DIE IT<DIE
ISY (m): - 0.0266 0.0299
ISZ (m): 0.0052 -0.0081
IT (m): 0.0165 0.0237
EERMest: 0.0284 0.0335
DIE (m): 0.0129 0.0172

Observable 4: componente ∆X3-2


P2 P3 P1 P4
ISX (m): 0.0109 -0.0090 IT<DIE IT<DIE
ISY (m): 0.0078 -0.0118
ISZ (m): 0.0012 -0.0027

81
IT (m): 0.0135 0.0151
EERMest: 0.0335 0.0296
DIE (m): 0.0087 0.0098

Observable 5: componente ∆Y3-2


P1 P2 P3 P4
ISX (m): -0.0006 0.0007 -0.0007 IT<DIE
ISY (m): 0.0227 -0.0333 -0.0350
ISZ (m): 0.0083 -0.0077 -0.0022
IT (m): 0.0241 0.0342 0.0351
EERMest: 0.0284 0.0335 0.0296
DIE (m): 0.0186 0.0147 0.0158

Observable 6: componente ∆Z3-2


P1 P2 P3 P4
ISX (m): IT<DIE -0.0050 0.0045 0.0025
ISY (m): 0.0038 -0.0029 0.0005
ISZ (m): 0.0423 -0.0234 -0.0157
IT (m): 0.0428 0.0240 0.0159
EERMest: 0.0335 0.0296 0.0396
DIE (m): 0.0164 0.0115 0.0140

Observable 7: componente ∆X1-3


P1 P2 P3 P4
ISX (m): IT<DIE IT<DIE IT<DIE IT<DIE
ISY (m):
ISZ (m):
IT (m):
EERMest:
DIE (m):

Observable 8: componente ∆Y1-3


P1 P2 P3 P4
ISX (m): 0.0004 IT<DIE 0.0000 IT<DIE
ISY (m): -0.0158 0.0166
ISZ (m): 0.0026 0.0004
IT (m): 0.0160 0.0166
EERMest: 0.0284 0.0296
DIE (m): 0.0147 0.0154

Observable 9: componente ∆Z1-3


P1 P2 P3 P4
ISX (m): 0.0011 IT<DIE -0.0017 IT<DIE
ISY (m): -0.0004 0.0035
ISZ (m): -0.0168 0.0135
IT (m): 0.0168 0.0140
EERMest: 0.0284 0.0296
DIE (m): 0.0134 0.0123

82
Observable 10: componente ∆X4-1
P1 P2 P3 P4
ISX (m): 0.0119 IT<DIE IT<DIE -0.0187
ISY (m): -0.0010 -0.0059
ISZ (m): -0.0031 0.0022
IT (m): 0.0124 0.0197
EERMest: 0.0284 0.0396
DIE (m): 0.0079 0.0113

Observable 11: componente ∆Y4-1


P1 P2 P3 P4
ISX (m): 0.0009 0.0014 IT<DIE -0.0187
ISY (m): 0.0232 0.0195 -0.0042
ISZ (m): -0.0053 0.0042 -0.0010
IT (m): 0.0238 0.0200 0.0404
EERMest: 0.0284 0.0335 0.0396
DIE (m): 0.0136 0.0166 0.0216

Observable 12: componente ∆Z4-1


P1 P2 P3 P4
ISX (m): -0.0053 IT<DIE IT<DIE 0.0088
ISY (m): 0.0099 -0.0167
ISZ (m): 0.0309 -0.0366
IT (m): 0.0328 0.0412
EERMest: 0.0284 0.0396
DIE (m): 0.0157 0.0190

Observable 13: componente ∆X3-4


P1 P2 P3 P4
ISX (m): IT<DIE -0.0097 -0.0274 0.0420
ISY (m): 0.0011 0.0159 -0.0147
ISZ (m): 0.0046 0.0038 -0.0030
IT (m): 0.0108 0.0319 0.0446
EERMest: 0.0335 0.0296 0.0396
DIE (m): 0.0093 0.0107 0.0123

Observable 14: componente ∆Y3-4


P1 P2 P3 P4
ISX (m): IT<DIE IT<DIE 0.0036 -0.0053
ISY (m): -0.0283 0.0554
ISZ (m): -0.0029 0.0056
IT (m): 0.0286 0.0559
EERMest: 0.0296 0.0396
DIE (m): 0.0181 0.0258

83
Observable 15: componente ∆Z3-4
P1 P2 P3 P4
ISX (m): IT<DIE -0.0011 -0.0014 0.0022
ISY (m): -0.0031 -0.0104 0.0154
ISZ (m): -0.0174 -0.0281 0.0443
IT (m): 0.0177 0.0300 0.0470
EERMest: 0.0335 0.0296 0.0396
DIE (m): 0.0160 0.0123 0.0159

Observable 16: componente ∆X1-3


P1 P2 P3 P4
ISX (m): -0.0135 IT<DIE 0.0150 IT<DIE
ISY (m): 0.0165 -0.0157
ISZ (m): 0.0029 -0.0060
IT (m): 0.0215 0.0225
EERMest: 0.0284 0.0296
DIE (m): 0.0145 0.0149

Observable 17: componente ∆Y1-3


P1 P2 P3 P4
ISX (m): 0.0043 IT<DIE -0.0044 IT<DIE
ISY (m): -0.0193 0.0195
ISZ (m): 0.0029 0.0010
IT (m): 0.0200 0.0200
EERMest: 0.0284 0.0296
DIE (m): 0.0167 0.0176

Observable 18: componente ∆Z1-3


P1 P2 P3 P4
ISX (m): -0.0009 IT<DIE 0.0006 IT<DIE
ISY (m): 0.0012 0.0026
ISZ (m): -0.0193 0.0151
IT (m): 0.0193 0.0153
EERMest: 0.0284 0.0296
DIE (m): 0.0127 0.0111

Observable 19: línea base ∆2-1


P1 P2 P3 P4
ISX (m): 0.0002 -0.0027 IT<DIE IT<DIE
ISY (m): 0.0044 -0.0003
ISZ (m): -0.0143 0.0206
IT (m): 0.0150 0.0208
EERMest: 0.0284 0.0335
DIE (m): 0.0122 0.0155

84
Observable 20: línea base ∆3-2
P1 P2 P3 P4
ISX (m): IT<DIE 0.0096 -0.0077 IT<DIE
ISY (m): -0.0081 0.0050
ISZ (m): 0.0167 -0.0080
IT (m): 0.0209 0.0122
EERMest: 0.0335 0.0296
DIE (m): 0.0123 0.0087

Observable 21: línea base ∆1-3


P1 P2 P3 P4
ISX (m): IT<DIE IT<DIE IT<DIE IT<DIE
ISY (m):
ISZ (m):
IT (m):
EERMest:
DIE (m):

Observable 22: línea base ∆4-1


P1 P2 P3 P4
ISX (m): 0.0091 IT<DIE IT<DIE -0.0133
ISY (m): -0.0051 0.0019
ISZ (m): 0.0077 -0.0084
IT (m): 0.0129 0.0158
EERMest: 0.0284 0.0396
DIE (m): 0.0094 0.0107

Observable 23: línea base ∆3-4


P1 P2 P3 P4
ISX (m): IT<DIE IT<DIE -0.0020 0.0032
ISY (m): -0.0162 0.0358
ISZ (m): 0.0043 -0.0054
IT (m): 0.0169 0.0364
EERMest: 0.0296 0.0396
DIE (m): 0.0119 0.0188

Observable 24: línea base ∆1-3


P1 P2 P3 P4
ISX (m): IT<DIE IT<DIE IT<DIE IT<DIE
ISY (m):
ISZ (m):
IT (m):
EERMest:
DIE (m):

85
Observaciones Ajustadas y sus Errores Estándar.
vec ∆X(m) σ∆X ∆Y(m) σ∆Y ∆Z(m) σ∆Z ∆(m) σ∆
2-1 14296.362 0.01 17820.966 0.02 -19700.256 0.03 30167.432 0.02
3-2 18070.510 0.02 -3464.697 0.04 16362.949 0.03 24623.029 0.02
1-3 -32366.872 0.02 -14356.299 0.04 3337.307 0.03 35564.805 0.01
4-1 24254.637 0.02 -1642.684 0.05 15055.727 0.03 28594.768 0.02
3-4 8112.235 0.02 15998.983 0.04 -18393.034 0.03 25692.012 0.02
1-3 -32366.872 0.02 -14356.299 0.04 3337.307 0.03 35564.805 0.01

Errores de las Líneas Base en parte por millón:


lin. base 2-1 3-2 1-3 4-1 3-4 1-3
err. ppm 0.540 0.634 0.363 0.562 0.692 0.363

Comentarios sobre el Ajuste Libre Correlacionado y el Control de Calidad:

- Según los valores de los semiejes mayores de las elipses de error del
95% de confianza, los puntos con mayor precisión en el
posicionamiento horizontal y vertical, son el 1 y el 3. Esto es así,
porque a ellos llegan cuatro vectores GPS, mientras que al 2 y al 4
llegan solamente 2 vectores.
- Los parámetros ωi de Baarda se mantienen, en todos los casos, menores
en valor absoluto, que el valor crítico t15, 0975 = 2.13. En consecuencia,
no se rechaza ninguna observación.
- Las observaciones de componentes están bien controladas (0.4 ≤ ri ≤
1), salvo las componentes ∆X2-1, ∆Y2-1, ∆X3-4 y ∆Z3-4 que están
débilmente controladas (0.1 ≤ ri ≤ 0.4). Las distancias (líneas base)
están todas bien controladas. La redundancia media es igual a 0.625;
esto califica, en promedio, a la red como bien controlada.

- Los errores mínimos detectados | ∇0i | para las componentes, varían


entre 0.071 m y 0.204 m. Los mínimos errores detectables se
determinaron para un nivel de significación α = 0.05 y para una
potencia de test 1 – β0 = 0.80. Esto significa que no se rechazará una
observación correcta con probabilidad del 95% y aquellos posibles
errores groseros serán detectados con una potencia de test igual al 80%,
lo que implica que sólo un 20% podrán filtrarse en el ajuste sin ser
detectados.
- Los vectores de fiabilidad externa indican que un error no detectado en
alguna observación, produce una influencia no mayor que 0.085 m en
las coordenadas ajustadas. La influencia total IT, supera al error
esférico radial medio estándar, EERMest, en aquellos casos en que el
númerode redundancia r es menor que 0.55.

86
- El ajuste libre supera la prueba chi _ cuadrado para la varianza a
posteriori al 95% de confianza habiéndose modelado los errores
externos con 0.88 ppm. Los errores estándar de los observables
ajustados indican un error promedio de 0.526 ppm.
- Según los estándares geodésicos del CNUGGI, la red GPS es categoría
B1, puesto que las distancias están comprendidas entre los 10 km y los
100 km, y los semiejes mayores de las elipses horizontales del 95% de
confianza, son menores que 0.04 m en todos los casos. Los semiejes no
superan el radio de tolerancia, que es igual a 0.10 m.

Ajuste Vinculado Correlacionado:


Se ejecutó con la aplicación MATLB REDGPS_ALV. Se adoptó como punto fijo al
Campamento Base (P1) con las siguientes coordenadas rectangulares:

X1 = 1944529.018 m
Y1 = -5125442.034 m
Z1 = -3254580.807 m

provenientes de una campaña Transit realizada por el IGMA en el año 1982.


Errores a priori de las coordenadas: La red se ha fijado en el punto 1 dándole al mismo
un error irrealísticamente pequeño de 1 mm. De esta manera el peso de las coordenadas
“fijas” es 106 y el punto 1 es prácticamente fijo.
El número de observaciones es ahora n = 27, el número de coordenadas o parámetros a
ajustar es m = 12 y el número de grados de libertad de la red es r = 0.
El error de la línea base ∆ se modeló con el error estándar especificado: (σ∆) = 5 mm +
0.75 ppm ∆(mm). Luego de cuatro iteraciones, la varianza a posteriori σ) 0 = 1.0279 ,
2

pasó la prueba chi _ cuadrado al 95% de confianza.

Coordenadas Cartesianas Ajustadas y sus Errores Estándar:


pto. X(m) σX(m) Y(m) σY(m) Z(m) σZ(m)
1PF 1944592.02 0.001 -5125442.03 0.001 -3254580.81 0.001
2 1930232.66 0.014 -5143263.03 0.025 -3234880.55 0.027
3 1912162.15 0.017 -5139798.33 0.038 -3251243.50 0.026
4 1920274.38 0.020 -5123799.35 0.049 -3269636.53 0.029

Posiciones Geodésicas Ajustadas:


pto. ϕº‘“ λº’“ h(m)
1 -30 51 59.43763 -69 13 25.95750 2693.807
2 -30 39 36.95646 -69 25 45.18586 2607.551
3 -30 49 52.22923 -69 35 35.73581 2747.330
4 -31 01 47.07275 -69 27 18.84055 1778.758

87
Ajuste Libre No- Correlacionado y Control de Calidad:

En este caso se anulan la covarianzas en la (2.6) para cada vector GPS; es decir, σ∆X∆Y =
σ∆X∆Z = σ ∆Y∆Z = 0 y se consideran solamente las varianzas σ2∆X, σ2∆Y, σ2∆Z de las
componentes.

Se ejecutó con la aplicación MATLAB REDGPS_ALV:


- Número de observaciones: 6 vectores, 18 componentes => n = 24
- Número de parámetros: 4 puntos = > m = 12
- Número de grados de libertad de la red: d = 3 (tres traslaciones en X,
Y, Z)
- Redundancia: ν = n – m + d = 24 -12 + 3 =15
- Número de iteraciones: 4
- Varianza a posteriori: σ) 0 = 1.0355 , pasa la prueba chi _ cuadrado al
2

95% de confianza con valores críticos: χ2 15, 0.025 = 6.26, χ2 15, 0.975 =
27.5. Error estándar de la línea base en el ajuste: σ LB = 5 mm + 0.92
ppm

Errores estandar de las coordenadas ajustadas

Punto σX(m) σY(m) σZ(m) EERMest.(m)


1 0.0077 0.0169 0.0133 0.0228
2 0.0096 0.0191 0.0159 0.0266
3 0.0076 0.0165 0.0104 0.0210
4 0.0099 0.0236 0.0141 0.0293

0.05
Elipsoides de error del 95% de confianza ( F3,15 = 3.29 )
Pto A(m) ψº θº B(m) ψº C(m) ψº θº EERM Vol(cm3)
θº
1 0.054 94.5 11.8 0.041 267.3 78.1
0.024 4.2 1.5 0.072 221.278
2 0.062 92.2 22.5 0.048 256.1 66.7
0.030 359.8 5.8 0.084 370.253
3 0.052 94.2 9.2 0.032 240.4 78.9
0.024 3.2 6.1 0.066 166.031
4 0.075 91.8 10.8 0.043 234.8 76.6
0.031 0.3 7.9 0.092 418.027
Σ = 1175.589
A, B, C son los semiejes mayor, intermedio y menor del elipsoide del 95% de
confianza, mientras que ψ y θ son sus respectivos rumbos y elevaciones.

Elipses de Error Horizontales del 95% N-E (FM = 2.71)

Punto ϕº A (m) B (m) excentr. área (cm2)


1 -14.45 0.0370 0.0225 0.6302 26.40
2 -19.20 0.0418 0.0283 0.5416 37.13
3 -24.42 0.0315 0.0213 0.5428 21.02
4 -30.41 0.0432 0.0285 0.5648 38.68
∑ = 2.2794 ∑ = 123.01

88
Elipses de Error Verticales del 95% N-n (FM =2.71)

Punto ϕº A (m) B (m) excentr. área (cm2)


1 -16.96 0.0450 0.0353 0.3834 49.87
2 -3.00 0.0516 0.0405 0.3831 65.61
3 -20.23 0.0439 0.0276 0.6053 37.96
4 -18.49 0.0622 0.0367 0.6518 71.61
∑ = 2.0236 ∑ = 225.05
Elipses de Error Verticales del 95% E-n (FM =2.71)

Punto ϕº A (m) B (m) excentr. área (cm2)


1 15.17 0.0455 0.0212 0.7818 24.79
2 16.18 0.0531 0.0272 0.7368 45.41
3 15.89 0.0435 0.0208 0.7704 28.50
4 18.28 0.0626 0.0278 0.8029 54.66
∑ = 3.0919 ∑ = 158.89

Fiabilidad:

Índices de sensibilidad de la red: α = 0.05, β0 = 0.20.


Potencia de test: β = 1 - β0 = 0.80
Parámetro de desplazamiento: δ0 = 2.80

Obs. vi(m) ωi ri ⎜∇0i⎜(m)


∆X 2-1 -0.0045 -0.6882 0.2303 0.080
∆Y 2-1 -0.0153 -1.2951 0.2399 0.140
∆Z 2-1 -0.0604 -1.6212 0.7146 0.149
∆X 3-2 0.0015 0.0723 0.6734 0.088
∆Y 3-2 -0.0279 -0.8137 0.5628 0.173
∆Z 3-2 -0.0300 -1.4862 0.4803 0.120
∆X1-3 0.0389 1.3094 0.8465 0.100
∆Y1-3 -0.0348 -0.6870 0.7655 0.189
∆Z1-3 0.0254 0.9045 0.6824 0.117
∆X1-4 -0.0222 -0.8764 0.7381 0.098
∆Y1-4 -0.0287 -0.4957 0.7186 0.229
∆Z1-4 0.0472 1.7141 0.6199 0.127
∆X3-4 -0.0027 -0.4394 0.2086 0.086
∆Y3-4 0.0025 0.0996 0.4384 0.162
∆Z3-4 0.0163 1.2425 0.3499 0.107
∆X1-3 -0.0401 -1.7237 0.7710 0.086
∆Y1-3 -0.0108 -0.1654 0.8449 0.221
∆Z1-3 -0.0506 -1.3548 0.7912 0.134
∆2-1 0.0283 1.0468 0.6829 0.113
∆3-2 -0.0149 -0.6661 0.6535 0.096
∆1-3 -0.0190 -0.5485 0.8432 0.117
∆4-1 0.0077 0.2859 0.7389 0.104
∆3-4 -0.0110 -0.5133 0.5619 0.109
∆1-3 0.0361 1.0416 0.8432 0.117

89
Fiabilidad Interna y Externa:
24

Suma de redundancias: Sr =
∑r
1
i = 15

Sr
Redundancia Media: rM = = 0.625
24

Transferencia a Coordenadas: Vectores de Fiabilidad Externa (Influencia sobre


Coordenadas: ISX, ISY, ISZ):

Observable 1: componente ∆X2-1


P1 P2 P3 P4
ISX (m): 0.0238 -0.0379 IT<DIE IT<DIE
ISY (m): -0.0074 -0.0005
ISZ (m): 0.0019 0.0022
IT (m): 0.0250 0.0379
EERMest 0.0228 0.0266
DIE(m): 0.0081 0.0096

Observable 2: componente ∆Y2-1


P1 P2 P3 P4
ISX (m): -0.0027 0.0011 IT<DIE IT<DIE
ISY (m): 0.0443 -0.0622
ISZ (m): 0.0096 -0.0134
IT (m): 0.0454 0.0636
EERMest: 0.0228 0.0266
DIE (m): 0.0171 0.0194

Observable 3: componente ∆Z2-1


P1 P2 P3 P4
ISX (m): 0.0005 0.0005 IT<DIE IT<DIE
ISY (m): 0.0020 -0.0053
ISZ (m): 0.0184 -0.0241
IT (m): 0.0185 0.0246
EERMest: 0.0228 0.0162
DIE (m): 0.0133 0.0172

Observable 4: componente ∆X3-2


P2 P3 P1 P4
ISX (m): 0.0167 -0.0121 IT<DIE IT<DIE
ISY (m): -0.0013 0.0021
ISZ (m): -0.0043 0.0026
IT (m): 0.0173 0.0126
EERMest: 0.0266 0.0210
DIE (m): 0.0100 0.0079

90
Observable 5: componente ∆Y3-2
P1 P2 P3 P4
ISX (m): -0.0015 -0.0005 0.0017 0.0003
ISY (m): 0.0181 0.0414 -0.0341 -0.0253
ISZ (m): -0.0013 0.0052 -0.0024 -0.0015
IT (m): 0.0182 0.0417 0.0343 0.0254
EERMest: 0.0228 0.0266 0.0210 0.0293
DIE (m): 0.0167 0.0192 0.0166 0.0235

Observable 6: componente ∆Z3-2


P1 P2 P3 P4
ISX (m): IT<DIE -0.0040 0.0032 0.0028
ISY (m): 0.0078 -0.0051 -0.0024
ISZ (m): 0.0409 -0.0213 -0.0163
IT (m): 0.0419 0.0221 0.0167
EERMest: 0.0266 0.0210 0.0293
DIE (m): 0.0162 0.0107 0.0142

Observable 7: componente ∆X1-3


P1 P2 P3 P4
ISX (m): IT<DIE IT<DIE IT<DIE IT<DIE
ISY (m):
ISZ (m):
IT (m):
EERMest:
DIE (m):

Observable 8: componente ∆Y1-3


P1 P2 P3 P4
ISX (m): 0.0016 IT<DIE -0.0014 IT<DIE
ISY (m): -0.0225 0.0218
ISZ (m): -0.0014 0.0015
IT (m): 0.0226 0.0219
EERMest: 0.0228 0.0210
DIE (m): 0.0170 0.0166

Observable 9: componente ∆Z1-3


P1 P2 P3 P4
ISX (m): 0.0008 IT<DIE -0.0008 IT<DIE
ISY (m): -0.0025 0.0028
ISZ (m): -0.0219 0.0154
IT (m): 0.0221 0.0156
EERMest: 0.0228 0.0210
DIE (m): 0.0133 0.0106

91
Observable 10: componente ∆X4-1
P1 P2 P3 P4
ISX (m): 0.0107 IT<DIE IT<DIE -0.0149
ISY (m): -0.0026 0.0025
ISZ (m): -0.0020 0.0029
IT (m): 0.0111 0.0154
EERMest: 0.0228 0.0293
DIE (m): 0.0080 0.0103

Observable 11: componente ∆Y4-1


P1 P2 P3 P4
ISX (m): -0.0013 IT<DIE IT<DIE 0.0009
ISY (m): 0.0258 -0.0387
ISZ (m): 0.0014 -0.0043
IT (m): 0.0258 0.0390
EERMest: 0.0224 0.0293
DIE (m): 0.0170 0.0238

Observable 12: componente ∆Z4-1


P1 P2 P3 P4
ISX (m): -0.0017 IT<DIE IT<DIE 0.0028
ISY (m): 0.0044 -0.0076
ISZ (m): 0.0229 -0.0252
IT (m): 0.0234 0.0265
EERMest: 0.0228 0.0293
DIE (m): 0.0135 0.0148

Observable 13: componente ∆X3-4


P1 P2 P3 P4
ISX (m): IT<DIE -0.0118 -0.0248 0.0429
ISY (m): -0.0003 0.0071 -0.0047
ISZ (m): -0.0026 -0.0011 -0.0019
IT (m): 0.0121 0.0258 0.0432
EERMest: 0.0266 0.0210 0.0293
DIE (m): 0.0096 0.0078 0.0100

Observable 14: componente ∆Y3-4


P1 P2 P3 P4
ISX (m): IT<DIE IT<DIE 0.0015 -0.0015
ISY (m): -0.0296 0.0612
ISZ (m): -0.0056 0.0096
IT (m): 0.0302 0.0620
EERMest: 0.0210 0.0293
DIE (m): 0.0167 0.0239

92
Observable 15: componente ∆Z3-4
P1 P2 P3 P4
ISX (m): IT<DIE -0.0000 -0.0007 -0.0010
ISY (m): -0.0067 -0.0091 0.0197
ISZ (m): -0.0177 -0.0254 0.0442
IT (m): 0.0189 0.0269 0.0484
EERMest: 0.0266 0.0210 0.0293
DIE (m): 0.0167 0.0109 0.0154

Observable 16: componente ∆X1-3


P1 P2 P3 P4
ISX (m): -0.0099 IT<DIE 0.0097 IT<DIE
ISY (m): 0.0034 -0.0033
ISZ (m): 0.0006 -0.0013
IT (m): 0.0105 0.0103
EERMest: 0.0228 0.0210
DIE (m): 0.0082 0.0081

Observable 17: componente ∆Y1-3


P1 P2 P3 P4
ISX (m): IT<DIE IT<DIE IT<DIE IT<DIE
ISY (m):
ISZ (m):
IT (m):
EERMest:
DIE (m):

Observable 18: componente ∆Z1-3


P1 P2 P3 P4
ISX (m): 0.0006 IT<DIE -0.0006 IT<DIE
ISY (m): -0.0019 0.0021
ISZ (m): -0.0165 0.0116
IT (m): 0.0166 0.0118
EERMest: 0.0228 0.0210
DIE (m): 0.0133 0.0106

Observable 19: línea base ∆2-1


P1 P2 P3 P4
ISX (m): 0.0016 -0.0045 IT<DIE IT<DIE
ISY (m): 0.0088 -0.0113
ISZ (m): -0.0138 0.0184
IT (m): 0.0164 0.0221
EERMest: 0.0228 0.0266
DIE (m): 0.0132 0.0151

93
Observable 20: línea base ∆3-2
P1 P2 P3 P4
ISX (m): IT<DIE 0.0092 -0.0067 IT<DIE
ISY (m): -0.0051 0.0057
ISZ (m): 0.0205 -0.0104
IT (m): 0.0230 0.0137
EERMest: 0.0266 0.0210
DIE (m): 0.0130 0.0094

Observable 21: línea base ∆1-3


P1 P2 P3 P4
ISX (m): IT<DIE IT<DIE IT<DIE IT<DIE
ISY (m):
ISZ (m):
IT (m):
EERMest:
DIE (m):

Observable 22: línea base ∆4-1


P1 P2 P3 P4
ISX (m): 0.0078 IT<DIE IT<DIE -0.0105
ISY (m): -0.0029 0.0027
ISZ (m): 0.0106 -0.0108
IT (m): 0.0135 0.0153
EERMest: 0.0228 0.0293
DIE (m): 0.0102 0.0109

Observable 23: línea base ∆3-4


P1 P2 P3 P4
ISX (m): IT<DIE IT<DIE -0.0009 0.0033
ISY (m): -0.0168 0.0351
ISZ (m): 0.0070 -0.0126
IT (m): 0.0182 0.0375
EERMest: 0.0210 0.0293
DIE (m): 0.0137 0.0191

Observable 24: línea base ∆1-3


P1 P2 P3 P4
ISX (m): IT<DIE IT<DIE IT<DIE IT<DIE
ISY (m):
ISZ (m):
IT (m):
EERMest:
DIE (m):

94
Observaciones Ajustadas y sus Errores Estándar.
vec ∆X(m) σ∆X ∆Y(m) σ∆Y ∆Z(m) σ∆Z ∆(m) σ∆
2-1 14296.363 0.01 17820.984 0.02 -19700.256 0.02 30167.425 0.02
3-2 18070.514 0.02 -3464.705 0.03 16362.952 0.02 24623.035 0.02
1-3 -32366.876 0.01 -14356.279 0.03 3337.304 0.02 35564.805 0.02
4-1 24254.635 0.02 -1642.700 0.04 15055.735 0.02 28594.768 0.02
3-4 8112.241 0.01 15998.978 0.03 -18393.040 0.02 25692.012 0.02
1-3 -32366.876 0.01 -14356.279 0.03 3337.304 0.02 35564.805 0.02

Errores de las Líneas Base en parte por millón:


lin. base 2-1 3-2 1-3 4-1 3-4 1-3
err. ppm 0.622 0.673 0.427 0.569 0.751 0.427

Comentarios sobre el Ajuste Libre No-Correlacionado y el Control de Calidad:

- Según los valores de los semiejes mayores de las elipses de error del
95% de confianza, los puntos con mayor precisión en el
posicionamiento horizontal y vertical, son el 1 y el 3. Esto es así,
porque a ellos llegan cuatro vectores GPS, mientras que al 2 y al 4
llegan solamente 2 vectores.
- Los parámetros ωi de Baarda se mantienen, en todos los casos, menores
en valor absoluto, que el valor crítico t15, 0975 = 2.13. En consecuencia,
no se rechaza ninguna observación.
- Las observaciones de componentes están bien controladas (0.4 ≤ ri ≤
1), salvo las componentes ∆X2-1, ∆Y2-1, ∆X3-4 y ∆Z3-4 que están
débilmente controladas (0.1 ≤ ri ≤ 0.4). Las distancias (líneas base)
están todas bien controladas. La redundancia media es igual a 0.625;
esto califica, en promedio, a la red como bien controlada.

- Los errores mínimos detectados | ∇0i | para las componentes, varían


entre 0.081 m y 0.229 m. Los mínimos errores detectables se
determinaron para un nivel de significación α = 0.05 y para una
potencia de test 1 – β0 = 0.80. Esto significa que no se rechazará una
observación correcta con probabilidad del 95% y aquellos posibles
errores groseros serán detectados con una potencia de test igual al 80%,
lo que implica que sólo un 20% podrán filtrarse en el ajuste sin ser
detectados.

- Los vectores de fiabilidad externa indican que un error no detectado en


alguna observación, produce una influencia total no mayor que 0.063
m en las coordenadas ajustadas. La influencia total IT, supera al error
esférico radial medio estándar, EERMest, en aquellos casos en que el
númerode redundancia r es menor que 0.56.

95
- El ajuste libre no-correlacionado supera la prueba chi _ cuadrado para
la varianza a posteriori al 95% de confianza habiéndose modelado los
errores externos con 0.92 ppm. Los errores estándar de los observables
ajustados indican un error promedio de 0.578 ppm.
- Según los estándares geodésicos del CNUGGI, la red GPS es categoría
B1, puesto que las distancias están comprendidas entre los 10 km y los
100 km, y los semiejes mayores de las elipses horizontales del 95% de
confianza, son menores que 0.04 m en todos los casos. Los semiejes no
superan el radio de tolerancia, que es igual a 0.10 m.

Ajuste Vinculado No-Correlacionado:

Se ejecutó con la aplicación MATLB REDGPS_ALV tras anular las covarianzas de las
componentes de los vectores GPS. Se adoptó como punto fijo al Campamento Base (P1)
con las siguientes coordenadas rectangulares:

X1 = 1944529.018 m
Y1 = -5125442.034 m
Z1 = -3254580.807 m

provenientes de una campaña Transit realizada por el IGMA en el año 1982.


Errores a priori de las coordenadas: La red se ha fijado en el punto 1 dándole al mismo
un error irrealísticamente pequeño de 1 mm. De esta manera el peso de las coordenadas
“fijas” es 106 y el punto 1 es prácticamente fijo.
El número de observaciones es ahora n = 27, el número de coordenadas o parámetros a
ajustar es m = 12 y el número de grados de libertad de la red es r = 0.
El error de la línea base ∆ se modeló con el error estándar especificado: (σ∆) = 5 mm +
0.92 ppm ∆(mm). Luego de cuatro iteraciones, la varianza a posteriori σ) 0 = 1.0279 ,
2

pasó la prueba chi _ cuadrado al 95% de confianza.

Coordenadas Cartesianas Ajustadas y sus Errores Estándar:


pto. X(m) σX(m) Y(m) σY(m) Z(m) σZ(m)
1PF 1944592.02 0.001 -5125442.03 0.001 -3254580.81 0.001
2 1930232.66 0.012 -5143263.02 0.021 -3234880.55 0.024
3 1912162.14 0.013 -5139798.31 0.029 -3251243.50 0.020
4 1920274.38 0.015 -5123799.37 0.037 -3269636.54 0.022

Posiciones Geodésicas Ajustadas:


pto. ϕº‘“ λº’“ h(m)
1PF -30 51 59.43763 -69 13 25.95750 2693.807
2 -30 39 36.95664 -69 25 45.18570 2607.540
3 -30 49 52.22964 -69 35 35.73568 2747.313
4 -31 01 47.07321 -69 27 18.84026 1778.750

96
Los resultados de los ajustes correlacionados y no correlacionados, tanto libres como
vinculados, no difieren significativamente. En muchos casos se obtienen resultados
satisfactorios desestimando las covarianzas entre las componentes de los vectores GPS.

8.- Diseño de Redes GPS

Básicamente el problema del diseño implica decisiones sobre el número y posición de


las estaciones y también sobre la selección de los observables y su precisión.
La calidad de una red geodésica se caracteriza por su precisión, fiabilidad y costo. En
otras palabras, una red geodésica debería ser diseñada en tal forma que:

- la precisión postulada de los elementos de la red pueda lograrse


- sea sensible ante los tests estadísticos utilizados para la detección de errores
groseros en las observaciones y resistente ante los errores groseros no
detectados.
- La monumentación y ejecución de las mediciones satisfaga algún criterio de
costos.

En general, una red que satisfaga al mismo tiempo todos los requerimientos para
máxima precisión, alta fiabilidad y mínimo costo, puede no necesariamente existir. Sin
embargo, puede lograrse una solución satisfactoria para un problema de diseño,
balanceando los requerimientos de los tres criterios. El objetivo consiste, precisamente,
en lograr un diseño satisfactorio de una red GPS por el método” prueba y error” asistido
por computadora.

El método “prueba y error” consiste en los siguientes pasos (Kuang, Shanlong 1996):

1.- Especificación de criterios de precisión y fiabilidad: elipsoides de error a un nivel de


significación α, errores estándar de las coordenadas y parámetros de fiabilidad interna y
externa.
2.- Selección de un esquema de observación: estaciones, observaciones y pesos.
3.- Cálculo de la matriz varianza-covarianza de los estimadores mínimos cuadrados y
obtención de los valores de las cantidades especificadas como criterios de precisión y
fiabilidad.
4.- Si los valores del paso 3 están próximos a los especificados en el paso 1, entonces
se continúa con el próximo paso. En caso contrario, se vuelve al paso 2 modificando
posiciones relativas de puntos, remodelando pesos y agregando o quitando observables
hasta obtener en el paso 3 los valores deseados de precisión y fiabilidad.
5.- Se computa el costo de la red y se considera la posibilidad de retornar al paso 2 y
recomenzar el proceso con un diseño de red completamente diferente, si el costo resulta
excesivo.

La aplicación MATLAB, REDGPS_DNC1, ejecuta los pasos del diseño sin tener en
cuenta las correlaciones entre los observables (las componentes de los vectores GPS)
puesto que su modelación a priori resulta muy dificultosa. Los datos de entrada son las
coordenadas geodésicas aproximadas de los puntos de la red y los orígenes y extremos
de los vectores GPS codificados con los identificadores numéricos de los puntos de la
red. Esta información se introduce en MATLAB mediante planillas EXCEL.
Se construye la matriz de diseño A, considerando ecuaciones de observación para
componentes y para líneas base. Para construir la matriz de los pesos P, se introducen

97
por pantalla los valores a en milímetros y b en partes por millón obtenidos de algún
estándar geodésico, FGCS 1988 por ejemplo, que permiten estimar el error estándar de
una línea base y los errores estándar de las componentes para modelar los pesos de los
observables. La matriz P es diagonal debido a la desestimación de las covarianzas de las
componentes. La matriz varianza covarianza de la solución mínimos cuadrados,
denotada por ΣX, es igual a la pseudoinversa Moore-Penrose de la matriz normal N =
ATPA y se obtiene mediante los valores propios y vectores propios normalizados de la
matriz normal N. Entonces ΣX = N+.
Los semiejes del elipsoide de error del 95% de confianza y sus orientaciones respecto
del sistema geodésico geocéntrico absoluto se obtienen de la matriz ΣX. Los semiejes de
las elipses de error del 95% de confianza y sus orientaciones respecto de los ejes n, e y h
de los planos coordenados del sistema geodésico horizontal local centrado en cada
estación, también se obtienen de la matriz ΣX, previa transformación de coordenadas
efectuada con los valores de latitud y longitud geodesicas en cada punto de la red.
Se ingresa por pantalla el parámetro de desplazamiento o no-centralidad de una
distribución gaussiana, calculado en función de los índices de sensibilidad de la red α y
β; es decir las probabilidades de un error de tipo I y tipo II, respectivamente. Se calculan
ahora los parámetros de fiabilidad siguiendo la teoría de Baarda (1968) (Leick, Alfred
1995); es decir los números de redundancia ri, los mínimos errores detectables ⎢∇0i⎢y
los parámetros de fiabilidad interna µINi y de fiabilidad externa µEXi para cada
observable. El vector de fiabilidad externa ∇X0i, permite calcular las influencias del
mínimo error detectable de cada observable sobre las coordenadas ajustadas de los
puntos de la red. Si ISXj, ISYj, ISZj son las componentes del vector de fiabilidad
externa ∇X0i correspondiente al i-ésimo observable, el módulo del vector (ISXj, ISYj,
ISZj)T, se denomina la influencia total del mínimo error detectable ⎢∇0i⎢del i-ésimo
observable sobre el punto j y se denota por ITj , así: IT j = ISX j 2 + ISY j 2 + ISZ j 2
El error esférico radial medio estándar, EERMest., en cada punto de la red, se calcula en
función de los errores estándar σX, σY, σZ de sus coordenadas; es decir,
EERMest. = σ X 2 + σ Y 2 + σ Z 2 . Consideramos que una red geodésica es de fiabilidad
satisfactoria si la influencia total IT es menor que el error esférico radial medio
estándar, EERMest., en todos sus puntos.
La DIE, es la distancia entre el centro del elipsoide de error estándar y el punto de
intersección de la dirección del vector influencia total IT con el elipsoide estándar. Un
criterio más restrictivo para calificar la fiabilidad de la red, consiste en la condición de
que la influencia total, sea menor que la distancia de intersección con el elipsoide
estándar (IT<DIE). En ese caso el vector de influencia estaría totalmente contenido
dentro del elipsoide de error estándar en cada punto de la red.

Vamos a ejecutar ahora el diseño de la red propuesta en la seccion 7 (7.- Ajuste de una
Red GPS Real), con los siguientes postulados de precisión:

i) El semieje mayor del elipsoide de error de 95% de confianza en cada


estación, no debe superar los 0.05 m (A ≤ 0.05 m).
ii) El error esférico radial medio calculado con los smiejes del elipsoide del
95% de conianza, no debe superar los 0.10m (EERM ≤ 0.10m).

98
Seleccionamos el error estandar para una línea base: σ∆ = 5mm + 1 ppm ∆(mm) y
consideramos los seis vectores GPS originales que conectan las cuatro estaciones de la
red. Se obtienen así, los resultados siguientes:

0.05
Elipsoides de error del 95% de confianza ( F3,15 = 3.29 )
Pto. A(m) ψº θº B(m) ψº θº C(m) θº EERM(m) Vol.(cm3)
ψº
1 0.056 110.0 31.2 0.047 217.8 26.7 0.047 160.0
-46.7 0.087 524.099
2 0.110 110.8 30.6 0.106 20.7 0.1 0.080 110.5
-59.4 0.173 3939.205
3 0.054 111.4 31.3 0.047 13.4 13.0 0.043 263.7
55.5 0.084 463.764
4 0.065 110.5 32.4 0.058 201.0 0.8 0.051 292.2
57.6 0.100 794.393
Σ = 5721.461
Este diseño no resulta satisfactorio puesto que no se cumplen los postulados de
precisión especificados en i) y ii).

Intentaremos un nuevo diseño probando con σ∆ = 4.08 mm + 0.51 ppm ∆(mm) obtenido
del Federal Geodetic Control Subcomitee (FGCS 1988), Estandares Geométricos en
Posicionamiento Relativo para Levantamientos Tri-Dimensionales, Sistema de
Referencia Geodésico Nacional, Red Secundaria, orden B (nivel de confianza 95% error
base en centímetros, 0.5 y error dependiente de la línea base 1; es decir 1:1000000).
Se obtienen así, los siguientes resultados:

0.05
Elipsoides de error del 95% de confianza ( F3,15 = 3.29 )
Pto. A(m) ψº θº B(m) ψº θº C(m) θº EERM(m) Vol.(cm3)
ψº
1 0.030 110.0 31.2 0.026 13.9 9.9 0.026 268.4
56.9 0.047 83.756
2 0.059 110.8 30.6 0.057 20.7 0.2 0.043 110.3
-59.4 0.092 600.302
3 0.029 111.4 31.3 0.026 13.4 12.5 0.024 261.1
54.8 0.046 74.201
4 0.036 110.5 32.4 0.032 201.0 0.8 0.028 292.3
57.6 0.055 132.163
Σ = 890.722
Este diseño no resulta satisfactorio puesto que los semijes A y B del elipsoide del 95%
de confianza en el punto 2, no cumplen aún con el postulado i).

Probamos ahora insertando el vector 2-4 y conservando el estándar anterior para el error
de una línea base (σ∆ = 4.08 mm + 0.51 ppm ∆(mm)). Se tienen siete vectores y cuatro
estaciones; habida cuenta que se trata de un diseño de red libre, la redundancia es ν =
19. Se obtienen así los siguientes resultados:

0.05
Elipsoides de error del 95% de confianza ( F3,15 = 3.13 )
Pto. A(m) ψº θº B(m) ψº θº C(m) ψº θº EERM(m) Vol.(cm3)
1 0.029 109.9 31.4 0.025 253.6 53.7 0.024 9.7 16.2 0.045 71.656
2 0.050 110.7 30.7 0.048 20.9 -0.3 0.036 111.4 -59.3 0.078 355.071
3 0.028 111.5 31.6 0.024 7.0 22.2 0.022 248.1 49.8 0.043 63.352
4 0.031 110.5 32.5 0.028 201.4 1.5 0.024 193.8 57.5 0.048 85.205
Σ = 575.284
Se cumplen así, los postulados de precisión: i) y ii).

Varianza Singular Media: VSM = 0.00032472 m2.


Desviación Estándar Singular Media: DESM = 0.018 m

99
Analizaremos ahora las elipses de error y los parámetros de fiabilidad interna y externa.

Elipses de Error Horizontales del 95% N-E (FM = 2.654)

Punto ϕº A (m) B (m) excentr. área (cm2)


1 -19.55 0.0215 0.0207 0.0739 13.97
2 0.42 0.0416 0.0308 0.4512 40.36
3 -25.77 0.0211 0.0194 0.1568 12.85
4 1.74 0.0240 0.0207 0.2541 15.59
∑ = 0.9360 ∑ = 82.77

Elipses de Error Verticales del 95% N-n (FM =2.654)

Punto ϕº A (m) B (m) excentr. área (cm2)


1 0.63 0.0250 0.0214 0.2659 16.81
2 0.39 0.0429 0.0308 0.4822 41.55
3 0.86 0.0240 0.0197 0.3264 14.88
4 1.44 0.0266 0.0207 0.3962 17.32
∑ = 1.4707 ∑ = 90.56

Elipses de Error Verticales del 95% E-n (FM =2.71)

Punto ϕº A (m) B (m) excentr. área (cm2)


1 0.77 0.0250 0.0208 0.3084 16.31
2 -0.13 0.0429 0.0416 0.0566 56.08
3 -1.05 0.0240 0.0208 0.2512 15.69
4 0.11 0.0266 0.0240 0.1903 20.05
∑ = 0.8065 ∑ = 108.14

Fiabilidad: Indices de sensibilidad de la red: α = 0.05, β = 0.80, δ0 = 2.80

Observable ri ⎜∇0i⎜(m) µINi µEXi


∆X 2-1 0.6437 0.126 3.4899 2.0831
∆Y 2-1 0.6509 0.126 3.4705 2.0504
∆Z 2-1 0.7342 0.118 3.2679 1.6849
∆X 3-2 0.5963 0.122 3.6259 2.3038
∆Y 3-2 0.6042 0.121 3.6022 2.2663
∆Z 3-2 0.7055 0.112 3.3337 1.8092
∆X 1-3 0.7878 0.070 3.1547 1.4533
∆Y 1-3 0.6972 0.075 3.3535 1.8455
∆Z 1-3 0.6982 0.075 3.3510 1.8410
∆X 4-1 0.6201 0.067 3.5557 2.1916
∆Y 4-1 0.4775 0.076 4.0520 2.9289
∆Z 4-1 0.5402 0.071 3.8098 2.5834
∆X 3-4 0.5012 0.068 3.9553 2.7936
∆Y 3-4 0.4708 0.070 4.0805 2.9683
∆Z 3-4 0.5265 0.066 3.8589 2.6554

100
∆X 1-3 0.7878 0.070 3.1547 1.4533
∆Y 1-3 0.6972 0.075 3.3535 1.8455
∆Z 1-3 0.6982 0.075 3.3510 1.8410
∆X 2-4 0.7389 0.143 3.2573 1.6644
∆Y 2-4 0.7476 0.142 3.2384 1.6270
∆Z 2-4 0.8115 0.1363 3.1082 1.3495
∆ 2-1 0.7695 0.116 3.1918 1.5323
∆ 3-2 0.7497 0.109 3.2338 1.6180
∆ 1-3 0.8084 0.070 3.1142 1.3632
∆ 4-1 0.6528 0.065 3.4656 2.0421
∆ 3-4 0.6292 0.061 3.5292 2.1493
∆ 1-3 0.8084 0.070 3.1142 1.3632
∆ 2-4 0.8468 0.133 3.0428 1.1919
Σ = 19
RM = 0.6786

Transferencia a Coordenadas: Vectores de Fiabilidad Externa

Observable 1: ∆X 2-1. r = 0.6437


Punto1 Punto 2
ISX(m) 0.0138 -0.0312
ISY(m) -0.0007 -0.0007
ISZ(m) -0.0006 0.0024
IT(m) 0.0139 0.0313
EERMest(m) 0.0147 0.0253
DIE(m) 0.0080 0.0157

Observable 2: ∆Y 2-1. r = 0.6509


Punto1 Punto 2
ISX(m) -0.0005 -0.0005
ISY(m) 0.0147 -0.0291
ISZ(m) 0.0027 -0.0066
IT(m) 0.0150 0.0299
EERMest(m) 0.0147 0.0253
DIE(m) 0.0091 0.0156

Observable 3: ∆Z 2-1. r = 0.7342


Punto1 Punto 2
ISX(m) -0.0009 0.0019
ISY(m) 0.0024 -0.0063
ISZ(m) 0.0114 -0.0201
IT(m) 0.0117 0.0211
EERMest(m) 0.0147 0.0253
DIE(m) 0.0086 0.0136

Observable 4: ∆X 3-2. r = 0.5693


Punto1 Punto 2 Punto 3
ISX(m) -0.0098 0.0343 -0.0150
ISY(m) -0.0005 0.0010 0.0002

101
ISZ(m) 0.0005 -0.0031 0.0013
IT(m) 0.0099 0.0345 0.0151
EERMest(m) 0.0147 0.0253 0.0141
DIE(m) 0.0079 0.0157 0.0080

Observable 5: ∆Y 3-2. r = 0.6042


Punto2 Punto 3
ISX(m) 0.0011 0.0004
ISY(m) 0.0325 -0.0155
ISZ(m) 0.0072 -0.0029
IT(m) 0.0333 0.0158
EERMest(m) 0.0253 0.0141
DIE(m) 0.0153 0.0086

Observable 6: ∆Z 3-2. r = 0.7055


Punto2 Punto 3
ISX(m) -0.0031 0.0010
ISY(m) 0.0065 -0.0028
ISZ(m) 0.0218 -0.0113
IT(m) 0.0229 0.0117
EERMest(m) 0.0253 0.0141
DIE(m) 0.0137 0.0081

Observable 7: ∆X 1-3. r = 0.7878 IT < DIE

Observable 8: ∆Y 1-3. r = 0.6972


Punto1 Punto 3
ISX(m) 0.0017 -0.0018
ISY(m) -0.0120 0.0107
ISZ(m) -0.0007 0.0011
IT(m) 0.0121 0.0109
EERMest(m) 0.0147 0.0141
DIE(m) 0.0090 0.0086

Observable 9: ∆Z 1-3. r = 0.6982


Punto1 Punto 3
ISX(m) 0.0003 0.0003
ISY(m) -0.0007 0.0011
ISZ(m) -0.0119 0.0106
IT(m) 0.0120 0.0107
EERMest(m) 0.0147 0.0141
DIE(m) 0.0084 0.0079

Observable 10: ∆X 4-1. r = 0.6201


Punto1 Punto 4
ISX(m) 0.0108 -0.0145
ISY(m) -0.0010 0.0008
ISZ(m) -0.0022 0.0019
IT(m) 0.0111 0.0146
EERMest(m) 0.0147 0.0156

102
DIE(m) 0.0081 0.0091

Observable 11: ∆Y 4-1. r = 0.4775


Punto1 Punto 4
ISX(m) -0.0017 0.0003
ISY(m) 0.0189 -0.0207
ISZ(m) 0.0011 -0.0030
IT(m) 0.0191 0.0209
EERMest(m) 0.0147 0.0156
DIE(m) 0.0098 0.0095

Observable 12: ∆Z 4-1. r = 0.5402


Punto1 Punto 4
ISX(m) -0.0016 0.0028
ISY(m) -0.0013 -0.0025
ISZ(m) 0.0163 -0.0165
IT(m) 0.0165 0.0169
EERMest(m) 0.0147 0.0156
DIE(m) 0.0085 0.0087

Observable 13: ∆X 3-4. r = 0.5012


Punto3 Punto 4
ISX(m) -0.0149 0.0190
ISY(m) -0.0026 -0.0012
ISZ(m) -0.0013 -0.0007
IT(m) 0.0152 0.0191
EERMest(m) 0.0141 0.0156
DIE(m) 0.0081 0.0091

Observable 14: ∆Y 3-4. r = 0.4708


Punto3 Punto 4
ISX(m) 0.0022 -0.0018
ISY(m) -0.0165 0.0206
ISZ(m) -0.0036 0.0043
IT(m) 0.0170 0.0313
EERMest(m) 0.0141 0.0253
DIE(m) 0.0087 0.0096

Observable 1: ∆X 2-1. r = 0.6437


Punto1 Punto 2
ISX(m) 0.0138 -0.0312
ISY(m) -0.0007 -0.0007
ISZ(m) -0.0006 0.0024
IT(m) 0.0139 0.0313
EERMest(m) 0.0147 0.0253
DIE(m) 0.0080 0.0157

103
Observable 15: ∆Z 3-4. r = 0.5265
Punto3 Punto 4
ISX(m) -0.0006 0.0000
ISY(m) -0.0031 0.0044
ISZ(m) -0.0146 0.0168
IT(m) 0.0149 0.0174
EERMest(m) 0.0141 0.0156
DIE(m) 0.0081 0.0087

Observable 16: ∆X 1-3. r = 0.7878 IT < DIE

Observable 17: ∆Y 1-3. r = 0.6972


Punto1 Punto 3
ISX(m) 0.0017 -0.0018
ISY(m) -0.0120 0.0107
ISZ(m) -0.0007 0.0011
IT(m) 0.0121 0.0109
EERMest(m) 0.0147 0.0141
DIE(m) 0.0090 0.0086

Observable 18: ∆Z 1-3. r = 0.6982


Punto1 Punto 3
ISX(m) 0.0003 0.0003
ISY(m) -0.0007 0.0011
ISZ(m) -0.0119 0.0106
IT(m) 0.0120 0.0107
EERMest(m) 0.0147 0.0141
DIE(m) 0.0084 0.0079

Observable 19: ∆X 2-4. r = 0.7389


Punto2 Punto 4
ISX(m) -0.0246 0.0127
ISY(m) 0.0006 0.0000
ISZ(m) 0.0020 -0.0011
IT(m) 0.0247 0.0127
EERMest(m) 0.0253 0.0156
DIE(m) 0.0157 0.0090

Observable 20: ∆Y 2-4. r = 0.7476


Punto2 Punto 4
ISX(m) -0.0007 0.0000
ISY(m) -0.0232 0.0127
ISZ(m) -0.0052 0.0026
IT(m) 0.0237 0.0129
EERMest(m) 0.0253 0.0156
DIE(m) 0.0080 0.0096

104
Observable 21: ∆Z 2-4. r = 0.8115
Punto2 Punto 4
ISX(m) 0.0020 -0.0010
ISY(m) -0.0049 0.0025
ISZ(m) -0.0167 0.0095
IT(m) 0.0171 0.0098
EERMest(m) 0.0253 0.0156
DIE(m) 0.0136 0.0088

Observable 22: ∆ 2-1. r = 0.7695


Punto1 Punto 2
ISX(m) 0.0020 -0.0053
ISY(m) 0.0056 -0.0101
ISZ(m) 0.0098 0.0177
IT(m) 0.0147 0.0253
EERMest(m) 0.0147 0.0253
DIE(m) 0.0081 0.0123

Observable 23: ∆ 3-2. r = 0.7497


Punto2 Punto 3
ISX(m) 0.0101 -0.0050
ISY(m) -0.0049 0.0029
ISZ(m) 0.0140 -0.0077
IT(m) 0.0180 0.0096
EERMest(m) 0.0253 0.0141
DIE(m) 0.0121 0.0076

Observable 24: ∆ 1-3. r = 0.8084 IT < DIE

Observable 25: ∆ 4-1. r = 0.6528


Punto1 Punto 4
ISX(m) 0.0083 -0.0107
ISY(m) -0.0011 0.0004
ISZ(m) 0.0059 -0.0062
IT(m) 0.0103 0.0123
EERMest(m) 0.0147 0.0156
DIE(m) 0.0078 0.0085

Observable 26: ∆ 3-4. r = 0.6292


Punto1 Punto 2
ISX(m) -0.0026 0.0044
ISY(m) -0.0062 0.0079
ISZ(m) 0.0073 -0.0088
IT(m) 0.0099 0.0126
EERMest(m) 0.0141 0.0156
DIE(m) 0.0073 0.0084

Observable 27: ∆ 1-3. r = 0.8084 IT < DIE

105
Observable 28: ∆ 2-4. r = 0.8468
Punto2
ISX(m) 0.0029
ISY(m) -0.0061
ISZ(m) -0.0109
IT(m) 0.0128
EERMest(m) 0.0253
DIE(m) 0.0116

Comentarios:

-En aquellos observables cuyos números de redundancia son menores o iguales que 0.65
(r ≤ 0.65) el módulo del vector influencia total IT, supera al error esférico radial medio
estándar EERMest. (IT > EERMest.). Los números de redundancia elevados garantizan
la fiabilidad de la red.
-Solamente para la componente ∆X1-3 y la línea base ∆1-3, cuyos números de
redundancia son muy elevados (aproximadamente 0.8), la influencia total IT no supera a
la distancia de intersección con el elipsoide DIE; es decir, IT ≤ DIE en los cuatro puntos
o estaciones de la red. No obstante, puede considerarse como satisfactorio este diseño.
-Cuando se tiene una red de mayor envergadura; es decir, con un número considerable
de estaciones, es conveniente comenzar el diseño con una malla triangular.
Generalmente algunos puntos periféricos no cumplen los postulados de precisión
establecidos. Se agregan entonces, vectores que vinculen a dichos puntos entre sí, hasta
lograr un diseño satisfactorio. El número de triangulos que conforman la red, puede
obtenerse en forma aproximada por la expresión nt = -1.6017 + 0.8092 ne + 0.0375 ne2,
donde nt es el número de triangulos y ne es el número de estaciones de la red. El
número de vectores del diseño inicial es, aproximadamente nv = -2.6017 + 1.8092 ne +
0.0375 ne2.

Conclusiones:

El diseño de redes geodésicas es una parte importante de la mayoría de los proyectos


geodésicos y de ingeniería. La etapa del diseño es anterior a la etapa de la medición. Un
diseño satisfactorio redunda en una disminución de costos y tiempos de ejecución en
campaña.
Uno de los criterios descriptos para caracterizar la calidad de una red geodésica es la
fiabilidad. Esta puede entenderse como la capacidad de la red para detectar y eliminar
errores groseros en las observaciones. Una red geodésica es de alta fiabilidad si puede
detectar los mínimos posibles errores groseros. Para alcanzar este objetivo es necesario
que los números de redundancia tengan valores próximos a la unidad (preferentemente
0.6 < ri < 1). En consecuencia, la influencia de los errores no detectados sobre las
coordenadas ajustadas será mínima y permanecerá, en la mayoría de los casos acotada
por el error esférico radial medio estándar y por el elipsoide estándar mismo, en cada
punto de la red.

106
9.- ANEXO
Se presenta el listado de la aplicación MATLAB, REDGPS_ALV con la que se efectuó
el cálculo y compensación de la red GPS real de la sección 7:

REDGPS_ALV
clear
home
disp(' ')
disp(' ')
disp(' Programa REDGPS_ALV: Ajusta una Red GPS LIBRE resolviendo el
Sistema de Ecuaciones')
disp(' de Observación, por la descomposición SVD,adaptada para
matrices simétricas.')
disp(' Los códigos,vectores GPS y factores de pesos se almacenan en la
matríz OGPS.')
disp(' Las coordenadas aproximadas se almacenan en la matríz P0GPS.')
disp(' Muestra coordenadas ajustadas y sus errores estándar, elipses
de error absolutas')
disp(' al 95% de confianza horizontales (N-E) y verticales (V-.N y V-
E), fiabilidad')
disp(' interna y externa, observables ajustados y sus errores
estándard.')
disp(' -RAUL A. MARQUEZ-')

% Carga de Datos: Posiciones Geodésicas Aproximadas (P0GPS)-Vectores


GPS (OGPS) y Varianzas-
% covarianzas a posteriori(QL).
load P0GPS.mat;
load OGPS.mat;
load QL.mat;
nv=length(OGPS(:,1));
n=3*nv+nv;
npt=length(P0GPS(:,1));
m=3*npt;
P=zeros(n,n);
format short
disp(' ')
disp(' *INGRESE a y b en mm,según el ESTANDAR correspondiente*')
disp(' ')
a=input(' a = ');
disp(' ')
b=input(' b = ');
disp(' ')
% Genera la matriz P de los pesos.
icuen=0;
nql=3*nv-2;
for i=1:3:nql
icuen=icuen+1;
QL(i,2)=QL(i+1,1);
QL(i,3)=QL(i+2,1);
QL(i+1,3)=QL(i+2,2);
Q(1,1)=QL(i,1);
Q(1,2)=QL(i,2);
Q(1,3)=QL(i,3);
Q(2,1)=QL(i+1,1);
Q(2,2)=QL(i+1,2);
Q(2,3)=QL(i+1,3);
Q(3,1)=QL(i+2,1);
Q(3,2)=QL(i+2,2);
Q(3,3)=QL(i+2,3);

107
DX=OGPS(icuen,3);
DY=OGPS(icuen,4);
DZ=OGPS(icuen,5);
DS2=DX^2+DY^2+DZ^2;
T1=0.5*(DX^2*Q(1,1)+DY^2*Q(2,2)+DZ^2*Q(3,3));
T2=DX*DY*Q(1,2)+DX*DZ*Q(1,3)+DY*DZ*Q(2,3);
ST2=2*(T1+T2)/DS2;
SR2=((a+b*0.001*sqrt(DS2))/1000)^2;
FP=SR2/ST2;
FP
Q
Q=FP*Q;
QINV=pinv(Q);
QINV
pause
PAX(i,1)=QINV(1,1);
PAX(i,2)=QINV(1,2);
PAX(i,3)=QINV(1,3);
PAX(i+1,1)=QINV(2,1);
PAX(i+1,2)=QINV(2,2);
PAX(i+1,3)=QINV(2,3);
PAX(i+2,1)=QINV(3,1);
PAX(i+2,2)=QINV(3,2);
PAX(i+2,3)=QINV(3,3);
end
dpz=0;
for i=1:3:nql
for j=0:2
for k=1:3
P(i+j,k+dpz)=PAX(i+j,k);
end
end
dpz=dpz+3;
end
for i=1:nv
SD=sqrt(OGPS(i,3)^2+OGPS(i,4)^2+OGPS(i,5)^2);
P(3*nv+i,3*nv+i)=1/((a+b*0.001*SD)/1000)^2;
end

% Calcula las componentes aproximadas y las almacena en la matriz


AGPS.
AGPS=zeros(npt,3);
A=zeros(n,m);
disp(' ')
aa=6378137;
e2=0.00669438;
for i=1:npt
FIG=-P0GPS(i,2);
FIM=-P0GPS(i,3);
FIS=-P0GPS(i,4);
ALG=-P0GPS(i,5);
ALM=-P0GPS(i,6);
ALS=-P0GPS(i,7);
h = P0GPS(i,8);
FI=(FIG+FIM/60+FIS/3600)*pi/180;
AL=(ALG+ALM/60+ALS/3600)*pi/180;
gn=aa/sqrt(1-e2*sin(FI)^2);
AGPS(i,1)=(gn+h)*cos(FI)*cos(AL);
AGPS(i,2)=(gn+h)*cos(FI)*sin(AL);
AGPS(i,3)=(gn*(1-e2)+h)*sin(FI);
end

108
% Ingresa puntos Fijos y sus Pesos.-
np=input(' *Cuántos Puntos Fijos? ');
disp(' ')
if np>0
for k=1:np
npf=input(' *Identifique Punto Fijo* ');
pf(k)=npf;
end
disp(' ')
for k=1:length(pf)
disp(' *Punto '),disp(pf(k))
XF(pf(k))=input(' *XF= ');
PXF(pf(k))=input('*Peso ');
disp(' ')
YF(pf(k))=input(' *YF= ');
PYF(pf(k))=input('*Peso ');
disp(' ')
ZF(pf(k))=input(' *ZF= ');
PZF(pf(k))=input('*Peso ');
A(n+3*k-2,3*pf(k)-2)=1;
A(n+3*k-1,3*pf(k)-1)=1;
A(n+3*k,3*pf(k)) =1;
disp(' ')
end
for kk=1:length(pf)
P(n+3*kk-2,n+3*kk-2)=PXF(pf(kk));
P(n+3*kk-1,n+3*kk-1)=PYF(pf(kk));
P(n+3*kk,n+3*kk) =PZF(pf(kk));
end
end

disp(' AUTOVALORES DE LA MATRIZ DE LOS PESOS')


Y=eig(P);
naa=0;
for i=1:n
if Y(i) < 0
naa=naa+1;
end
end
disp(' ¿Cuántos autovalores negativos?')
naa

disp(' ')
NIT=input(' Cuántas Iteraciones? ');
disp(' ')
% Parámetros del elipsoide global(WGS'84).-
AA=6378137;
F=1/298.2572221;
E2=2*F-F^2;
EP2=E2/((AA^2)*(1-E2));
% Arma la matríz de diseño A.Comienza proceso iterativo.-
NCUEN=0;
while NCUEN<=NIT
NCUEN=NCUEN+1;
disp(' ')
disp(' Iteración ');disp( NCUEN )
disp(' ')
pause
for k=1:nv
i =OGPS(k,1);
j =OGPS(k,2);

109
DX=OGPS(k,3);
DY=OGPS(k,4);
DZ=OGPS(k,5);
SD=sqrt(DX^2+DY^2+DZ^2);
% Matríz de diseño A.-
A(3*k-2,3*i-2)=-1;
A(3*k-1,3*i-1)=-1;
A(3*k,3*i) =-1;
A(3*k-2,3*j-2)= 1;
A(3*k-1,3*j-1)= 1;
A(3*k,3*j) = 1;
A(3*nv+k,3*i-2)=-(DX/SD);
A(3*nv+k,3*i-1)=-(DY/SD);
A(3*nv+k,3*i) =-(DZ/SD);
A(3*nv+k,3*j-2)= (DX/SD);
A(3*nv+k,3*j-1)= (DY/SD);
A(3*nv+k,3*j) = (DZ/SD);
DX0=AGPS(j,1)-AGPS(i,1);
DY0=AGPS(j,2)-AGPS(i,2);
DZ0=AGPS(j,3)-AGPS(i,3);
LT(3*k-2) =(DX-DX0);
LT(3*k-1) =(DY-DY0);
LT(3*k) =(DZ-DZ0);
LT(3*nv+k)=(SD-sqrt(DX0^2+DY0^2+DZ0^2));
end
if np>0
for kk=1:length(pf)
LT(n+3*kk-2)=(XF(pf(kk))-AGPS(pf(kk),1));
LT(n+3*kk-1)=(YF(pf(kk))-AGPS(pf(kk),2));
LT(n+3*kk) =(ZF(pf(kk))-AGPS(pf(kk),3));
end
end
N=A'*P*A;
[V,D]=eig(N);

disp(' AUTOVALORES DE A´*P*A')


format short e
Y=sort(diag(D))
format
%QX=pinv(N);
LT=LT';
tol=input(' TOLERANCIA ');
disp(' ')
l=0;
for k=1:m
if abs(D(k,k)) > tol
l=l+1;
DX(l,l)=D(k,k);
VX(:,l)=V(:,k);
end
end
if l > 0
D=DX;
V=VX;
end
cnd=max(diag(D))/min(diag(D));
disp(' ********************')
disp(' Solucion del Sistema')
disp(' ********************')
X=V*inv(D)*V'*A'*P*LT
pause

110
NORM_X=sqrt(dot(X,X))
pause
disp(' ')
QX=V*inv(D)*V';
%disp(' *CORRECCIONES A LAS COORDENADAS APROXIMADAS*')
%disp(' ')
%pause
%X=QX*A'*P*LT;
%pause
Vr=A*X-LT;
%disp(' *CORRECCIONES A LAS OBSERVACIONES (RESIDUOS)')
%disp(' ')
%pause
%Vr
disp(' *VARIANZA A POSTERIORI Y NORMA DEL VECTOR DE CORRECCIONES*')
disp(' ')
nu=length(A(:,1))-rank(A);
VAR=(Vr'*P*Vr)/nu
NORM_X=sqrt(dot(X,X))
pause
disp(' ')
disp(' *REDUNDANCIA* ');disp(nu)
disp(' ')
disp(' *INGRESE VALORES CHI CUADRADO*')
disp(' ')
CHI0025= input(' CHI_0025= ');
CHI0975= input(' CHI_0975= ');
CHI1=(nu)*VAR/CHI0975;
CHI2=(nu)*VAR/CHI0025;
if 1 > CHI1 & 1 < CHI2
disp(' *PASA EL TEST CHI CUADRADO AL 95%* ')
disp(' ')
else
disp(' NO PASA EL TEST CHI CUADRADO AL 95%')
disp(' ')
pause
end
pause
x=reshape(X,3,m/3);
AGPS=AGPS+x';
LT=LT';
end
format bank
disp(' ')
disp(' *COORDENADAS AJUSTADAS*')
disp(' ')
disp(' PUNTO X Y Z')
pause
for i=1:npt
COORDA(i,1)=i;
for j=2:4
COORDA(i,j)=AGPS(i,j-1);
end
end
COORDA
pause
format short
disp(' ')
disp(' *ERRORES ESTANDAR DE LAS COORDENADAS AJUSTADAS*')
disp(' ')
disp(' PUNTO ERRX. ERRY. ERRZ. EERM(est.)')

111
pause
ERRXYZ=sqrt(VAR)*sqrt(diag(QX));
paso=0;
for i=1:npt
zum=0;
ERROR(i,1)=i;
for j=2:4
ERROR(i,j)=ERRXYZ(j-1+paso);
zum=zum+ERROR(i,j)^2;
end
ERROR(i,5)=sqrt(zum);
paso=paso+3;
end
ERROR
pause
disp(' ')
disp(' *ELIPSOIDES DE ERROR ESTANDAR*')
disp(' ')
disp(' ')
disp(' *REDUNDANCIA*')
nu
disp(' ')
disp(' *INGRESE VALOR DE TABLA F(alfa = 0.05)')
disp(' ')
F= input(' F = ');
disp(' ')
FE=sqrt(3*F);
pas= 0;
for k=1:3:m-2
Q(1,1)=QX(k,k);
Q(1,2)=QX(k,k+1);
Q(1,3)=QX(k,k+2);
Q(2,1)=Q(1,2);
Q(2,2)=QX(k+1,k+1);
Q(2,3)=QX(k+1,k+2);
Q(3,1)=Q(1,3);
Q(3,2)=Q(2,3);
Q(3,3)=QX(k+2,k+2);
pas=pas+1;
disp(' ')
disp(' *PUNTO*');disp(pas)
[V,D]=eig(Q);
disp(' *Semiejes del elipsoide de error del 95%')
disp(' ')
AS=sqrt(VAR)*sqrt(D(1,1))*FE;
RU=(atan(V(2,1)/V(1,1))+pi-(pi/2)*sign(V(2,1))-
(pi/2)*sign(V(2,1)/V(1,1)))*180/pi;
EL=atan(V(3,1)/sqrt(V(1,1)^2+V(2,1)^2))*180/pi;
fprintf(' A = %5.3f m\n',AS);
fprintf(' RUMBO = %3.1f grados\n',RU);
fprintf(' ELEVAC. = %3.1f grados\n',EL);
disp(' ')
BS=sqrt(VAR)*sqrt(D(2,2))*FE;
RU=(atan(V(2,2)/V(1,2))+pi-(pi/2)*sign(V(2,2))-
(pi/2)*sign(V(2,2)/V(1,2)))*180/pi;
EL=atan(V(3,2)/sqrt(V(1,2)^2+V(2,2)^2))*180/pi;
fprintf(' B = %5.3f m\n',BS);
fprintf(' RUMBO = %3.1f grados\n',RU);
fprintf(' ELEVAC. = %3.1f grados\n',EL);
disp(' ')
CS=sqrt(VAR)*sqrt(D(3,3))*FE;

112
RU=(atan(V(2,3)/V(1,3))+pi-(pi/2)*sign(V(2,3))-
(pi/2)*sign(V(2,3)/V(1,3)))*180/pi;
EL=atan(V(3,3)/sqrt(V(1,3)^2+V(2,3)^2))*180/pi;
fprintf(' C = %5.3f m\n',CS);
fprintf(' RUMBO = %3.1f grados\n',RU);
fprintf(' ELEVAC. = %3.1f grados\n',EL);
disp(' ')
SPOS=sqrt(AS^2+BS^2+CS^2);
VOL=(4/3)*pi*AS*BS*CS*1000000;
fprintf(' ERROR DE POSICIONAMIENTO(m) = %5.3f \n',SPOS);
fprintf(' VOLUMEN(cm3) = %5.3f \n',VOL);
pause
end
disp(' ')
disp(' *ELIPSES DE ERROR EN LOS PLANOS COORDENADOS DEL SGHL.')
disp(' ')
disp(' *REDUNDANCIA*')
nu
disp(' ')
disp(' *INGRESE FACTOR DE MAGNIFICACION*')
disp(' ')
FM=input(' *FAC. MAG.= ');
disp(' ')
disp('** ELIPSES DE ERROR: HORIZONTAL Y VERTICALES EN EL S.G.T. **')
disp(' ')
for kk=1:3
if kk == 1
disp(' ')
disp('*** ELIPSES Norte-Este ***')
disp(' ')
end
if kk == 2
disp(' ')
disp('*** ELIPSES Norte-Vertical ***')
disp(' ')
end
if kk == 3
disp(' ')
disp('*** ELIPSES Este-Vertical ***')
disp(' ')
end
SAE=0;
SEX=0;
for k=1:m/3
XA=AGPS(k,1);
YA=AGPS(k,2);
ZA=AGPS(k,3);
AL=atan2(YA,XA);
PE=sqrt(XA^2+YA^2);
b=AA*sqrt(1-E2);
NUM=ZA*AA;
DEN=PE*b;
TITA=atan2(NUM,DEN);
NUM=ZA+EP2*b*(sin(TITA)^3);
DEN=PE-E2*AA*(cos(TITA)^3);
FI=atan2(NUM,DEN);
R(1,1)=-sin(FI)*cos(AL);
R(1,2)=-sin(FI)*sin(AL);
R(1,3)=cos(FI);
R(2,1)=-sin(AL);
R(2,2)=cos(AL);

113
R(2,3)=0;
R(3,1)=cos(FI)*cos(AL);
R(3,2)=cos(FI)*sin(AL);
R(3,3)=sin(FI);
disp(' *ELIPSE PUNTO*');disp(k)
if kk == 1
MQ=R*QX(3*k-2:3*k,3*k-2:3*k)*R';
SQ=[MQ(1,1) MQ(1,2);MQ(2,1)MQ(2,2)];
end
if kk == 2
MQ=R*QX(3*k-2:3*k,3*k-2:3*k)*R';
SQ=[MQ(1,1) MQ(1,3);MQ(3,1) MQ(3,3)];
end
if kk == 3
MQ=R*QX(3*k-2:3*k,3*k-2:3*k)*R';
SQ=[MQ(2,2) MQ(2,3);MQ(3,2) MQ(3,3)];
end
SD=abs(eig(SQ));
AA=sqrt(VAR)*sqrt(max(SD))*FM;
B =sqrt(VAR)*sqrt(min(SD))*FM;
AE=pi*AA*B;
EX=1-(B/AA)^2;
SAE=SAE+AE;
SEX=SEX+EX;
T=2*SQ(1,2)/(SQ(1,1)-SQ(2,2));
RU=(atan(T)/2)*180/pi;
fprintf(' *SEMIEJE MAYOR A=%5.4f m\n',AA);
fprintf(' *SEMIEJE MENOR B=%5.4f m\n',B);
fprintf(' *AZIMUT FI=%5.2f grados\n',RU);
fprintf(' *EXCENT. =%5.4f \n',EX);
fprintf(' *AREA (cm2) =%5.2f \n',AE*10000);
disp(' ')
disp(' ')
RU=RU*pi/180;
theta=0:2*pi/100:2*pi;
r=(AA*B)./sqrt(AA^2*sin(theta-RU).^2+B^2*cos(theta-RU).^2);
polar(theta,r),title('Elipse de Error
95%')
pause
end
fprintf(' *SUMA EXCENT. =%6.4f \n',SEX);
fprintf(' *SUMA AREA (cm2) =%6.2f \n',SAE*10000);
disp(' ')
end
disp(' ')
disp(' FIABILIDAD: SI:INGRESE 1, NO.INGRESE 0')
disp(' ')
FIAB=input(' FIAB =');
if FIAB==1
disp(' ')
disp(' Ingrese DELTA0')
disp(' ')
DELTA0=input(' DELTA0= ');
disp(' ')
nfl=length(A(:,1));
COVL=VAR*A*QX*A';
DLA=diag(COVL);
QV=inv(P)-A*QX*A';
QVP=QV*P;
I=eye(nfl);
for i=1:n

114
c=I(:,i);
w(i)=(c'*P*Vr)/sqrt(c'*P*QV*P*c);
end

MAUX=zeros(nfl,5);
%DSV=VAR*diag(QV);
R=diag(QVP);
MAUX(:,4)=R;
MAUX(:,2)=Vr;
for k=1:n
if k<=3*nv
MAUX(k,1)=k;
else
MAUX(k,1)=k-3*nv;
end
SIGI=sqrt(VAR)/sqrt(P(k,k));
MAUX(k,3)=w(k);
MAUX(k,5)=DELTA0*SIGI/sqrt(R(k));
%MAUX(k,6)=-VR(k)/MAUX(k,4);
%MAUX(k,7)=(1-R(k))*MAUX(k,6);
end
disp(' ')
disp(' *FIABILIDAD INTERNA*')
disp(' ')
disp(' Obs. Res. Fact.Baarda Nro.Redun. Min.Err.Det. ')
pause
alto=3;
for i=1:n
if i>=alto
alto=alto+3;
pause
end
MAUX(i,:)
end
disp(' ')
SUR=sum(MAUX(:,4));
RM=SUR/n;
fprintf(' SUMA DE REDUNDANCIAS = %6.4f\n',SUR);
fprintf(' REDUNDANCIA MEDIA = %6.4f\n',RM );
fprintf(' GRADOS DE LIBERTAD = %2.0f\n',nu);
disp(' ')
pause
disp(' ')
disp(' TRANSFERENCIA A COORDENADAS: VECTORES DE FIABILIDAD EXTERNA')
disp(' ')
pause
disp(' ')
disp(' RESULTADOS: SI:INGRESE 1, NO:INGRESE 0')
disp(' ')
RESULT=input(' RESULT =');
if RESULT==1
for k=1:nfl
e(k)=0;
end
e=e';
disp(' ')
for k=1:nfl
disp('***********************************')
disp('**OBSERVABLE**');disp(k)
e(k)=1;
DELTAX=QX*A'*P*e*MAUX(k,5);

115
e(k)=0;
for j=1:m/3
i=3*j-2;
Q(1,1)=QX(i,i);
Q(1,2)=QX(i,i+1);
Q(1,3)=QX(i,i+2);
Q(2,1)=Q(1,2);
Q(2,2)=QX(i+1,i+1);
Q(2,3)=QX(i+1,i+2);
Q(3,1)=Q(1,3);
Q(3,2)=Q(2,3);
Q(3,3)=QX(i+2,i+2);
[V,D]=eig(Q);
V=inv(V);
% MODULO DEL VECTOR INFLUENCIA
vi=sqrt(DELTAX(i)^2+DELTAX(i+1)^2+DELTAX(i+2)^2);
% SEMIEJES DEL ELIPSOIDE ABSOLUTO ESTANDAR
ae=sqrt(VAR*D(1,1));
be=sqrt(VAR*D(2,2));
ce=sqrt(VAR*D(3,3));
% COORDENADAS DEL VECTOR INFLUENCIA EN EL SISTEMA DEL ELIPSOIDE
ABSOLUTO
XE=V(1,1)*DELTAX(i)+V(1,2)*DELTAX(i+1)+V(1,3)*DELTAX(i+2);
YE=V(2,1)*DELTAX(i)+V(2,2)*DELTAX(i+1)+V(2,3)*DELTAX(i+2);
ZE=V(3,1)*DELTAX(i)+V(3,2)*DELTAX(i+1)+V(3,3)*DELTAX(i+2);
% COORDENADAS DE LA INTERSECCION DEL VECTOR INFLUENCIA CON EL
ELIPSOIDE
K=(XE/ae)^2+(YE/be)^2+(ZE/ce)^2;
xn=XE/sqrt(K);
yn=YE/sqrt(K);
zn=ZE/sqrt(K);
%DISTANCIA INTERSECCION CON EL ELIPSOIDE
dn=sqrt(xn^2+yn^2+zn^2);
if vi-dn > 0.0006
disp(' Punto');disp(j)
fprintf(' Influencia sobre X = %7.4f m\n',DELTAX(i));
fprintf(' Influencia sobre Y = %7.4f m\n',DELTAX(i+1));
fprintf(' Influencia sobre Z = %7.4f m\n',DELTAX(i+2));
disp(' ')
fprintf(' Influencia total = %7.4f m\n',vi);
fprintf(' EERM(est) = %7.4f m\n',ERROR(j,5));
fprintf(' Dist.Inters._elips.= %7.4f m\n',dn);
disp(' ')
pause
end
end
end
end
end
disp(' ')
% Componentes ajustadas, error ppm.
COVL=VAR*A*QX*A';
for k=1:nv
DX=OGPS(k,3)+Vr(3*k-2);
DY=OGPS(k,4)+Vr(3*k-1);
DZ=OGPS(k,5)+Vr(3*k);
S =sqrt(OGPS(k,3)^2+OGPS(k,4)^2+OGPS(k,5)^2)+Vr(3*nv+k);
disp(' ')
disp(' ')
disp(' *COMPONENTES AJUSTADAS (m): VECTOR* '),disp(k)
fprintf(' *DELTA X = %12.3f\n',DX)

116
error=sqrt(DLA(3*k-2));
fprintf(' *error = %12.3f\n',error)
fprintf(' *DELTA Y = %12.3f\n',DY)
error=sqrt(DLA(3*k-1));
fprintf(' *error = %12.3f\n',error)
fprintf(' *DELTA Z = %12.3f\n',DZ)
error=sqrt(DLA(3*k));
fprintf(' *error = %12.3f\n',error)
fprintf(' *MODULO = %12.3f\n',S)
error=sqrt(DLA(3*nv+k));
fprintf(' *error = %12.3f\n',error)
eppm=(error/S)*1000000;
fprintf(' *error ppm = %10.3f\n',eppm)
pause
end
disp(' ')
disp(' ')
disp(' *Posiciones Geodésicas Ajustadas*')
disp(' ')
ntp=length(AGPS(:,1));
a=6378137;
f=1/298.2572235;
e2=2*f-f^2;
b=a*sqrt(1-e2);
ep2=(a^2-b^2)/(b^2);
for i=1:ntp
X=AGPS(i,1);
Y=AGPS(i,2);
Z=AGPS(i,3);
p=sqrt(X^2+Y^2);
tita=atan((Z*a)/(p*b));
LA=atan(Y/X)*180/pi;
GI(i,2)=LA*pi/180;
N=Z+ep2*b*(sin(tita))^3;
D=p-e2*a*(cos(tita))^3;
FI=atan(N/D);
GN=a/sqrt(1-e2*(sin(FI))^2);
h=(p/cos(FI))-GN;
FI=FI*180/pi;
GI(i,1)=FI*pi/180;
FIG=sign(FI)*fix(abs(FI));
FIM=fix((abs(FI)-abs(FIG))*60);
FIS=((abs(FI)-abs(FIG))*60-FIM)*60;
LAG=sign(LA)*fix(abs(LA));
LAM=fix((abs(LA)-abs(LAG))*60);
LAS=((abs(LA)-abs(LAG))*60-LAM)*60;
disp(' ')
disp(' *Latitud y Longitud*')
fprintf(' %2.0f %5.0f %3.0f %9.6f\n',i,FIG,FIM,FIS);
fprintf(' %2.0f %5.0f %3.0f %9.6f\n',i,LAG,LAM,LAS);
disp(' *Altura Elipsoidal: h*')
fprintf(' %2.0f %10.3f\n',i,h);
disp(' ')
disp(' ')
pause
end
QX=VAR*QX;
disp(' Borrar variables auxiliares: 1; no borrar: 0')
clave = input(' clave = ')
if clave == 1
clear A

117
clear AA
clear AE
clear AGPS
clear AL
clear ALG
clear ALM
clear ALS
clear AS
clear B
clear BS
clear CHI0025
clear CHI0975
clear CHI1
clear CHI2
clear COVL
clear CS
clear D
clear DELTA0
clear DELTAX
clear DEN
clear DLA
clear DS2
clear DX
clear DX0
clear DY
clear DY0
clear DZ
clear DZ0
clear E2
clear EL
clear EP2
clear ERROR
clear ERRXYZ
clear EX
clear F
clear FE
clear FI
clear FIAB
clear FIG
clear FIM
clear FIS
clear FM
clear FP
clear K
clear GN
clear I
clear LA
clear LAG
clear LAM
clear LAG
clear LAM
clear LAS
clear LT
clear MAUX
clear MQ
clear N
clear NCUEN
clear NIT
clear NORM_X
clear NUM
clear OGPS

118
clear P
clear P0GPS
clear PAX
clear PE
clear PXF
clear PYF
clear PZF
clear Q
clear QINV
clear QL
clear QV
clear QVP
clear R
clear RESULT
clear RM
clear RU
clear S
clear SAE
clear SD
clear SEX
clear SIGI
clear SPOS
clear SQ
clear SR2
clear ST2
clear SUR
clear T
clear T1
clear T2
clear TITA
clear V
clear VAR
clear VOL
clear VX
clear Vr
clear X
clear XA
clear XE
clear XF
clear Y
clear YA
clear YE
clear YF
clear Z
clear ZE
clear ZA
clear ZF
clear a
clear aa
clear ae
clear alto
clear ans
clear b
clear be
clear c
clear ce
clear dn
clear cnd
clear dpz
clear e
clear e2

119
clear ep2
clear eppm
clear error
clear f
clear gn
clear h
clear i
clear icuen
clear j
clear k
clear kk
clear l
clear m
clear n
clear naa
clear nfl
clear np
clear npf
clear npt
clear nql
clear ntp
clear nu
clear nv
clear p
clear pas
clear paso
clear pf
clear r
clear theta
clear tita
clear tol
clear vi
clear w
clear x
clear xn
clear yn
clear zn
clear zum
end
clear clave
disp(' ')
disp(' ')
disp('**************')
disp('**Terminé!!!**')
disp('**************')

120
La aplicación MATLAB REDGPS_DNC1 para diseño de Redes GPS, por el método
“prueba y error”.

clear
home
disp(' ')
disp(' ')
disp(' Programa REDGPS_DNC1:Diseña una Red GPS resolviendo el Sistema
de Ecuaciones ')
disp(' de Observación, por la descomposición SVD,adaptada para
matrices simétricas.')
disp(' Los datos,códigos pesos y coordenadas aproximadas se almacenan
en las matrices')
disp(' VGPS y P0GPS, respectivamente. Muestra elipses de error
absolutas al 95% de')
disp(' confianza horizontal(N-E) y verticales (V-N y V-E)Y
confiabilidad.')
disp(' ')
disp(' -RAUL A.
MARQUEZ-')
disp(' ')
load VGPS.mat;
load P0GPS.mat;
nv=length(VGPS(:,1));
n=3*nv+nv;

npt=length(P0GPS(:,1));

m=length(P0GPS(:,1))*3;
K=m/3;
A=zeros(n,m);
disp(' ')
disp('*INGRESE a y b en mm,según el ESTANDAR correspondiente*')
disp(' ')
a=input(' a? ');
disp(' ')
b=input(' b? ');
disp(' ')
%parámetros del elipsoide global(WGS'84)
AA=6378137;
E2=0.00669438;
for k=1:nv
i=VGPS(k,1);
j=VGPS(k,2);
FIG=-P0GPS(i,2);
FIM=-P0GPS(i,3);
FIS=-P0GPS(i,4);
ALG=-P0GPS(i,5);
ALM=-P0GPS(i,6);
ALS=-P0GPS(i,7);
h=P0GPS(i,8);
FI=(FIG+FIM/60+FIS/3600)*pi/180;
AL=(ALG+ALM/60+ALS/3600)*pi/180;
GN=AA/sqrt(1-E2*sin(FI)^2);
Xi=(GN+h)*cos(FI)*cos(AL);
Yi=(GN+h)*cos(FI)*sin(AL);
Zi=(GN*(1-E2)+h)*sin(FI);
FIG=-P0GPS(j,2);
FIM=-P0GPS(j,3);
FIS=-P0GPS(j,4);
ALG=-P0GPS(j,5);

121
ALM=-P0GPS(j,6);
ALS=-P0GPS(j,7);
h=P0GPS(j,8);
FI=(FIG+FIM/60+FIS/3600)*pi/180;
AL=(ALG+ALM/60+ALS/3600)*pi/180;
GN=AA/sqrt(1-E2*sin(FI)^2);
Xj=(GN+h)*cos(FI)*cos(AL);
Yj=(GN+h)*cos(FI)*sin(AL);
Zj=(GN*(1-E2)+h)*sin(FI);
DX=Xj-Xi;
DY=Yj-Yi;
DZ=Zj-Zi;
SD=sqrt(DX^2+DY^2+DZ^2);
PEZO=1/((a+b*0.000001*SD*1000)/1000)^2;
PESO(3*k-2)=PEZO;
PESO(3*k-1)=PEZO;
PESO(3*k)=PEZO;
PESO(3*nv+k)=PEZO;
%matriz de diseño
A(3*k-2,3*i-2)=-1*sqrt(PEZO);
A(3*k-1,3*i-1)=-1*sqrt(PEZO);
A(3*k,3*i)=-1*sqrt(PEZO);
A(3*k-2,3*j-2)=1*sqrt(PEZO);
A(3*k-1,3*j-1)=1*sqrt(PEZO);
A(3*k,3*j)=1*sqrt(PEZO);
A(3*nv+k,3*i-2)=-(DX/SD)*sqrt(PEZO);
A(3*nv+k,3*i-1)=-(DY/SD)*sqrt(PEZO);
A(3*nv+k,3*i)=-(DZ/SD)*sqrt(PEZO);
A(3*nv+k,3*j-2)=(DX/SD)*sqrt(PEZO);
A(3*nv+k,3*j-1)=(DY/SD)*sqrt(PEZO);
A(3*nv+k,3*j)=(DZ/SD)*sqrt(PEZO);
end
% Ingresa puntos Fijos y sus Pesos.-
np=input(' *Cuántos Puntos Fijos? ');
disp(' ')
if np>0
for k=1:np
npf=input(' *Identifique Punto Fijo* ');
pf(k)=npf;
end
disp(' ')
for k=1:length(pf)
disp(' *Punto '),disp(pf(k))
XF(pf(k))=input(' *XF= ');
PXF(pf(k))=input('*Peso ');
disp(' ')
YF(pf(k))=input(' *YF= ');
PYF(pf(k))=input('*Peso ');
disp(' ')
ZF(pf(k))=input(' *ZF= ');
PZF(pf(k))=input('*Peso ');
A(n+3*k-2,3*pf(k)-2)=1*sqrt(PXF(pf(k)));
A(n+3*k-1,3*pf(k)-1)=1*sqrt(PYF(pf(k)));
A(n+3*k,3*pf(k)) =1*sqrt(PZF(pf(k)));
disp(' ')
end
for kk=1:length(pf)
PESO(n+3*kk-2)=PXF(pf(kk));
PESO(n+3*kk-1)=PYF(pf(kk));
PESO(n+3*kk) =PZF(pf(kk));
end

122
end
[V,D]=eig(A'*A);
l=0;
disp(' ')
disp('*VALORES PROPIOS*')
disp(' ')
format short e
Y=sort(diag(D))
disp(' ')
format
tol=input('*TOLERANCIA* ');
disp(' ')
for k=1:m
if abs(D(k,k)) < tol
l=l+1;
NC(l)=k;
end
end
if l ~= 0
NFC=NC(1);
for k=1:length(NC);
D(NFC,:)=[];
D(:,NFC)=[];
V(:,NFC)=[];
end
QX=V*inv(D)*V';
else
QX=V*inv(D)*V';
end
disp('*VARIANZA SINGULAR MEDIA')
disp(' ')
VMS=sum(diag(QX))/K
n=length(A(:,1));
disp(' ')
disp('*GRADOS DE LIBERTAD*')
NU=n-rank(A)
disp(' ')

pause
disp(' ')
disp(' *ELIPSOIDES DE ERROR ESTANDAR*')
disp(' ')
disp(' ')
disp(' *REDUNDANCIA*')
NU
disp(' ')
disp(' *INGRESE VALOR DE TABLA F(alfa = 0.05)')
disp(' ')
F= input(' F = ');
disp(' ')
FE=sqrt(3*F);
pas= 0;
for k=1:3:m-2
Q(1,1)=QX(k,k);
Q(1,2)=QX(k,k+1);
Q(1,3)=QX(k,k+2);
Q(2,1)=Q(1,2);
Q(2,2)=QX(k+1,k+1);
Q(2,3)=QX(k+1,k+2);
Q(3,1)=Q(1,3);
Q(3,2)=Q(2,3);

123
Q(3,3)=QX(k+2,k+2);
pas=pas+1;
disp(' ')
disp(' *PUNTO*');disp(pas)
[V,D]=eig(Q);
disp(' *Semiejes del elipsoide de error del 95%')
disp(' ')
AS=sqrt(D(1,1))*FE;
RU=(atan(V(2,1)/V(1,1))+pi-(pi/2)*sign(V(2,1))-
(pi/2)*sign(V(2,1)/V(1,1)))*180/pi;
EL=atan(V(3,1)/sqrt(V(1,1)^2+V(2,1)^2))*180/pi;
fprintf(' A = %5.3f m\n',AS);
fprintf(' RUMBO = %3.1f grados\n',RU);
fprintf(' ELEVAC. = %3.1f grados\n',EL);
disp(' ')
BS=sqrt(D(2,2))*FE;
RU=(atan(V(2,2)/V(1,2))+pi-(pi/2)*sign(V(2,2))-
(pi/2)*sign(V(2,2)/V(1,2)))*180/pi;
EL=atan(V(3,2)/sqrt(V(1,2)^2+V(2,2)^2))*180/pi;
fprintf(' B = %5.3f m\n',BS);
fprintf(' RUMBO = %3.1f grados\n',RU);
fprintf(' ELEVAC. = %3.1f grados\n',EL);
disp(' ')
CS=sqrt(D(3,3))*FE;
RU=(atan(V(2,3)/V(1,3))+pi-(pi/2)*sign(V(2,3))-
(pi/2)*sign(V(2,3)/V(1,3)))*180/pi;
EL=atan(V(3,3)/sqrt(V(1,3)^2+V(2,3)^2))*180/pi;
fprintf(' C = %5.3f m\n',CS);
fprintf(' RUMBO = %3.1f grados\n',RU);
fprintf(' ELEVAC. = %3.1f grados\n',EL);
disp(' ')
SPOS=sqrt(AS^2+BS^2+CS^2);
VOL=(4/3)*pi*AS*BS*CS*1000000;
fprintf(' ERROR DE POSICIONAMIENTO(m) = %5.3f \n',SPOS);
fprintf(' VOLUMEN(cm3) = %5.3f \n',VOL);
pause
end

disp(' ')
disp(' *ERRORES ESTANDAR DE LAS COORDENADAS AJUSTADAS*')
disp(' ')
disp(' PUNTO ERRX. ERRY. ERRZ. EERM(est.)')
pause
ERRXYZ=sqrt(diag(QX));
paso=0;
for i=1:npt
zum=0;
ERROR(i,1)=i;
for j=2:4
ERROR(i,j)=ERRXYZ(j-1+paso);
zum=zum+ERROR(i,j)^2;
end
ERROR(i,5)=sqrt(zum);
paso=paso+3;
end
ERROR

disp(' ')
disp('** ELIPSES DE ERROR: HORIZONTAL Y VERTICALES EN EL S.G.T. **')
disp(' ')
disp(' *REDUNDANCIA*')

124
NU
disp(' ')
disp('*INGRESE FACTOR DE MAGNIFICACION*')
disp(' ')
FM=input('*FAC. MAG.= ');
for kk=1:3
if kk == 1
disp(' ')
disp('*** ELIPSES Norte-Este ***')
disp(' ')
end
if kk == 2
disp(' ')
disp('*** ELIPSES Norte-Vertical ***')
disp(' ')
end
if kk == 3
disp(' ')
disp('*** ELIPSES Este-Vertical ***')
disp(' ')
end
SAE=0;
SEX=0;
for k=1:m/3
FIG=-P0GPS(k,2);
FIM=-P0GPS(k,3);
FIS=-P0GPS(k,4);
FI=(FIG+FIM/60+FIS/3600)*pi/180;
ALG=-P0GPS(k,5);
ALM=-P0GPS(k,6);
ALS=-P0GPS(k,7);
AL=(ALG+ALM/60+ALS/3600)*pi/180;
R(1,1)=-sin(FI)*cos(AL);
R(1,2)=-sin(FI)*sin(AL);
R(1,3)=cos(FI);
R(2,1)=-sin(AL);
R(2,2)=cos(AL);
R(2,3)=0;
R(3,1)=cos(FI)*cos(AL);
R(3,2)=cos(FI)*sin(AL);
R(3,3)=sin(FI);
disp('*ELIPSE PUNTO*');disp(k)
if kk == 1
MQ=R*QX(3*k-2:3*k,3*k-2:3*k)*R';
SQ=[MQ(1,1) MQ(1,2);MQ(2,1)MQ(2,2)];
end
if kk == 2
MQ=R*QX(3*k-2:3*k,3*k-2:3*k)*R';
SQ=[MQ(1,1) MQ(1,3);MQ(3,1) MQ(3,3)];
end
if kk == 3
MQ=R*QX(3*k-2:3*k,3*k-2:3*k)*R';
SQ=[MQ(2,2) MQ(2,3);MQ(3,2) MQ(3,3)];
end
SD=abs(eig(SQ));
AA=sqrt(max(SD))*FM;
B=sqrt(min(SD))*FM;
AE=pi*AA*B;
EX=1-(B/AA)^2;
SAE=SAE+AE;
SEX=SEX+EX;

125
T=2*SQ(1,2)/(SQ(1,1)-SQ(2,2));
RU=(atan(T)/2)*180/pi;
fprintf('*SEMIEJE MAYOR A=%5.4f m\n',AA);
fprintf('*SEMIEJE MENOR B=%5.4f m\n',B);
fprintf('*AZIMUT FI=%5.2f grados\n',RU);
fprintf('*EXCENT. =%5.4f \n',EX);
fprintf('*AREA (cm2) =%5.2f \n',AE*10000);
disp(' ')
disp(' ')
RU=RU*pi/180;
theta=0:2*pi/100:2*pi;
r=(AA*B)./sqrt(AA^2*sin(theta-RU).^2+B^2*cos(theta-RU).^2);
polar(theta,r),title('Elipse de Error
95%')
pause
end
fprintf('*SUMA EXCENT. =%6.4f \n',SEX);
fprintf('*SUMA AREA (cm2) =%6.2f \n',SAE*10000);
disp(' ')
end
disp(' ')
disp('FIABILIDAD : Ingrese Parámetro de Desplazamiento')
disp(' ')
DELTA0=input('DELTA0 ');
disp(' ')
n=length(A(:,1));
PES=eye(n);
for k=1:n
for l=1:m
A(k,l)=(PESO(k)^-0.5)*A(k,l);
end
end
for k=1:n
PES(k,k)=PESO(k);
end
R=eye(n)-A*QX*A'*PES;
MAUX=zeros(n,3);
MAUX(:,2)=diag(R);
DSLA=diag(inv(PES)-A*QX*A');
for k=1:n
if k<=3*nv
MAUX(k,1)=k;
else
MAUX(k,1)=k-3*nv;
end
SIGI=1/sqrt(PESO(k));
MAUX(k,3)=DELTA0*SIGI/sqrt(MAUX(k,2));
end
for k=1:n
MAUX(k,4)=DELTA0/sqrt(R(k,k));
MAUX(k,5)=DELTA0*sqrt((1-R(k,k))/R(k,k));
end
disp(' FIABILIDAD INTERNA')
disp(' ')
disp(' Obs. Nro.Reund. Min.Err.Det. Prm.Fiab.Int.
Prm.Fiab.Ext.')
pause
MAUX
disp(' ')
SUR=sum(MAUX(:,2));
RM=SUR/n;

126
fprintf('SUMA DE REDUNDANCIAS = %6.4f\n',SUR);
fprintf('REDUNDANCIA MEDIA = %6.4f\n',RM );
fprintf('GRADOS DE LIBERTAD = %2.0f\n',NU );
disp(' ')
disp(' ')
pause
disp('TRANSFERENCIA A COORDENADAS: VECTORES DE FIABILIDAD EXTERNA')
disp(' ')
for k=1:n
e(k)=0;
end
e=e';
for k=1:n
disp('***************************')
disp(' ')
disp(' ')
disp('**OBSERVABLE**');disp(k)
e(k)=1;
DELTAX=QX*A'*PES*e*MAUX(k,3);
e(k)=0;

for j=1:m/3
i=3*j-2;
Q(1,1)=QX(i,i);
Q(1,2)=QX(i,i+1);
Q(1,3)=QX(i,i+2);
Q(2,1)=Q(1,2);
Q(2,2)=QX(i+1,i+1);
Q(2,3)=QX(i+1,i+2);
Q(3,1)=Q(1,3);
Q(3,2)=Q(2,3);
Q(3,3)=QX(i+2,i+2);
[V,D]=eig(Q);
V=inv(V);
% MODULO DEL VECTOR INFLUENCIA
vi=sqrt(DELTAX(i)^2+DELTAX(i+1)^2+DELTAX(i+2)^2);
% SEMIEJES DEL ELIPSOIDE ABSOLUTO ESTANDAR
ae=sqrt(D(1,1));
be=sqrt(D(2,2));
ce=sqrt(D(3,3));
% COORDENADAS DEL VECTOR INFLUENCIA EN EL SISTEMA DEL ELIPSOIDE
ABSOLUTO
XE=V(1,1)*DELTAX(i)+V(1,2)*DELTAX(i+1)+V(1,3)*DELTAX(i+2);
YE=V(2,1)*DELTAX(i)+V(2,2)*DELTAX(i+1)+V(2,3)*DELTAX(i+2);
ZE=V(3,1)*DELTAX(i)+V(3,2)*DELTAX(i+1)+V(3,3)*DELTAX(i+2);
% COORDENADAS DE LA INTERSECCION DEL VECTOR INFLUENCIA CON EL
ELIPSOIDE
K=(XE/ae)^2+(YE/be)^2+(ZE/ce)^2;
xn=XE/sqrt(K);
yn=YE/sqrt(K);
zn=ZE/sqrt(K);
%DISTANCIA INTERSECCION CON EL ELIPSOIDE
dn=sqrt(xn^2+yn^2+zn^2);
if vi-dn > 0.0006
disp(' Punto');disp(j)
fprintf(' Influencia sobre X = %7.4f m\n',DELTAX(i));
fprintf(' Influencia sobre Y = %7.4f m\n',DELTAX(i+1));
fprintf(' Influencia sobre Z = %7.4f m\n',DELTAX(i+2));
disp(' ')
fprintf(' Influencia total = %7.4f m\n',vi);
fprintf(' EERM(est) = %7.4f m\n',ERROR(j,5));

127
fprintf(' Dist.Inters._elips.= %7.4f m\n',dn);
disp(' ')
pause
end
end
end
disp('**Terminé!!!**')

La siguiente planilla EXCEL muestra las matrices de datos que usan las
aplicaciones REDGPS_ALV y REDGPS_DNC1. La matriz POGPS contiene las
posiciones geodésicas aproximadas, latitud, longitud y altura
elipsoidal y se utiliza en ambas aplicaciones. La matriz VGPS contiene
la codificación de los vectores según las estaciones que involucran
(origen y extremo) y se utiliza en la aplicación de diseño solamente.
La matriz OGPS contiene las codificaciones de los vectores y las
componentes ∆X, ∆Y, ∆Z, se utiliza en la aplicación de ajuste libre y
vinculado. La matriz QL contiene las covarianzas de los vectores
observados y se utiliza en la aplicación de ajuste libre y
vinculado.Una vez copiadas en la planilla EXCEL, las matrices de datos
se transfieren fácilmente a MATLAB.
Los datos restantes se ingresan por pantalla durante la ejecución del
proceso.

MATRIZ DE DATOS: P0GPS.mat

1 30 51 59 69 13 20 2694
2 30 19 37 69 25 45 2634
3 30 49 52 69 35 36 2798
4 31 1 47 69 27 19 1804

MATRIZ DE DATOS: VGPS.mat

2 1
3 2
1 3
4 1
3 4
1 3
2 4

MATRIZ DE DATOS: OGPS.mat

2 1 14296.367 17820.999 -19700.196


3 2 18070.512 -3464.677 16362.982
1 3 -32366.915 -14356.244 3337.279
4 1 24254.657 -1642.671 15055.688
3 4 8112.244 15998.976 -18393.056
1 3 -32366.836 -14356.268 3337.355

MATRIZ DE DATOS: QL.mat

1.02E-03 0 0
-1.30E-03 3.25E-03 0
-6.02E-04 1.37E-03 1.09E-02
1.96E-04 0 0

128
-2.56E-04 6.25E-04 0
-1.25E-04 2.84E-04 2.56E-04
3.61E-04 0.00E+00 0
-4.65E-04 1.16E-03 0
-2.05E-04 4.69E-04 4.00E-04
2.56E-04 0.00E+00 0
-3.08E-04 1.37E-03 0
-1.06E-04 4.20E-04 3.61E-04
4.41E-04 0.00E+00 0
-2.59E-04 3.32E-03 0
-2.57E-04 1.12E-03 1.16E-03
6.76E-04 0.00E+00 0
-4.19E-04 4.90E-03 0
-3.75E-04 1.70E-03 1.70E-03

MATRIZ DE DATOS: QL.mat (covarianzas nulas)


1.02E-03 0 0
0.00E+00 3.25E-03 0
0.00E+00 0.00E+00 1.09E-02
1.96E-04 0 0
0.00E+00 6.25E-04 0
0.00E+00 0.00E+00 2.56E-04
3.61E-04 0.00E+00 0
0.00E+00 1.16E-03 0
0.00E+00 0.00E+00 4.00E-04
2.56E-04 0.00E+00 0
0.00E+00 1.37E-03 0
0.00E+00 0.00E+00 3.61E-04
4.41E-04 0.00E+00 0
0.00E+00 3.32E-03 0
0.00E+00 0.00E+00 1.16E-03
6.76E-04 0.00E+00 0
0.00E+00 4.90E-03 0
0.00E+00 0.00E+00 1.70E-03

129
BIBLIOGRAFIA

Aguilar, F. (1942). “Lecciones de Geodesia: Teoría de los Errores de Observación y


Cálculo de Compensación por el Método de los Mínimos Cuadrados”. Centro de
Estudiantes de Ingeniería UNLP.

Bjerhammar, A (1973). “Theory of Errors and Generalized Matrix Inverses”


Elsevier Scientific Publishing Company.

Berné Valero, J. L. (2001).”Microgeodesia y Redes de Alta Precisión: Proyecto


Práctico 2001”. Universidad Politécnica de Valencia.

Bolshakov V. y Gaidayev P. (1989). “Teoría de la Elaboración Matemática de


Mediciones Geodésicas”. Editorial MIR-Moscú.

Brunini, C. (1992) “Compensación de Redes”. UNLP.

Chrzanowski, A. (1974). “Adjustment and Error Analysis of Surveying Networks”


Department of Surveying Engineering-University of New Brunswick-Fredericton,
N.B.

Etter, D.M. (1998). “Solución de problemas de ingeniería con MATLAB”


Segunda edición. Department of Electrical and Computer Engineering. University of
Colorado, Boulder. Prentice-Hall.

Forsythe, G y Moler C. (1973). “Solución mediante Computadoras de Sistemas


Algebraicos Lineales”. Ed. EUDEBA / Editorial Universitaria de Buenos Aires.

Hoffmann-Wellenhoff, B.; Lichtenegger H. and Collins, J. (1992). “Global


Positioning System: Theory and Practice”. Springler-Verlag Wein. New York

Leick, A. (1995). “GPS Satellite Surveying”. Departament of Surveying


Engineering. University of Maine. Orono Maine. John Wiley & Sons, Inc.

Rainsford, H. (1957). “ Survey Adjustment and Least Squares”.


Constable.

Sutti Juraj and Torok Csaba (1996).“Testing 3D displacement vectors by confidence


. ellipsoids”. Acta Montanistica Slovaca

Spiegel, M. (1996). “Probabilidad y Estadística”. Segunda edición. Schaum-Mc.


Graw Hill

Strang, G. (1986). “Algebra Lineal y sus Aplicaciones”. Massachussets Institute of


Technology”. Adison-Wesley Iberoamericana.

130

Vous aimerez peut-être aussi