Académique Documents
Professionnel Documents
Culture Documents
LAPLACIANAS
T E S I S
Que para obtener el grado de
Maestro en Ciencias
con Orientación en
Probabilidad y Estadística
Presenta
Santiago Arenas Velilla
Director de Tesis:
Dr. Víctor Pérez-Abreu Carrión
I
Agradecimientos
Doy gracias a mis sinodales el Dr. Octavio Arizmendi Echegaray y al Dr. Car-
los Vargas Obieta por sus correcciones y sugerencias para lograr que la tesis
saliera lo mejor posible. También al Dr. Juan Carlos Pardo Millán por su apoyo
durante toda la maestría, desde la entrevista de admisión, así como su tutoría y
el par de cursos que impartió, por todo esto, muchas gracias.
II
AGRADECIMIENTOS III
Agradecimientos II
1. Preliminares 1
1.1. Elementos de gráficas y matrices asociadas . . . . . . . . . . . . 1
1.2. Propiedades de las matrices laplacianas . . . . . . . . . . . . . . 5
1.3. Programación semidefinida . . . . . . . . . . . . . . . . . . . . . 9
1.4. Programación semidefinida en {−1, 1}n . . . . . . . . . . . . . . 11
3. Aplicaciones 40
3.1. Z2 sincronización con ruido general . . . . . . . . . . . . . . . . 40
3.2. Sincronización sobre Z2 . . . . . . . . . . . . . . . . . . . . . . . 44
3.2.1. Solución del problema . . . . . . . . . . . . . . . . . . . 47
3.2.2. Demostración del teorema principal . . . . . . . . . . . 48
3.2.3. Estimación del mayor eigenvalor . . . . . . . . . . . . . 50
IV
ÍNDICE GENERAL V
A. Reporte de simulaciones 66
A.1. Caso Normal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
A.2. Caso uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
A.3. Caso Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
Bibliografia 69
Introducción
Desde los trabajos pioneros de Wigner en los 50’s, el estudio del espectro
asintótico de diversos tipos de matrices aleatorias ha sido un tema de interés
con aplicaciones en diversos campos como la física, la biología, las telecomuni-
caciones y las finanzas. Asimismo, dentro de las matemáticas se han considerado
las matrices aleatorias asociadas a gráficas aleatorias como las de adyacencia y
laplaciana.
Entre muchos otros aspectos, se ha considerado el estudio de la distribución
asintótica de la distribución empírica espectral, así como el comportamiento asin-
tótico del mayor eigenvalor para una diversidad de matrices aleatorias, obtenién-
dose resultados universales.
Esta tesis considera matrices laplacianas generales, en el sentido de que no
provienen necesariamente de una gráfica. Para estas matrices la distribución
asintótica empírica espectral fue considerada en Bryc-Dembo-Jiang [8] obtenién-
dose ésta como la convolución libre de una distribución semicircular con una
distribución normal. La universalidad de este resultado fue considerada en Ding-
Jiang [9], quienes también abordan el estudio asintótico del mayor eigenvalor de
una matriz laplaciana aleatoria.
En un trabajo reciente (del 2018), Bandeira [6] estudia problemas de optimi-
zación convexa en los que usa la técnica de relajación para obtener problemas
de programación semidefinida en donde el comportamiento asintótico del ma-
VI
ÍNDICE GENERAL VII
El objetivo principal de esta tesis es mostrar cómo los resultados en [9] pue-
den ser usados para dar un marco general a varios de los resultados y aplicaciones
en [6]. Este enfoque permite dar demostraciones diferentes, así como obtener ex-
tensiones de algunos resultados y plantear varias conjeturas.
Una ventaja del enfoque que presentamos es que nos permite desarrollar
pruebas más sencillas desde una metodología diferente a la presentada en [6],
aunque una posible dificultad es que en algunos casos es necesario encontrar co-
tas ajustadas. Lo anterior nos lleva a estudiar desviaciones grandes y a calcular
de forma exacta ciertas desigualdades.
anteriores, dimos una prueba alternativa al Corolario 3.15 de [6] que es el que
da la solución al problema de optimización, sin usar su teorema principal y otras
estimaciones que se presentan en [6].
En el apéndice se encuentran los resultados de un estudio de simulación sobre
la distribución empírica espectral de matrices laplacianas con diferentes distri-
buciones y tamaños de matrices. Estas simulaciones nos llevaron a plantear la
conjetura presentada en el Capítulo 2 sobre una aproximación a la densidad de
la convolución libre de la distribución semicírcular y la distribución normal es-
tándar mediante una mezcla de éstas.
Capítulo 1
Preliminares
1
2 CAPÍTULO 1. PRELIMINARES
(n) (n) (n)
0 ξ12 ξ13 ··· ξ1n
(n) (n) (n)
ξ21 0 ξ23 · · · ξ2n
(n) (n) (n)
A = An = ξ31 ξ32 0 ··· ξ3n
.. .. .. .. ..
. . . . .
(n) (n) (n)
ξn1 ξn2 ξn3 ··· 0
como
X
(n) (n) (n) (n)
ξ1j −ξ12 −ξ13 ··· −ξ1n
j6=1
X
(n) (n) (n) (n)
−ξ21 ξ2j −ξ23 ··· −ξ2n
j6=2
X
L = L[A] = (n) (n) (n) (n) .
−ξ31 −ξ32 ξ3j ··· −ξ3n
j6=3
. .. .. .. ..
.. . . . .
X (n)
−ξ (n) (n) (n)
n1 −ξn2 −ξn3 ··· ξ nj
j6=n
De esta manera obtenemos que toda matriz laplaciana está definida a partir de
una matriz simétrica. En el caso de gráficas esta matriz tiene diagonal cero, puesto
que estamos considerando gráficas simples, pero para el estudio del laplaciano
podemos considerar que vienen de matrices simétricas sin tener diagonal cero.
De esta manera se tiene la siguiente definición de matriz laplaciana (general):
LX = DX − X
n
X
(DX )ii = Xij .
j=1
Con esta definición tenemos que para la gráfica completa Kn su matriz lapla-
ciana está dada por L11t .
Para una matriz n×m A se define la norma espectral ||A|| como la raíz cuadra-
da del mayor eigenvalor λmáx (A∗ A), donde A∗ denota la transpuesta conjugada
1.2. PROPIEDADES DE LAS MATRICES LAPLACIANAS 5
Es importante notar que λmáx (·) no es una norma en general, pero sin em-
bargo cumple la desigualdad triángular como indicamos en el siguiente lema.
λmáx (A + k1 In + B + k2 In ) = ||A + k1 In + B + k2 In ||
≤ ||A + k1 In || + ||B + k2 In ||
= λmáx (A + k1 In ) + λmáx (B + k2 In )
(a) 0 es un eigenvalor de L,
(b) L[X] es semidefinida no negativa si y sólo si las entradas por fuera de la dia-
gonal de X = (Xij ) son no negativas.
Demostración. (a) Se sigue del hecho que tanto la suma de las entradas de las
columnas como las filas son cero.
n
X n
X
t
zLz = zj zi Lij .
j=1 i=1
Por la estructura de L,
n
X n
X n
X
zi Lij = zj Xij − zi Xij ,
i=1 i=1 i=1
luego,
1.2. PROPIEDADES DE LAS MATRICES LAPLACIANAS 7
n n n
!
X X X
zLz t = zj zj Xij − zi Xij
j=1 i=1 i=1
Xn n
X n
X n
X
= zj2 Xij − zj zi Xji
j=1 i=1 j=1 i=1
Xn Xn X
= zj2 Xij − 2 zi zj Xij
j=1 i=1 1≤i<j≤n
X
zi2 − 2zi zj + zj2 Xij
=
1≤i<j≤n
X
= (zi − zj )2 Xij .
1≤i<j≤n
L11t 1t = 0
= n(v1 , v2 , . . . , vn )
= nv.
Demostración. Por la Proposición 1.1(c) los eigenvalores de L11t son 0 con mul-
tiplicidad 1 y n con multiplicidad n − 1. Notemos que si α > 0 es eigenvalor de
L con eigenvector v ortogonal a 1, entonces
así n−α es eigenvalor de L11t −L. Es decir, todo 2 eigenvalor no nulo de L11t −L
es de la forma n − αi para algún i donde {αi } son los eigenvalores no nulos de L.
2
ésto se tiene por que 1 es eigenvector asociado al valor propio cero, así cualquier vector
ortogonal a 1 no puede tener como eigenvalor al cero.
1.3. PROGRAMACIÓN SEMIDEFINIDA 9
mı́n f0 (x)
s.t f1 (x) ≤ 0, . . . , fN (x) ≤ 0 (1.3.1)
a01 x = b1 , . . . , a0n x = bm
donde fi : D → R son funciones convexas con D ⊂ Rn convexo.
En esta sección resumimos los elementos necesarios de este tema para estu-
diar las aplicaciones del Capítulo 3. El material se basa en [12], referencia que
recomendamos para un estudio sistemático del tema de programación semide-
finda.
Decimos que una solución de (1.3.1) es factible si cumple todas las restriccio-
nes. De esta manera, podemos definir el conjunto de posibles soluciones (que es
un conjunto convexo) como
10 CAPÍTULO 1. PRELIMINARES
N
\ m
\
{x ∈ D : fi (x) ≤ 0} ∩ {x ∈ Rn : a0j x = bj }.
i=1 j=1
máx c0 x
s.t x∈K (1.3.2)
a01 x = b1 , . . . , a0m x = bm .
En esta clase de problemas, se encuentran la programación lineal, programa-
ción cónica se segundo orden (CQD) y programación semidefinida (SDP por sus
siglas en inglés).
La programación semidefinida se encarga de estudiar problemas de optimi-
zación convexa en los cuales el conjunto de soluciones K pertence a las matrices
semidefinidas no negativas las cuales denotamos por X 0. También denota-
mos la traza3 de una matriz X como T r(X) y definimos hX, Y i = T r(X t Y )
donde X t e Y son matrices m × n ambas con entradas reales.
La forma estándar de un problema de programación semidefinida está dado
por
Dentro de esta teoría es usual hablar del problema dual. Definimos el cono
dual K ∗ del cono K (i.e., es cerrado bajo sumas y multiplicación por escalares)
como
K ∗ = {y ∈ Rn : y 0 x ≥ 0, ∀x ∈ K}.
3
no normalizada.
1.4. PROGRAMACIÓN SEMIDEFINIDA EN {−1, 1}N 11
( m m
)
X X
∗ m
d = ı́nf yj bj : y1 , . . . ym ∈ R , yj Aj − C 0 . (1.3.4)
j=1 j=1
La ventaja de trabajar con el problema dual es que al tener una solución fac-
tible para este problema, se tiene que es automaticamente una solución para el
problema estándar. Además, en muchos casos el problema dual es mucho más
sencillo de solucionar.
Teorema 1.1 (Dualidad Débil). Sea x una solución factible del problema de pro-
gramación semidefinida estándar (1.3.3) e y una solución factible del problema dual
(1.3.4). Entonces
c 0 x ≤ b0 y
en particular, p∗ ≤ d∗ .
m m m
!T
X X X
yj bj = yj (a0j x) = y j aj x ≥ c0 x
j=1 j=1 j=1
Pm
donde la última desigualdad se da por j=1 yj ai − c ∈ K ∗ .
máx Tr(Y X)
s.t Xii = 1 (1.4.1)
X 0.
Este es un problema de programación semidefinida. Para ver esto tomemnos
Ai como la matriz tal que es 1 en la entrada (i, i) y cero en el resto, así el problema
anterior se puede escribir como (1.3.3) de la siguiente manera:
D es una matriz diagonal. De esta manera tenemos que el problema dual (1.3.4)
está dado por
Tr(Y X) ≤ T r(D).
n
X
Dii = Yij xi xj .
j=1
Notemos que, usando la Definición 1.1, podemos escribir esta matriz como
D = D[diag(x)Y diag(x)]
n
X n X
X n
Tr(D) = Dii = Yij xi xj = xt Y x,
i=1 i=1 j=1
14
2.1. DISTRIBUCIÓN EMPÍRICA ESPECTRAL 15
1√
S(dx) = 4 − x2 I|x|≤2 dx.
2π
(n) (n)
Condición 1. Sea Xn = (ξij ) una matriz simétrica n × n con {ξij ; 1 ≤ i <
j ≤ n, n ≥ 2} variables aleatorias definidas en el mismo espacio de probabilidad y
(n)
{ξij ; 1 ≤ i < j ≤ n} independientes para cada n ≥ 2 (no necesariamente con la
16 CAPÍTULO 2. SOBRE EL ESPECTRO ASINTÓTICO DEL LAPLACIANO
(n)
sup E|(ξij − µn )/σn |p < ∞
1≤i<j≤n,n≥2
0.25 0.6
0.5
0.20
0.4
0.15 0.3
0.10 0.2
0.1
0.05
0.0
1.0 0.5 0.0 0.5 1.0 1.5
0.00
3 2 1 0 1 2 3 4
0.30
0.25
0.20
0.15
0.10
0.05
0.00
3 2 1 0 1 2 3
α x 1−α x
fSγ (x) = √ fS √ + √ fγ √ (2.2.1)
2σ 2 σ 2 2σ 2 σ 2
α 1−α
= √ fSσ (x) + √ fγσ (x) (2.2.2)
2σ 2 2σ 2
√ √
donde Sσ es la distribución del semicírculo en [− 2σ, 2σ] y γσ es la distribución
√
normal de media cero y varianza 2σ 2 y α = 2/2.
El peso α parece representar el cociente entre los límites inferior y superior casi
seguros lı́m inf y lı́m sup del mayor eigenvalor de la matriz laplaciana normalizada
√ p
λmáx (L)/ n log n. También parece ser el cociente entre el límite λmáx L/ n log(n)
y el límite del mayor eigenvalor de una matriz de Wigner (ambos resultados se
presentan en la siguiente sección).
Como caso particular tenemos
A 0
X=
0 B
r ! r !
n n+m m n+m
F X (x) = FA x + FB x . (2.2.4)
n+m n n+m m
n+m
X 1 X √
F (x) = δ (x)
n + m i=1 λi (X)/ n+m
n m
!
1 X X
= δλi (A)/√n+m (x) + δλi (B)/√n+m (x) .
n+m i=1 j=1
Pero
r !
n+m
δλi (A)/√n+m (x) = δλi (A)/√n x
n
r !
n+m
δλj (B)/√n+m (x) = δλj (A)/√m x ,
m
así
22 CAPÍTULO 2. SOBRE EL ESPECTRO ASINTÓTICO DEL LAPLACIANO
n r ! m r !!
1 X n + m X n + m
F X (x) = δλi (A)/√n x + δλj (A)/√m x
n+m i=1
n j=1
m
n r ! m r !
n 1X √
n + m m 1 X
√
n + m
= δ x + δ x
n + m n i=1 λi (A)/ n n n + m m j=1 λj (A)/ m m
r ! r !
n A n+m m B n+m
= F x + F x
n+m n n+m m
1 √ 1 √
F X (x) = F A 2x + F B 2x . (2.2.5)
2 2
Recordemos que de la Definición 1.1 de matriz laplaciana tenemos
LX = DX − X
donde DX es una matriz diagonal y X una matriz simétrica. Ahora, notemos que
I I DX 0 I 0 DX − X 0 LX 0
= = .
0 0 0 −X I 0 0 0 0 0
(2.2.6)
De esta manera, la representación anterior sugiere que la distribución empí-
rica espectral del laplaciano está dada por una perturbación de la distribución
de la matriz a bloques dados por DX y X, que tiene por distribución empírica
espectral a (2.2.5). Esto es un tema de estudio a futuro.
1
√ λmáx (W ) → 2 c.s cuando n → ∞. (2.3.1)
n
En virtud del Teorema 2.1 es natural pensar que se tenga el Lema 2.1 si W es
una matriz de adyacencia. Sin embargo en el caso de las matrices laplacianas la
distribución empírica espectral asintótica es de soporte no acotado y se tiene un
resultado diferente (Teorema 2.4 abajo).
El siguiente resultado (Lema 2.1 en [9]) da el comportamiento del mayor ei-
genvalor para matrices similares a las de Wigner pero con varianza uno en la dia-
gonal. La segunda parte da el comportamiento del mayor eigenvalor para cierto
tipo de matrices de tipo adyacencia. Estos resultados serán usados en el Capítulo
3.
(n)
Lema 2.1. Sea Un = (uij ) una matriz aleatoria simétrica n × n donde las varia-
(n)
bles aleatorias {uij : 1 ≤ i ≤ j ≤ n, n ≥ 1} están definidas en el mismo espacio
(n)
de probabilidad. Supongamos que para cada n ≥ 1, {uij : 1 ≤ i ≤ j ≤ n}
(n) (n)
son independientes con Euij = 0, Var(uij ) = 1 para todo 1 ≤ i, j ≤ n, y
(n)
sup1≤i,j,≤n,n≥1 E|uij |6+δ < ∞ para algún δ > 0. Entonces:
(i)
λmáx (Un ) ||Un ||
lı́m √ = 2 c.s y lı́m √ = 2 c.s.
n→∞ n n→∞ n
(ii) Los resultados anteriores se siguen cumpliendo si Un es reemplazada por
(n)
Un − diag(uij ).
Teorema 2.4. Sea L(n) = L[Xn ] la matriz laplaciana de una matriz n×n simétrica
Xn con entradas que satisfacen la Condición 1 para algún p > 6. Si µn = 0 y σn = 1
para todo n ≥ 2, entonces:
24 CAPÍTULO 2. SOBRE EL ESPECTRO ASINTÓTICO DEL LAPLACIANO
(a)
λmáx (L(n) ) √
√ → 2
n log n
en probabilidad cuando n → ∞.
(b)
λmáx (L(n) ) √
lı́m inf √ = 2 c.s
n→∞ n log n
y
λmáx (L(n) )
lı́m sup √ = 2 c.s,
n→∞ n log n
√ √
y la sucesión {λmáx (L(n) )/ n log n; n ≥ 2} es densa en [ 2, 2] c.s.;
(c) las conclusiones en (a), (b) se conservan si λmax (L(n) ) es remplazado por
||Ln ||.
B1 0 ... 0
0 B2 . . . 0
B= .. .. .. ..
,
.
. . .
0 0 ··· Bk
Corolario 2.1. Sea L = L[X] una matriz laplaciana de una matriz n×n simétrica
X con entradas que satisfacen la Condición 1 para algún p > 6. Si µn = 0 y σn = 1
para todo n ≥ 2, entonces para todo > 0 con alta probabilidad
p
λmáx (L) ≤ (2 + )n log n (2.3.2)
√ √ p
λmáx (L) ≥ (2 2 − 2 + ) n log n. (2.3.3)
λmáx (L) √
P √ − 2 > δ → 0 cuando n → ∞
n log n
√ √
tomando δ = 2 + − 2 > 0.
Proposición 2.1. Sea L una matriz laplaciana diagonal a k bloques cada uno de
tamaño n/k cuyas entradas por fuera de la diagonal en cada bloque son indepen-
dientes. Supongamos que la Condición 1 se satisface para algún p > 6. Si E[Lij ] = 0
y Var(Lij ) = 1 para todo n ≥ 2. Entonces
r
λ (L) 2
√máx → (2.3.4)
n log n k
en probabilidad cuando n → ∞.
Tenemos que
! ( ) !
λ (L) r 2 k λ (L) r 2
máx X máx \ (n)
P √ − > = √ − > Ωi
P
n log n k i=1
n log n k
k
r !
X λ (L ) 2
máx i
≤ P √ − >
i=1
n log n k
k
!
X λ (L ) p n log n r 2
máx i
≤ √k k
− >
P pn
k log nk n log n k
i=1
Notemos que cada matriz Li es de tamaño n/k × n/k y cumple las hipótesis
del Teorema 2.4, así para i = 1, . . . , k,
λ (Li ) √
pmáx
n n
→ 2
k
log k
en probabilidad cuando n → ∞ y
pn
k
log nk 1
√ →√ cuando n → ∞.
n log n k
Luego, una aplicación del teorema de Slutsky nos da que para todo i = 1, . . . , k,
Teorema 2.5. Sea L una matriz laplaciana diagonal a k bloques cada uno de tama-
ño n/k cuyas entradas por fuera de la diagonal en cada bloque son independientes.
Supongamos que la Condición 1 se satisface para algún p > 6. Si E[Lij ] = 0 y
Var(Lij ) = σ 2 para todo n ≥ 2. Entonces para todo > 0 con alta probabilidad
s
2
λmáx (L) ≤ σ + n log n (2.3.5)
k
y !
√
r
2 p
λmáx (L) ≥ σ 2 2 − + n log n. (2.3.6)
k
Teorema 2.6. Sea L una matriz laplaciana cuyas entradas por fuera de la diagonal
son independientes con media cero y varianza σ 2 (no dependiendo de n) cumpliendo
28 CAPÍTULO 2. SOBRE EL ESPECTRO ASINTÓTICO DEL LAPLACIANO
se cumple
σ
λmáx (L) ≤ C 1 + √ máx Lii (2.4.4)
c1 log n i
p
λmáx (L̂) ≤ (2 + )n log n
y
p
λmáx (L) ≤ σ (2 + )n log n
p
λmáx (L) ≤ (2 + )σ 2 n log n
p p
≤ (2 + )σ 2 (n − 1) log n + (2 + )σ 2 log n
√ p
≤ 2 + c2 máx Lii + σ (2 + ) log n
i
2.4. ESTIMACIÓN DEL MAYOR EIGENVALOR 29
de donde obtenemos
√
1 p
λmáx (L) ≤ 2 + c2 + σ (2 + ) log n máx Lii . (2.4.5)
máxi Lii i
Como se cumple
p 1 c2
c2 máx Lii ≥ σ (n − 1) log n ⇔ ≤ p
i máxi Lii σ (n − 1) log n
p p
1 p c2 σ (2 + ) log n c2 σ (2 + )
σ (2 + ) log n ≤ p = √
máxi Lii σ (n − 1) log n σ n−1
y como r √
log n 1 n−1
σ > c1 ⇔ < √
n−1 σ c1 log n
se obtiene que
p p √ √
1 p c2 σ (2 + ) c2 σ (2 + ) n − 1 c2 σ 2 +
σ (2 + ) log n ≤ √ < √ √ = √ .
máxi Lii σ n−1 n − 1 c1 log n c1 log n
√
De la hipótesis (2.4.2) tenemos que para > 0, C = c2 2 + cumple
σ
λmáx (L) ≤ C 1 + √ máx Lii
c1 log n i
n−1 si i=j
ΣL = ((ΣL )ij ) = (2.4.6)
1 si i 6= j.
Por lo tanto las correlaciones entre distintos elementos de la diagonal ρ(Lii , Ljj )
tienden a cero cuando n → ∞. Esta es la razón por la que se puede intuir que
asintóticamente el máximo elemento de la diagonal del laplaciano se comporta
como el máximo de variables aleatorias independientes.
Observemos que si la matriz ΣL es de tamaño n, entonces sus valores propios
son 2n − 2 con multiplicidad 1 y n − 2 con multiplicidad n − 1.
Teorema 2.7. Sea L una matriz laplaciana cuyas entradas por fuera de la diagonal
son independientes con media cero y varianza σ 2 (no dependiendo de n) cumpliendo
la Condición 1. Si existe 0 < c < 2 tal que
p
máx Lii ≤ cσ (n − 1) log n (2.4.7)
i
√
r
n
2 máx Lii ≤ λmáx (L) (2.4.8)
n−1 i
con alta probabilidad.
2.4. ESTIMACIÓN DEL MAYOR EIGENVALOR 31
1
L̂ = L.
σ
√ √ p
2 2− 2+ n log n ≤ λmáx (L̂)
y
√ √ p
σ 2 2− 2+ n log n ≤ λmáx (L)
√ √ r n p
λmáx (L) ≥ σ 2 2 − 2 + (n − 1) log n
n−1
√ √ r n máx L
i ii
≥σ 2 2− 2+ .
n − 1 cσ
1 √ √ √ r n
= √ 2 2− 2+ 2 máx Lii .
c 2 n−1 i
√ √ √
Usando la hipótesis (2.4.7), tomamos > 0 tal que 2 2 − 2 + > c 2, con
lo que obtenemos
√
r
n
2 máx Lii ≤ λmáx (L) (2.4.9)
n−1 i
con alta probabilidad.
1
P(X1 > 0, X2 > 0, . . . , Xn > 0) > 1 − .
2n−1
1
P(X1 > 0, X2 > 0, . . . , Xn > 0) = 1 − .
2n
Lema 2.3. Sea L = L[X] una matriz n × n laplaciana con X = (Xij ) una matriz
simétrica con entradas fuera de la diagonal independientes con distribución simé-
trica. Entonces con alta probabilidad máxi Lii > 0.
Proposición 2.2. Sea L = L[W ] una matriz n × n laplaciana con W = (Wij ) una
matriz simétrica con entradas fuera de la diagonal independientes con distribución
normal estándar. Entonces las condiciones (2.4.2) y (2.4.7) se cumplen.
√ Lii √
máx Lii = n − 1 máx √ = n − 1 máx γi ,
i i n−1 i
p p
(1 − δ) log(n − 1) ≤ máx γi ≤ (1 + δ) log(n − 1),
i
de donde
p p
(1 − δ) (n − 1) log(n − 1) ≤ máx Lii ≤ (1 + δ) (n − 1) log(n − 1). (2.4.10)
i
Así,
s
p 1 log(n0 )
(n − 1) log(n) ≤ máx Lii .
1−δ log(n0 − 1) i
con lo que se cumple la condición (2.4.2) para 0 < δ < 1.
1 si i=j
ΣD(n) = ((ΣD(n) )ij ) = (2.5.1)
1 si i 6= j.
n−1
donde U es una matriz cuyas columnas son base ortonormal de los vectores pro-
pios de ΣD y Λ es la matriz diagonal con los valores propios de la misma matriz.
De esta manera obtenemos que
1/2
ΣD(n) = U Λ1/2 U t ,
donde Λ1/2 es la matriz diagonal cuyas entradas están dadas por las raíces de los
eigenvalores de ΣD(n) .
Definimos D∗ como
−1/2
D∗ = ΣD(n) D(n) , (2.5.2)
2.5. SOBRE LA DISTRIBUCIÓN ASINTÓTICA DEL MAYOR EIGENVALOR 35
Proposición 2.3. Sea L = L[W ] una matriz n × n laplaciana con W = (Wij ) una
matriz simétrica con entradas fuera de la diagonal independientes con distribución
normal estándar. Sea
p p log log n + log 4π
an = 2 log(n) y bn = 2 log(n) − √ .
2 2 log n
Entonces
!
(n)
r
máxi Lii n−2
a−1
n √ − bn (2.5.3)
n−1 n−1
converge en distribución cuando n → ∞ a una variable aleatoria Gumbel.
1/2
D(n) = ΣD(n) D∗ ,
así,
n
X
(n) 1/2 1/2
Di = ΣD(n) D∗ = ΣD(n) Dj∗ .
i ij
j=1
Ahora,
n X
X n
1/2 1/2
ΣD(n) = Uik Λkl Uljt
ij
l=1 k=1
Xn
1/2
= Uil Λll Uljt
l=1
n−1
n−2 t √
r
X
t
= Uil Ulj + 2Uin Unj
l=1
n − 1
n
!
√
r r
n−2X n − 2
= Uil Uljt + 2− t
Uin Unj .
n − 1 l=1 n−1
36 CAPÍTULO 2. SOBRE EL ESPECTRO ASINTÓTICO DEL LAPLACIANO
Por lo tanto, teniendo en cuenta que las columnas de U son una base ortonormal,
obtenemos
√ q
n−1 t
1/2
2− Uin Unj
n−2
si i 6= j
ΣD(n) = q √ q (2.5.4)
n−2
n−1
+ 2 − n−1
n−2
t
Uin Uni si i = j.
De esta manera,
n
X
(n) 1/2
Di = ΣD Dj∗
ij
j=1
n
! ! !
√ √
r r r
X n−1 n−2 n−2
= 2− t
Uin Unj Dj∗ + + 2− t
Uin Unj Di∗
j=1
n−2 n−1 n−1
j6=i
! n
√
r r
n−2 X n−2 ∗
= 2− Uin t
Uni Dj∗ + D
n−1 j=1
n−1 i
Sea
n
X
Z = Zn = Unt Dj∗ ,
j=1
!
√
r r
(n) n−2 n−2 ∗
Di = 2− Uin Z + D . (2.5.5)
n−1 n−1 i
Ahora,
2.5. SOBRE LA DISTRIBUCIÓN ASINTÓTICA DEL MAYOR EIGENVALOR 37
r !
(n) n−2
a−1
n máx Di − bn = a−1
n máx Di∗ − bn
1≤i≤n n−1 1≤i≤n
r !
(n) n−2
+ a−1
n máx Di − máx Di∗ − b n + bn .
1≤i≤n 1≤i≤n n−1
(2.5.6)
Notemos que el primer término del lado derecho de (2.5.6), converge en distri-
bución a una distribución Gumbel [13]. Por otra parte, usando (2.5.5) obtenemos
! !
√
r r
(n) n−2 n−2 ∗
máx Di = máx 2− Uin Z + D
1≤i<n 1≤i<n n−1 n−1 i
!
√
r r
n−2 n−2
≤ 2− Z máx Uin + máx D∗ .
n−1 1≤i<n n − 1 1≤i<n i
r !
(n) n−2
an máx Di − máx Di∗ −
−1
− 1 bn → 0 cuando n → ∞.
1≤i<n 1≤i<n n−1
Por lo tanto, el segundo término del lado derecho de (2.5.6) tiende a cero
cuando n → ∞. Así, por todo lo anterior encontramos que
38 CAPÍTULO 2. SOBRE EL ESPECTRO ASINTÓTICO DEL LAPLACIANO
r !
(n) n−2
a−1
n máx Di − bn
1≤i≤n n−1
converge en distribución cuando n → ∞ a una variable aleatoria Gumbel.
Teorema 2.8. Sea L = L[W ] una matriz n × n laplaciana con W = (Wij ) una
matriz simétrica con entradas fuera de la diagonal independientes con distribución
normal estándar. Sea
p p log log n + log 4π
an = 2 log(n) y bn = 2 log(n) − √ .
2 2 log n
√
Entonces para todo C > 2,
r !
1 λmáx (L) n−2
√ − Cbn (2.5.7)
Can n−1 n−1
converge en distribución cuando n → ∞ a una variable aleatoria Gumbel.
r ! r !
1 λmáx (L) n−2 1 (n) n−2
√ − Cbn = máx Di − bn
Can n−1 n−1 an 1≤i≤n n−1
1 λmáx (L) (n)
+ √ − C máx Di . (2.5.8)
Can n−1 1≤i≤n
2.5. SOBRE LA DISTRIBUCIÓN ASINTÓTICA DEL MAYOR EIGENVALOR 39
λmáx (L) (n)
C (n)
√ − C máx D ≤ √
log n 1≤i≤n i ,
máx D
n−1 i
1≤i≤n
de esta manera
1 λmáx (L) (n)
1 C (n)
√ − C máx Di ≤ √ máx Di
Can n−1 1≤i≤n Can log n 1≤i≤n
r r
1 1 (n) n − 2 n − 2
≤√ máx D − b + b
i n n
log n an n−1 n − 1
1≤i≤n
r
1 1 (n) n − 2
≤√ máx D − b
i n
a n − 1
log n n 1≤i≤n
r
1 n−2
+ √ bn . (2.5.9)
an log n n−1
1 λmáx (L)
√ (n)
Can
máx Di → 0
n − 1 − C 1≤i≤n cuando n → ∞.
Por lo tanto, el segundo término del lado derecho de la ecuación (2.5.8) tiende
√
a cero cuando n → ∞ y por lo tanto obtenemos que para todo C > 2,
r !
1 λmáx (L) n−2
√ − Cbn
Can n−1 n−1
converge en distribución cuando n → ∞ a una variable aleatoria Gumbel.
Capítulo 3
Aplicaciones
40
3.1. Z2 SINCRONIZACIÓN CON RUIDO GENERAL 41
Yij = zi zj + σWij
donde Wij = Wji son variables aleatorias independientes con distribución simé-
trica cumpliendo la Condición 1 del Capítulo 2, con EWij = 0 y EWij2 = 1. El
objetivo es recuperar z con alta probabilidad.
máx xt Y x
s.t x ∈ Rn (3.1.1)
x2i = 1.
máx Tr(Y X)
s.t Xii = 1
(3.1.2)
X0
rango(X) = 1.
1
En algunos casos, como en el ruido gaussiano, este estimador coincide con el estimador de
máxima verosimilitud.
42 CAPÍTULO 3. APLICACIONES
máx Tr(Y X)
s.t Xii = 1 (3.1.3)
X0
mı́n Tr(D)
s.t D diagonal (3.1.4)
D − Y 0.
Tr(Y X) ≤ Tr(D).
De esta manera si existe una solución factible D para (3.1.4) tal que Tr(D) =
Tr(Y xxt ), entonces se tiene que X = xxt es solución óptima de (3.1.3). Por el
Lema 1.3, sabemos que para garantizar unicidad de la solución es necesario que
λ2 (D − Y ) > 0 y además la solución al problema (3.1.4) esta dada por
D = D[diag(x)Y diag(x)] .
3.1. Z2 SINCRONIZACIÓN CON RUIDO GENERAL 43
D[Y ] −Y = nIn +σD[W ] −11t −σW = (nIn −11t )+σ(−D[W ] +W ) = L11t +σL[W ] .
n
λmáx (L[−W ] ) < .
σ
r
n
σ< ,
(2 + ) log n
entonces con alta probabilidad X = zz t es la única solución de (3.1.3).
p
λmáx (L[−W ] ) ≤ (2 + )n log(n).
r
p (2 + ) log n n n
(2 + )n log n = n =q < .
n n σ
(2+) log n)
De esta manera con alta probabilidad λmáx (L[−W ] ) < n/σ con lo que garantiza-
mos que la única solución del problema (3.1.3) es X = zz t con alta probabilidad.
Proposición 3.2. Sea W una matriz simétrica aleatoria cuyas entradas son varia-
bles aleatorias normales independientes con EWij = 0 y EWij2 = 1. Entonces con
alta probabilidad
√
r
n 1
2 máx(L[−W ] )ii ≤ λmáx (L[−W ] ) ≤ 2 1 + √ máx(L[−W ] )ii .
n−1 i log n i
zz
i j con probabilidad 1 −
Yij = (3.2.1)
−z z con probabilidad ,
i j
donde < 1/2 representa el nivel de ruido y Yij = 0 en caso que (i, j) no sea
arista de G.
El objetivo es saber para qué valores de p y es posible reconstruir z. Para
lograr esto, usaremos programación semidefinida para entender cuando X = zz t
es la única solución del problema de optimización (3.2.2) que presentamos más
adelante.
Consideremos H ⊂ G la gráfica tal que la arista (i, j) (que ya es arista de G) es
arista de H con probabilidad . Esta gráfica la llamaremos gráfica corrupta, pues
tiene aquellas aristas en los cuales no obtenemos sincronización (Yij = −zi zj ).
Se puede escribir a la matriz Y como
y por lo tanto
= λ2 (LG − 2LH ),
y dado que (AG )ij ∼ Ber(p), (DG )ii ∼ Bin(n − 1, p) y condicional a que (i, j)
es arista (AH )ij ∼ Ber() , (DH )ii ∼ Bin(n − 1, p), tenemos
3.2. SINCRONIZACIÓN SOBRE Z2 47
E(LSynch )ii = E(DG )ii − 2E(DH )ii = (n − 1)p − 2p(n − 1) = (n − 1)p(1 − 2),
De esta manera,
Teorema 3.1. Sea θ < 1/2 y p(1 − 2θ)2 = c con c ∈ (0, 1). Si existe > 0 tal que
(2+)(1−c) log n
p> (1−2θ)2 n
, entonces con alta probabilidad
h i
E −L̊2ij = E[(AG )ij − 2(AH )ij ))2 − 2p(1 − 2θ)((AG )ij − 2(AH )ij ) + p2 (1 − 2θ)2 ]
= p − 4E[(AG )ij (AH )ij ] + 4pθ + 2p(1 − 2θ)(p − 2pθE(AH )ij ) + p2 (1 − 2θ)2 ]
E[(AG )ij (AH )ij ] = E[(AG )ij (AH )ij |(AG )ij = 1]P(Aij = 1)
= θp
y de esta manera,
h i
E −L̊2ij = p − p2 (1 − 2θ)2 .
−L◦ij 1
ξij = p =p (−(AG )ij + 2(AH )ij + p(1 − 2θ)).
p − p2 (1 − 2θ)2 p − p2 (1 − 2θ)2
p
λmax (LX ) ≤ (2 + )n log n.
Observemos que
1
LX = p (−L̊),
p − p (1 − 2θ)2
2
así,
p
λmax (−L̊) ≤ (2 + )n log n(p − p2 (1 − 2θ)2 )
r
(2 + )(p − p2 (1 − 2θ)2 ) log n
= n . (3.2.3)
n
r
(2 + )(p − p2 (1 − 2θ)2 ) log n
≤ p(1 − 2θ).
n
Demostración (Teorema 3.1). Notemos que p − p2 (1 − 2θ)2 = p(1 − c), así
r
(2 + )(p − p2 (1 − 2θ)2 ) log n p
λmax (−L̊) ≤ n ≤ n p2 (1 − 2θ)2 = np(1−2θ).
n
p
(n − 1)(p − p2 (1 − 2θ)2 ) log n ≤ c2 máx −Lii , (3.2.4)
i
σ = (p − p2 (1 − 2θ)2 ). (3.2.5)
Además en este caso la constante C del Teorema 2.6 es siempre igual a uno para
cualquier > 0.
Teorema 3.2. Sea θ < 1/2 y p(1 − 2θ)2 = c con c ∈ (0, 1). Si existe > 0 tal que
(2+)(1−c) log n
p> (1−2θ)2 n
, entonces con alta probabilidad
√ !
(1 − c) 2 +
λmáx (−L̊) ≤ 1+ p máx −L̊ii . (3.2.6)
(1 + 2θ) log(n) i
α log n β log n
p = pn := , q = qn := con α > β > 0. (3.3.1)
n n
Sea z ∈ {−1, 1}n el vector tal que es igual a 1 en uno de los grupos y −1 en
el otro. Esto es, z es el vector que nos da información sobre qué vértice pertenece
a cada grupo. El objetivo es recuperar z a partir de G.
52 CAPÍTULO 3. APLICACIONES
Observación. Otra punto de vista es que tenemos dos tipos de aristas (con vértices
en un mismo grupo y con vértices en grupos diferentes), la primera con probabilidad
p y la segunda con probabilidad q < p. Por tanto es más probable que las aristas
estén formadas por vértices que pertenezcan a un mismo grupo por lo que xi xj Bij
es máximo en estas condiciones. Por otro lado, dos vértices en el mismo grupo no
están unidos con probabilidad 1 − p y si están en distintos grupos no están unidos
con probalidad 1 − q > 1 − p. Así es más probable que para dos vértices que no
forman una arista, éstos están en grupos diferentes.
máx xt Bx
s.t x ∈ Rn
(3.3.2)
x21 = 0
Pn
i=1 xi = 0.
Notemos que la matriz B la podemos escribir como B = 2A−(11t −I) donde
A es la matriz de adyacencia de la gráfica G. Siguiendo el mismo enfoque que en
la sección anterior, usaremos el método de relajamiento, con lo que obtenemos
el siguiente problema de programación semidefinida
3.3. MODELO DE BLOQUES ESTOCÁSTICOS 53
ΓM BE = D+ − D− − A,
Recordemos que (D+ )ii ∼ Bin(n/2 − 1, p), (D+ )ii ∼ Bin(n/2, q) y Aij ∼
Ber(p) si i, j pertenence a un mismo grupo y Aij ∼ Ber(q) en caso contrario.
Así,
n n
E(ΓM BE )ii = E ((D+ )ii − (D− )ii ) = −1 p− q
2 2
y
−p si i, j pertenencen a un mismo grupo
E(ΓM BW )ij = −EAij =
−q en caso contrario.
De esta manera, luego de manipulaciones algebraicas y dado que el vector z
tiene información sobre qué vértices pertencen a cada grupo, se obtiene que
n n p+q t p−q t
EΓM BE = p − q In − 11 + zz .
2 2 2 2
Para garantizar que zz t sea la única solución del problema (3.3.2) es necesario
que λmáx (−ΓM BE + EΓM BE ) < n2 (p − q) lo cual es el Lema 3.12 de [6].
Si
√ √ p
2< α− β (3.3.4)
√ p p
α( 2(1 + ) − 1) < β, (3.3.5)
n
λmáx (−ΓM BE + EΓM BE ) < (p − q),
2
y por lo tanto (3.3.2) tiene solución única X = zz t con alta probabilidad.
Γ0M BE = D+ − D− − diag(g)Adiag(g),
56 CAPÍTULO 3. APLICACIONES
por lo que,
(Γ0M BE )ij = −gi gj Aij , (Γ0M BE )ii = (D+ )ii − (D− )ii .
Γ0M BE = D+ − A+ − D− + A− = L+ − L−
= −L+ + L− + E[L+ − L− ]
= −L˚+ + L˚− .
(−Γ0M˚BE )ij = (−L˚+ )ij ICij + (L˚− )ij ICijc = (−ξij + p)ij ICij + (ηij − q)ij ICijc .
2
Una gráfica bipartita es aquella cuyos vértices se pueden separar en dos grupos disjuntos de
forma que sólo se tengan aristas entre estos grupos (y no dentro del mismo).
3.3. MODELO DE BLOQUES ESTOCÁSTICOS 57
λmáx (−Γ0M˚BE ) = λmáx (−L˚+ + L˚− ) ≤ λmáx (−L˚+ ) + λmáx (L˚− ). (3.3.6)
Notemos que −L˚+ = −L+ + EL+ solo depende de los vértices que están en
cada grupo (sin contar interacciones entre ellos). Podemos entonces usar nues-
tro Teorema 2.5 con k = 2 bloques, obteniendo que para todo > 0 con alta
probabilidad
λmáx (−L˚+ ) ≤
p
(1 + )p(1 − p)n log n. (3.3.7)
Notemos que en este caso la matriz sólo depende de las aristas entre grupos,
por lo que se puede entender como matrices laplacianas de gráficas bipartitas.
Observemos que
y que D− − ED− es una matriz diagonal cuyas entradas son variables aleatorias
Bin(n/2, q) centradas. Por otra parte EA− − A− es una matriz a bloques cuyas
entradas no nulas están por fuera de la diagonal.
58 CAPÍTULO 3. APLICACIONES
Procedamos ahora a estimar los términos del lado derecho de (3.3.8), lo cual
hacemos de la siguiente manera
Notemos que al ser D− − ED− una matriz diagonal, el mayor eigenvalor será
el máximo elemento de la diagonal, esto es
n
λmáx (D− − ED− ) = máx ((D− − ED− )ii ) = máx (D− )ii − q .
1≤i≤n 1<i<n 2
Proposición 3.3. Sea Z = máx1≤i≤n/2 {Xii − nq/2} donde {Xii }i=1,...n/2 son
variables aleatorias independientes e idénticamente distribuidas Bin(n/2, q), en-
tonces para todo t > 0,
donde
! !
4 t + n2 q (1 − q)
n n2 2
n (1 − q)
f (n, t) = − t + q log + log .
q n2 − 4 t + n2 q − 4 t + n2 q
2 4 n2
nq nq
P(Z > t) = P Ẑ > t + = P ρẐ > ρ t + = P eρẐ > eρy ,
2 2
P eρẐ > eρy ≤ e−ρy EeρẐ
−ρy
= e E exp ρ máx Xii
1≤i≤n/2
n/2
X
≤ e−ρy E exp ρ Xii
i=1
n/2
Y
−ρy
=e E exp (ρXii )
i=1
n/2
Y
=e −ρy
(eρ q + 1 − q)n/2
i=1
2
= e−ρy (eρ q + 1 − q)n /4
n2
ρ
= exp −ρy + log (e q + 1 − q) .
4
n2
Sea g(ρ) = −ρy + 4
log (eρ q + 1 − q), notemos que
n2 e ρ q
g 0 (ρ) = −y + ,
4(eρ q + 1 − q)
n2 eρ q
=y
4(eρ q + 1 − q)
n2 eρ q = 4y(eρ q + 1 − q)
n2
4y(1 − q) 4y(1 − q)
g(ρc ) = −y log + log q +1−q
q(n2 − 4y) 4 q(n2 − 4y)
n2
4y(1 − q) 4y(1 − q)
= −y log + log +1−q
q(n2 − 4y) 4 n2 − 4y
n2 (1 − q)(4y + n2 − 4y)
4y(1 − q)
= −y log + log
q(n2 − 4y) 4 n2 − 4y
n2
2
4y(1 − q) n (1 − q)
= −y log + log .
q(n2 − 4y) 4 n2 − 4y
Así obtenemos
n2
2
4y(1 − q) n (1 − q)
P(Z > t) ≤ exp −y log + log .
q(n2 − 4y) 4 n2 − 4y
Corolario 3.1. Sea f (n, t) como en la Proposición 3.3. Si t es del orden log(n)/n,
entonces f (n, t) < 0 cuando t → ∞.
Corolario 3.2. Sea Z = máx1≤i≤n/2 {Xii − nq/2} donde {Xii }i=1,...n/2 son va-
riables aleatorias independientes e idénticamente distribuidas Bin(n/2, q). Si t es
del orden log(n)/n, entonces con alta probabilidad
log n
λmáx (D− − ED− ) ≤ . (3.3.10)
n
0 E
EA− − A− = . (3.3.11)
∗
E 0
Además,
0 E 0 E EE ∗ 0
= . (3.3.12)
∗ ∗ ∗
E 0 E 0 0 E E
De esta manera, los eigenvalores de EA− − A− serán las raíces cuadradas de
los eigenvalores de EE ∗ . Notemos que E es una matriz cuadrada de tamaño n/2
con
Eij = q − ηij ,
donde ηij ∼ Ber(q), así EEij = 0 y EEij2 = q(1 − q). Consideremos la matriz
U = (uij ) dada por
1 − ηij
Uij = p ,
q(1 − q)
62 CAPÍTULO 3. APLICACIONES
p
así, Euij = 0, Eu2ij = 1 y E = q(1 − q)U . Es importante notar que la distribu-
ción empírica espectral de 2U U ∗ /n converge en distribución a la distribución de
Marčenko-Pastur con soporte en [0, 4] (Teorema 2.5 [5]) además el mayor eigen-
valor de esta matriz converge casi seguramente a 4 (Teorema 2 de [3]). Luego,
para todo > 0
r
n
λmáx (U ) ≤ (2 + ) .
2
y por lo tanto
r
n
λmáx (EA− − A− ) = λmáx (E) ≤ (2 + ) q(1 − q) . (3.3.13)
2
˚ )
Estimación de la cota superior de λmáx (−Γ0SM B
Con lo anterior tenemos los elementos para concluir la demostración del Teo-
rema 3.3. De las desigualdades (3.3.7)-(3.3.13) obtenemos que
r
log n n
−Γ0M˚BS
p
λmáx ≤ (1 + )p(1 − p)n log n + + (2 + ) q(1 − q)
n 2
p log n 1 p
= (1 + )p(1 − p)n log n + + √ (2 + ) q(1 − q)n
n 2
r r !
n 1 2 log n 2 q(1 − q)
= 2 (1 + )p(1 − p) log n + + √ (2 + )
2 n n2 2 n
r r !
n (1 + )p(1 − p) 2 log n √ q(1 − q)
= 2 log n + + 2(2 + ) .
2 n n2 n
α log n β log n
Recordando que p = n
yq= n
, obtenemos
3.3. MODELO DE BLOQUES ESTOCÁSTICOS 63
r s
(1 + )p(1 − p) (1 + ) α log n α log n
log n = 1− log n
n n n n
s
log n α log n
= α(1 + ) 1 − ,
n n
y
r s
√ q(1 − q) √
1 β log n β log n
2(2 + ) = 2(2 + ) 1−
n n n n
s
√
log n β β log n
= 2(2 + ) 1− .
n log n n
Así
" s
0˚ n log n α log n 2
λmáx (ΓM BE ) ≤ 2 α(1 + ) 1 − +
2 n n n
s #
√
β β log n
+ 2(2 + ) 1− .
log n n
Como
s
α log n p
2 α(1 + ) 1 − ≤ 2 α(1 + ), (3.3.14)
n
s
√
p 2 β β log n
2 α(1 + ) + + 2(2 + ) 1− ≤ α − β, (3.3.15)
n log n n
obtenemos que
n log n n
λmáx (Γ0M˚BE ) ≤ (α − β) = (p − q)
2 n 2
n log n p
P λmáx (−L̊1 ) < 2α(2 + ) ≥ 1 − . (3.3.16)
2n
√ p p
α( 2(1 + ) − 1) < β,
de esta manera
p
2α(1 + )
√ √ =κ<1
α+ β
p √ p √ p √ p
2 α(1 + ) = 2 2α(1 + ) < ( α− β)κ( α+ β) = κ(α−β) (3.3.17)
s
√
2 1 β β log n
+ 2+ (2 + ) 1− ≤ (1 − κ)(α − β). (3.3.18)
n 2 log n n
De esta manera, para n0 > máx{n00 , n000 }, de las ecuaciones (3.3.17) y (3.3.18)
se sigue (3.3.15).
√
1+ 2 − β < α − β,
√ √
máx{1 + 2 − β, 0} < α − β < (2 + 2)β.
Apéndice A
Reporte de simulaciones
66
A.1. CASO NORMAL 67
Para este caso las entradas de la matriz simétrica X son variables aleatorias
normales estándar con media cero y varianza 1.
0.05 0.05
0.00 0.00
3 2 1 0 1 2 3 3 2 1 0 1 2 3
(a) Ajuste matriz laplaciana 100 × 100. (b) Ajuste matriz laplaciana 500 × 500.
DEE laplaciano 1000x1000 DEE laplaciano 2000x2000
0.35 Ajuste 0.35 Ajuste
0.30 0.30
0.25 0.25
0.20 0.20
0.15 0.15
0.10 0.10
0.05 0.05
0.00 0.00
3 2 1 0 1 2 3 3 2 1 0 1 2 3
(c) Ajuste matriz laplaciana 1000 × 1000. (d) Ajuste matriz laplaciana 2000 × 2000.
Necesitamos que las variables aleatorias tengan media cero y varianza uno,
de esta manera, para este caso consideramos que las entradas de la matriz X
√ √
están dadas por U nif (− 3, 3).
0.10 0.10
0.05 0.05
0.00 0.00
3 2 1 0 1 2 3 3 2 1 0 1 2 3
(a) Ajuste matriz laplaciana 100 × 100. (b) Ajuste matriz laplaciana 200 × 200.
DEE laplaciano 1000x1000 DEE laplaciano 2000x2000
Ajuste 0.35 Ajuste
0.35
0.30
0.30
0.25
0.25
0.20
0.20
0.15 0.15
0.10 0.10
0.05 0.05
0.00 0.00
3 2 1 0 1 2 3 3 2 1 0 1 2 3
(c) Ajuste matriz laplaciana 1000 × 1000. (d) Ajuste matriz laplaciana 100 × 100.
(a) Ajuste matriz laplaciana 100 × 100. (b) Ajuste matriz laplaciana 500 × 500.
DEE laplaciano 1000x1000 DEE laplaciano 2000x2000
0.35 Ajuste 0.35 Ajuste
0.30 0.30
0.25 0.25
0.20 0.20
0.15 0.15
0.10 0.10
0.05 0.05
0.00 0.00
3 2 1 0 1 2 3 3 2 1 0 1 2 3
(c) Ajuste matriz laplaciana 1000 × 1000. (d) Ajuste matriz laplaciana 2000 × 2000.
[1] Emmanuel Abbe, Afonso S Bandeira, Annina Bracher, and Amit Singer.
Decoding binary node labels from censored edge measurements: Phase
transition and efficient recovery. IEEE Transactions on Network Science and
Engineering, 1(1):10–22, 2014.
[3] Z.D Bai and Y.Q Yin. Limit of the smallest eigenvalue of a large dimensional
sample covariance matrix. The Annals of Probability, 21(3):1275–1294, 1993.
[4] Zhi-Dong Bai and Yong-Qua Yin. Necessary and sufficient conditions for
almost sure convergence of the largest eigenvalue of a wigner matrix. The
Annals of Probability, 16(4):1729–1741, 1988.
70
BIBLIOGRAFÍA 71
[7] Simeon M Berman. Limit theorems for the maximum term in stationary
sequences. The Annals of Mathematical Statistics, 35(2):502–516, 1964.
[8] Włodzimierz Bryc, Amir Dembo, and Tiefeng Jiang. Spectral measure of lar-
ge random hankel, markov and toeplitz matrices. The Annals of Probability,
34:1–38, 2006.
[9] Xue Ding and Tiefeng Jiang. Spectral distributions of adjacency and la-
placian matrices of random graphs. The Annals of Applied Probability,
20(6):2086–2117, 2010.
[10] Paul Erdös and Alfréd Rényi. On random graphs, i. Publicationes Mathema-
ticae (Debrecen), 6:290–297, 1959.
[11] Paul Erdös and Alfréd Rényi. On the evolution of random graphs. Publi-
cations of the Mathematical Institute of the Hungarian Academy of Sciences,
5(17-61):43, 1960.
[13] Sidney I Resnick. Extreme values, regular variation, and point processes,
volume 4 of applied probability. a series of the applied probability trust,
1987.