Vous êtes sur la page 1sur 10

VALOR AGREGADO

1. ¿Qué es econometría?
https://books.google.es/books?hl=es&lr=&id=5vnq3IZS7a8C&oi=fnd&pg=PP1&dq=que+es+la+ec
onometria&ots=W_RFdU7LYE&sig=N3FoYGmKyOi57YUKd1EdebQScwk#v=onepage&q&f=false

https://www.master-finanzas-cuantitativas.com/mastersque-es-la-econometria/

http://www.redalyc.org/pdf/416/41600305.pdf

https://www.euston96.com/econometria/

https://www.unirioja.es/cu/faporti/ieTEMA01.pdf

2. ¿Qué son datos de corte transversal?

3. Qué es matriz Semidefinida positiva


4. Teorema de Gauss Markov
5. Estadístico de Jarque-Bera para residuales
6. Gráfica Quantil - Quantil
7. Criterio de información de Akaike
8. Criterio de selección de Schwarz
9. Análisis de componentes principales
10. ¿ Qué son eigenvalores?
11. ¿Por qué, en el análisis de datos, en la mayoría de los casos,
se asume normalidad?
12. Regresión Ridge
13. Transformación de Aitken
14. Estimación por modelo por mínimos cuadrados ponderados
15. Manejar la tabla de Durbin-Watson
16. Qué es un correlograma y para qué es útil
17. ¿Qué es un modelo parsimonioso?
18. ¿Qué son modelos anidados?
19. Prueba de normalidad de Kolmogorov-Smirnov
20. Prueba de normalidad de Anderson Darling

Valor agregado.
¿Qué es econometría?
https://conceptodefinicion.de/econometria/, pág. 13)
(https://www.uv.es/uriel/1%20Econometria%20y%20datos%20economicos.pdf, pág. 13)
(https://www.cimat.mx/~joaquin/mn11/clase07.pdf, pág. 13)
(https://rua.ua.es/dspace/bitstream/10045/19710/1/tema2.pdf, pág. 14)
(http://www.cotradingclub.com/2017/05/25/prueba-de-normalidad-en-modelos-de-prediccion/, pág.
14)
42

(http://www.dm.uba.ar/materias/analisis_de_datos/2008/1/teoricas/Teor5.pdf, pág. 14)


(https://support.numxl.com/hc/es/articles/215531083-Ap%C3%A9ndice-B-Criterio-
deInformaci%C3%B3n-Akaike-AIC-, pág. 15)
(https://support.numxl.com/hc/es/articles/214065006Ap%C3%A9ndice-C-Criterio-de-
Informaci%C3%B3n-Bayesiano-Schwarz-BIC-SIC-, pág. 15)
(http://www.estadistica.net/Master-Econometria/Componentes_Principales.pdf, pág. 16)

. Valor agregado: a. Econometría: Es una ciencia que se dedica a explicar y predecir los
fenómenos económicos, a través del uso de modelos reflejados en forma matemática y el empleo
de procedimientos estadísticos de estimación y contraste. Esta rama de la economía hace uso de
modelos matemáticos y estadísticos
16

para examinar, interpretar y realizar predicciones sobre procedimientos económicos, prediciendo


variables b. Datos de corte transversal: se dispone de una observación por individuo y se refieren
a un punto determinado en el tiempo. En la mayoría de los estudios, los ínvidos entrevistados son
personas. Las encuestas son típicas para este tipo de datos. Las observaciones deben ser obtenidas
de un muestreo aleatorio por lo que las observaciones son independientes entre sí. El orden no
importa. c. Matriz Semidefinida Positiva: Sea A ∈ Rnxn una matriz simétrica. Se dice que A es
definida positiva si xT Ax > 0 para todo x no nulo en Rnx1.
Se dice que A es semidefinida positiva si xT Ax ≥ 0 para todo x en Rnx1.
Son usuales las notaciones A 0 y A < 0 para las matrices definidas positivas y semidefinidas
positivas, respectivamente. Obviamente toda matriz definida positiva es semidefinida positiva.
Una matriz A ∈ Rnxn se dice que es semidefinida positiva si y solo si: i) ∀x ∈ Rnxn, xT Ax ≥ 0
ii) ∃y ∈ Rn con todo y≠0: yT Ay = 0.

d. Teorema de Gauss Markov: Señala que los estimadores de MCO presentan una varianza
mínima, lo que hace de ellos los más eficientes. También son aquellos pertenecientes a la familia
de estimadores insesgados. Los estimadores MCO son conocidos como MELI que significa
mejores estimadores lineales e insesgados y se expresan de la siguiente forma:
Linealidad

Insesgadez

Eficiencia e. Prueba Jarque-Bera: Es una prueba de bondad de ajuste para comprobar si una
muestra de datos tiene la asimetría y la curtosis de una distribución norma, que considera los
siguientes elementos
Sea y = Xβ + µ donde E [µ] = 0 E [µµ'] = σ2
Si u se encuentra normalmente distribuido, entonces
µ3= E [µt3]= 0 Y µ4= E [µt4]= 3σ2
17

La prueba JB toma este principio: “que tanto se desvían los coeficientes de asimetría y curtosis”
f. Gráfico Cuantil-Cuantil: es un método gráfico para el diagnóstico de diferencias entre la
distribución de probabilidad de una población de la que se ha extraído una muestra aleatoria y
una distribución usada para la comparación. Permite observar cuan cerca está la distribución de
un conjunto de datos a alguna distribución ideal o comparar la distribución de dos conjuntos de
datos. g. Criterio de información de Akaike (AIC): Es una medida de la calidad relativa de un
modelo estadístico, para un conjunto dado de datos. Como tal, el AIC proporciona un medio para
la selección del modelo.
AIC maneja un trade-off entre la bondad de ajuste del modelo y la complejidad del modelo. Se
basa en la entropía de información: se ofrece una estimación relativa de la información pérdida
cuando se utiliza un modelo determinado para representar el proceso que genera los datos.
AIC no proporciona una prueba de un modelo en el sentido de probar una hipótesis nula, es decir
AIC no puede decir nada acerca de la calidad del modelo en un sentido absoluto. Si todos los
modelos candidatos encajan mal, AIC no dará ningún aviso de ello.
El AIC es definido para ser un estimador asintóticamente insesgado de menos dos veces la
logverosimilitud de un modelo mediante las estimaciones de máxima verosimilitud de los
parámetros.
Si es el valor maximizado de la función de máxima verosimilitud de un modelo econométrico,
donde es el estimador de máxima verosimilitud de basado en una muestra de tamaño n. El
criterio de información de Akaike (CIA) para este modelo se define como:
Donde
= número de parámetros estimados libremente

h. Criterio de selección de Schwarz: Es un criterio para la selección de modelos entre un conjunto


finito de modelos. Se basa, en parte, en la función de probabilidad y que está estrechamente
relacionado con el Criterio de Información de Akaike (AIC). En el ajuste de modelos, es posible
aumentar la probabilidad mediante la adición de parámetros, pero si lo hace puede resultar en

18

sobreajuste. Tanto el BIC y AIC resuelven este problema mediante la introducción de un término
de penalización para el número de parámetros en el modelo, el término de penalización es mayor
en el BIC que en el AIC. El criterio bayesiano Schwarz suministra una aproximación para
muestras grandes del porcentaje de probabilidad del modelo bajo consideración. Este criterio se
define como:

Al comparar el CBS entre modelos el que muestre el más alto valor es el escogido.
i. Análisis de Componentes Principales (ACP): Es una técnica estadística de síntesis de la
información, o reducción de la dimensión (número de variables). Es decir, ante un banco de datos
con muchas variables, el objetivo será reducirlas a un menor número perdiendo la menor cantidad
de información posible. Los nuevos componentes principales o factores serán una combinación
lineal de las variables originales, y además serán independientes entre sí. Un aspecto clave en
ACP es la interpretación de los factores, ya que ésta no viene dada a priori, sino que será
deducida tras observar la relación de los factores con las variables iniciales
Técnicamente, el ACP busca la proyección según la cual los datos queden mejor representados en
términos de mínimos cuadrados. Esta convierte un conjunto de observaciones de variables
posiblemente correlacionadas en un conjunto de valores de variables sin correlación lineal
llamadas componentes principales.
Fases de un análisis de componentes principales:
Análisis de la matriz de correlaciones Selección de los factores Análisis de la matriz
factorial Interpretación de los factores Cálculo de las puntuaciones factoriales
j. Regresión Ridge
El método de regresión ridge te permite detectar la multicolinealidad, dentro de un modelo de
regresión de tipo 𝑌 = 𝑋𝑡 𝛽 + 𝜀 ́ , fue propuesto por Hoerl y Kennard (1970a y b); Es usado para
trabajar con modelos que presentan sesgos. La ideología es simple y consiste en que dado que la
matriz (𝑋𝑡 𝑋) es altamente cercana a singular por eso es posible añadir constantes positivas a los
elementos de la diagonal para asegurar que la matriz resultante no sea altamente condicionada. El
vector de coeficientes de la regresión ridge está dado por: 𝛽𝑅 = (𝑋𝑡𝑋 + 𝐾0)-1𝑋𝑡 El cual se puede
reescribir como 𝛽𝑅 = 𝑍𝛽 ́ donde 𝛽 ́ es el estimador ordinario de MC dado por:
19

𝛽 ́ = (𝑋𝑡𝑋)-1𝑋𝑡𝑌 y 𝑍 = {𝐼 + 𝐾0(𝑋𝑡𝑋)-1}-1, es la matriz que transforma 𝛽 ́ en 𝛽𝑅 , es decir, 𝛽𝑅 es


la solución al problema de optimación: 𝑀𝑖𝑛:(𝛽𝑅 − 𝛽)𝑋𝑡 ́ 𝑋 (𝛽𝑅 − 𝛽 ́) El cual estará sujeto a
𝛽𝑅𝛽𝑅 ≤ 𝑟2 k. Transformación de Aitken
Este es un modelo de aceleración de la convergencia. Lleva el nombre de quien lo introdujo en
1926. El señor Alexander aitken, su forma antepasada era conocida por Kowa Seki (finales del
siglo XVII) y fue encontrado en la ratificación del círculo, lo que significa, el cálculo de 𝜋 . Es
muy útil para acelerar la convergencia de una sucesión que converge linealmente.
Cuando se utiliza el método de aitken a una sucesión obtenida mediante una iteración de punto
fijo, se conoce como método de Steffensen.
l. Estimación por modelo por mínimos cuadrados ponderados
Frente a la presencia de heteroscedasticidad, los estimadores siguen siendo insesgados pero no
son eficientes, y es por que las pruebas podrían generar resultados erróneos. Por lo que se hace
necesario desarrollar medidas correctivas.
La solución consiste en aplicar el método de mínimos cuadrados ponderados, la idea es cambiar
el modelo lineal general de tal forma que la matriz de varianzas y covarianzas de las
perturbaciones estocásticas sea escalar, con el fin de lograr así que los estimadores que se
obtengan sean los mejores estimadores lineales insesgados.
Se considera el modelo 𝑌 𝑖 = 𝛽0𝑋𝑖0 + 𝛽1𝑋𝑖1 + 𝛽2𝑋𝑖2 + ⋯+ 𝛽𝑘𝑋𝑖𝑘 + 𝜀𝑖 con matriz de varianzas
y covarianzas
𝜎1 2,𝜎2 2,𝜎3 2,..,𝜎𝑛 2 Son conocidos. La matriz de varianzas y covarianzas se puede
descomponer como

Por lo tanto
20

Haciendo las transformaciones nos queda que

Obtenemos que:

Y el estimador de MCO de 𝑌∗ sobre 𝑋∗ es el estimador de minimos cuadrados generalizado del


modelo original por:

Como se puede apreciar en el procedimiento anterior, se ve que el método de mínimos cuadrados


ponderados, se puede interpretar como el resultado de dividir todas las variables por la desviación
estándar de las perturbaciones, para luego aplicar MCO. Suponemos que tenemos un modelo
simple: 𝑌 𝑖 = 𝛽0 + 𝛽1𝑋𝑖 + 𝜀𝑖 Lo podemos escribir como 𝑌 𝑖 = 𝛽0𝑋0𝑖 + 𝛽1𝑋𝑖 + 𝜀𝑖 , donde 𝑋0𝑖 = 1
para cada i, con varianzas conocidas y son iguales a 𝜎𝑖2, al dividir: 𝑌 𝑖 𝜎𝑖 = 𝛽0 𝑋0𝑖 𝜎𝑖 + 𝛽1 𝑋𝑖 𝜎𝑖
+ 𝜀𝑖 𝜎𝑖
Luego realizamos las transformaciones
21

𝑌 𝑖 𝜎𝑖
= 𝑌 𝑖 ∗; 𝑋0𝑖 ∗ =
𝑋0𝑖 𝜎𝑖
; 𝑋1𝑖 ∗ =
𝑋𝑖 𝜎𝑖
;𝜀𝑖 ∗ =
𝜀𝑖 𝜎𝑖
Reemplazando
𝑌 𝑖 ∗ = 𝛽0 ∗𝑋0𝑖 ∗ + 𝛽1 ∗𝑋1𝑖 ∗ + 𝜀𝑖∗ Para obtener los estimadores por método de mínimo
ordinario se minimiza la suma ponderada del cuadrado de los residuos:
𝑓(𝛽0 ∗,𝛽1 ∗) = ∑𝑤𝑖𝜀12 𝑛 𝑖=1
= ∑𝑤𝑖(𝑌 𝑖 − 𝛽0 ∗ − 𝛽1 ∗𝑋𝑖)2 𝑛 𝑖=1
;
𝑤𝑖 =
1 𝜎𝑖2
∶ Es la ponderación

𝛽0 ∗ 𝑦 𝛽1 ∗: Estimadores de minimos cuadrados ponderados Para minimizar 𝑓 debemos derivar


parcialmente con respecto a 𝛽0 ∗ 𝑦 𝛽1 ∗ e igualar a cero las derivas, derivando con respecto a 𝛽0
∗obtenemos
𝑑𝑓 𝑑𝛽0 ∗ = −2∑𝑤𝑖(𝑌 𝑖 − 𝛽0 ∗ − 𝛽1 ∗𝑋𝑖) 𝑛 𝑖=1
=0
Derivando con respecto a 𝛽1 ∗ e igualando a cero, obtenemos
𝑑𝑓 𝑑𝛽1 ∗ = −2∑ 𝑤𝑖(𝑌 𝑖 − 𝛽0 ∗ − 𝛽1 ∗𝑋𝑖)𝑛 𝑖=1 𝑋𝑖 = 0 Luego resolviendo simultáneamente
ambas ecuaciones, tenemos que
𝛽0 ∗ ̂ = 𝑌∗ − 𝛽1 ∗𝑋 ∗𝛽1 ∗ ̂ =
(∑𝑤𝑖)(∑𝑤𝑖 𝑋𝑖𝑌 𝑖) − (∑𝑤𝑖 𝑋𝑖)(∑𝑤𝑖 𝑌 𝑖) (∑𝑤𝑖)(∑𝑤𝑖 𝑋𝑖2) − (∑𝑤𝑖 𝑋𝑖)2

m. Manejar la tabla de Durbin-Watson


La prueba de Durbin-Watson nos permite evaluar si existe autocorrelacion en una regresión
lineal, sea simple o múltiple. Con ello se pretende ver si los valores presentan algún tipo de
dependencia en cuanto al orden de obtención. Si fuese así se estaría una de las condiciones del
modelo, el contraste de hipótesis tiene como hipótesis nula que la autocorrelacion es cero vs la
alternativa que afirma que es distinta de cero.
En la siguiente tabla se observan los valores críticos de durbin-watson que permiten tomar
decisiones de mantener la hipótesis nula, pasar la hipótesis alternativa o permite estar en una zona
de incertidumbre
22

Para la interpretación de la tabla anterior es necesario hacer los siguientes planteamientos Si el


estadístico DW < DU se concluye que hay problemas de autocorrelacion. Si el estadístico DW
> DU se concluye que no hay evidencia estadística para decir que hay problemas de
autorrelacion.
El valor DU se extrae de la tabla Durbin-Watson; este se toma en base a el número de variables
regresarías (k) y el nivel de significancia (α).
n. Que es un correlograma y para qué es útil
Un correlograma, es una imagen de la correlación de estadística. Por ejemplo, en el análisis de
series temporales, el correlograma, también se conoce como un gráfico de autocorrelacion,
Es una representación gráfica de las autocorrelaciones de la muestra 𝑟ℎ vs ℎ (tiempo) También es
una herramienta que se utiliza para el control de aleatoriedad en un conjunto de datos. Esta
aleatoriedad se determina calculando autocorrelaciones para los valores de datos en diferentes
lapsos de tiempo. Si al azar tales autocorrelaciones deben estar cerca de cero para todos y todas
separaciones de retardo de tiempo. Si no es aleatoria, una o más de las autocorrelaciones
seguidas. Serán significativamente igual a cero.
También los correlogramas se usan en las etapas de identificación de la metodología de Box-
Jenkins en modelos auto regresivos de media móvil de series temporales. Las autocorrelaciones
deben estar al azar y cerca de cero, ya que si el analista no comprueba la aleatoriedad, la validez
de muchas de las conclusiones estadísticas se vuelven sospechosas. La autocorrelación es una
muy buena manera de comprobar la aleatoriedad.
o. Que es un modelo parsimonioso?
Se basan en la teoría parsimoniosa. Que explica que lo más simple casi siempre resulta ser lo más
exacto. En econometría, un modelo parsimonioso son modelos que en comparación con un
modelo anidado, tienen menos variables y son más exactos que su contraparte con gran cantidad
de variables que no son estadísticamente significativas.

23

p. Que son modelos anidados?


Son los modelos en los que se puede establecer una jerarquía, de tal forma que uno de ellos es
denominado modelo general y los demás son llamados modelos restringidos, se pueden obtener
mediante la imposición de restricciones, lineales y no lineales. Sobre el modelo general (sin
restricciones) y modelos restringidos.
q. prueba de normalidad de Kolmogorov-Smirnov
El contraste de Kolmogorov-Smirnov compara los valores de las funciones de distribución de la
muestra y de la población que se ha colocado en la hipótesis nula cuando la prueba
KolmogorovSmirnov se aplica para contrastar la hipótesis de normalidad de la población, el
estadístico de prueba es la máxima diferencia:
max ( ) ( ) no D F x F x

La distribución del estadístico de Kolmogorov-Smirnov es independiente de la distribución


poblacional especificada en la hipótesis nula y los valores críticos de este estadístico están
tabulados. Si la distribución postulada es la normal y se calculan sus parámetros, los valores
críticos se obtienen aplicando la corrección de significancia propuesta por lilliefors.
r. Prueba de normalidad de Anderson Darling
En estadística, la prueba de Anderson-Darling es una prueba no paramétrica, donde nos indica si
los datos de una muestra provienen de una distribución especifica. La fórmula para el estadístico
determina si los datos(los datos se deben ordenar) vienen de una distribución con función
acumulativa F.

Donde
24

N: número de datos
F(x): es la función de distribución de probabilidad teórica
FS (x): es la función de distribución empírica.
Para definir la regla de rechazo para esta prueba se necesita, también, obtener el estadístico
ajustado para luego compararlo con los valores críticos de la tabla de Anderson-Darling

Luego de obtener el estadístico ajustado, la regla de rechazo se realiza análogamente a la


utilizada en la prueba de K-S.
El estadístico de prueba se puede comparar contra las distribuciones del estadístico de prueba
(dependiendo que F se utiliza) para determinar el valor P
Conclusiones Se podría decir que el problema más fuerte se presentó en la heteroscedasticidad,
ya que de forma inicial por medio del contraste de BREUSCH-PAGAN podíamos concluir que
no existía este problema, pero por medio de los contrastes GOLDFELD-QUANT y de WHITE se
llega a concluir totalmente lo contraria es decir que hay presencia de. heteroscedasticidad, pero
aun así después de tratar de corregirlo, este modelo seguía presentando el mismo problema y se
podría decir que esto se da por la normalidad en que se distribuyen los residuales.

Se podría decir que este modelo por medio del cual se espera predecir el índice Dow Jones es
un buen modelo ya que no hay problemas de multicolinealidad, y la autocorrelacion pudo
lograrse corregir, solo hay que tener en cuenta el problema de las varianzas de los errores.

Este modelo no fue hecho a base de los rendimientos diarios de las tres acciones NIKE,
INTEL, IBM, sino que fue basado de los precios diarios, al igual que la variable
25

dependiente Dow Jones que no fue estimada a partir del rendimiento de este índice sino de los
valores diarios históricos.

Este proyecto fue muy interesante ya que se pudo lograr poner en práctica a partir de datos y
hechos reales toda la teoría vista en el curso durante todo el semestre y estimar modelos para
predecir de una manera más acertada cualquier tipo de variable de interés por ejemplo en este
caso un índice bursátil.

Vous aimerez peut-être aussi