Académique Documents
Professionnel Documents
Culture Documents
1. ¿Qué es econometría?
https://books.google.es/books?hl=es&lr=&id=5vnq3IZS7a8C&oi=fnd&pg=PP1&dq=que+es+la+ec
onometria&ots=W_RFdU7LYE&sig=N3FoYGmKyOi57YUKd1EdebQScwk#v=onepage&q&f=false
https://www.master-finanzas-cuantitativas.com/mastersque-es-la-econometria/
http://www.redalyc.org/pdf/416/41600305.pdf
https://www.euston96.com/econometria/
https://www.unirioja.es/cu/faporti/ieTEMA01.pdf
Valor agregado.
¿Qué es econometría?
https://conceptodefinicion.de/econometria/, pág. 13)
(https://www.uv.es/uriel/1%20Econometria%20y%20datos%20economicos.pdf, pág. 13)
(https://www.cimat.mx/~joaquin/mn11/clase07.pdf, pág. 13)
(https://rua.ua.es/dspace/bitstream/10045/19710/1/tema2.pdf, pág. 14)
(http://www.cotradingclub.com/2017/05/25/prueba-de-normalidad-en-modelos-de-prediccion/, pág.
14)
42
. Valor agregado: a. Econometría: Es una ciencia que se dedica a explicar y predecir los
fenómenos económicos, a través del uso de modelos reflejados en forma matemática y el empleo
de procedimientos estadísticos de estimación y contraste. Esta rama de la economía hace uso de
modelos matemáticos y estadísticos
16
d. Teorema de Gauss Markov: Señala que los estimadores de MCO presentan una varianza
mínima, lo que hace de ellos los más eficientes. También son aquellos pertenecientes a la familia
de estimadores insesgados. Los estimadores MCO son conocidos como MELI que significa
mejores estimadores lineales e insesgados y se expresan de la siguiente forma:
Linealidad
Insesgadez
Eficiencia e. Prueba Jarque-Bera: Es una prueba de bondad de ajuste para comprobar si una
muestra de datos tiene la asimetría y la curtosis de una distribución norma, que considera los
siguientes elementos
Sea y = Xβ + µ donde E [µ] = 0 E [µµ'] = σ2
Si u se encuentra normalmente distribuido, entonces
µ3= E [µt3]= 0 Y µ4= E [µt4]= 3σ2
17
La prueba JB toma este principio: “que tanto se desvían los coeficientes de asimetría y curtosis”
f. Gráfico Cuantil-Cuantil: es un método gráfico para el diagnóstico de diferencias entre la
distribución de probabilidad de una población de la que se ha extraído una muestra aleatoria y
una distribución usada para la comparación. Permite observar cuan cerca está la distribución de
un conjunto de datos a alguna distribución ideal o comparar la distribución de dos conjuntos de
datos. g. Criterio de información de Akaike (AIC): Es una medida de la calidad relativa de un
modelo estadístico, para un conjunto dado de datos. Como tal, el AIC proporciona un medio para
la selección del modelo.
AIC maneja un trade-off entre la bondad de ajuste del modelo y la complejidad del modelo. Se
basa en la entropía de información: se ofrece una estimación relativa de la información pérdida
cuando se utiliza un modelo determinado para representar el proceso que genera los datos.
AIC no proporciona una prueba de un modelo en el sentido de probar una hipótesis nula, es decir
AIC no puede decir nada acerca de la calidad del modelo en un sentido absoluto. Si todos los
modelos candidatos encajan mal, AIC no dará ningún aviso de ello.
El AIC es definido para ser un estimador asintóticamente insesgado de menos dos veces la
logverosimilitud de un modelo mediante las estimaciones de máxima verosimilitud de los
parámetros.
Si es el valor maximizado de la función de máxima verosimilitud de un modelo econométrico,
donde es el estimador de máxima verosimilitud de basado en una muestra de tamaño n. El
criterio de información de Akaike (CIA) para este modelo se define como:
Donde
= número de parámetros estimados libremente
18
sobreajuste. Tanto el BIC y AIC resuelven este problema mediante la introducción de un término
de penalización para el número de parámetros en el modelo, el término de penalización es mayor
en el BIC que en el AIC. El criterio bayesiano Schwarz suministra una aproximación para
muestras grandes del porcentaje de probabilidad del modelo bajo consideración. Este criterio se
define como:
Al comparar el CBS entre modelos el que muestre el más alto valor es el escogido.
i. Análisis de Componentes Principales (ACP): Es una técnica estadística de síntesis de la
información, o reducción de la dimensión (número de variables). Es decir, ante un banco de datos
con muchas variables, el objetivo será reducirlas a un menor número perdiendo la menor cantidad
de información posible. Los nuevos componentes principales o factores serán una combinación
lineal de las variables originales, y además serán independientes entre sí. Un aspecto clave en
ACP es la interpretación de los factores, ya que ésta no viene dada a priori, sino que será
deducida tras observar la relación de los factores con las variables iniciales
Técnicamente, el ACP busca la proyección según la cual los datos queden mejor representados en
términos de mínimos cuadrados. Esta convierte un conjunto de observaciones de variables
posiblemente correlacionadas en un conjunto de valores de variables sin correlación lineal
llamadas componentes principales.
Fases de un análisis de componentes principales:
Análisis de la matriz de correlaciones Selección de los factores Análisis de la matriz
factorial Interpretación de los factores Cálculo de las puntuaciones factoriales
j. Regresión Ridge
El método de regresión ridge te permite detectar la multicolinealidad, dentro de un modelo de
regresión de tipo 𝑌 = 𝑋𝑡 𝛽 + 𝜀 ́ , fue propuesto por Hoerl y Kennard (1970a y b); Es usado para
trabajar con modelos que presentan sesgos. La ideología es simple y consiste en que dado que la
matriz (𝑋𝑡 𝑋) es altamente cercana a singular por eso es posible añadir constantes positivas a los
elementos de la diagonal para asegurar que la matriz resultante no sea altamente condicionada. El
vector de coeficientes de la regresión ridge está dado por: 𝛽𝑅 = (𝑋𝑡𝑋 + 𝐾0)-1𝑋𝑡 El cual se puede
reescribir como 𝛽𝑅 = 𝑍𝛽 ́ donde 𝛽 ́ es el estimador ordinario de MC dado por:
19
Por lo tanto
20
Obtenemos que:
𝑌 𝑖 𝜎𝑖
= 𝑌 𝑖 ∗; 𝑋0𝑖 ∗ =
𝑋0𝑖 𝜎𝑖
; 𝑋1𝑖 ∗ =
𝑋𝑖 𝜎𝑖
;𝜀𝑖 ∗ =
𝜀𝑖 𝜎𝑖
Reemplazando
𝑌 𝑖 ∗ = 𝛽0 ∗𝑋0𝑖 ∗ + 𝛽1 ∗𝑋1𝑖 ∗ + 𝜀𝑖∗ Para obtener los estimadores por método de mínimo
ordinario se minimiza la suma ponderada del cuadrado de los residuos:
𝑓(𝛽0 ∗,𝛽1 ∗) = ∑𝑤𝑖𝜀12 𝑛 𝑖=1
= ∑𝑤𝑖(𝑌 𝑖 − 𝛽0 ∗ − 𝛽1 ∗𝑋𝑖)2 𝑛 𝑖=1
;
𝑤𝑖 =
1 𝜎𝑖2
∶ Es la ponderación
23
Donde
24
N: número de datos
F(x): es la función de distribución de probabilidad teórica
FS (x): es la función de distribución empírica.
Para definir la regla de rechazo para esta prueba se necesita, también, obtener el estadístico
ajustado para luego compararlo con los valores críticos de la tabla de Anderson-Darling
Se podría decir que este modelo por medio del cual se espera predecir el índice Dow Jones es
un buen modelo ya que no hay problemas de multicolinealidad, y la autocorrelacion pudo
lograrse corregir, solo hay que tener en cuenta el problema de las varianzas de los errores.
Este modelo no fue hecho a base de los rendimientos diarios de las tres acciones NIKE,
INTEL, IBM, sino que fue basado de los precios diarios, al igual que la variable
25
dependiente Dow Jones que no fue estimada a partir del rendimiento de este índice sino de los
valores diarios históricos.
Este proyecto fue muy interesante ya que se pudo lograr poner en práctica a partir de datos y
hechos reales toda la teoría vista en el curso durante todo el semestre y estimar modelos para
predecir de una manera más acertada cualquier tipo de variable de interés por ejemplo en este
caso un índice bursátil.