Un estimador es un estadístico cuyos valores se consideran medidas experimentales de un parámetro desconocido
Es una función del estadístico que provee un valor aproximado de un parámetro o característica desconocida.
Por ejemplo, podemos aproximar el parámetro de una Bernoulli a partir de la frecuencia relativa del experimento.
Estimador de Máxima Verosimilitud
Consiste en encontrar el valor del parámetro para el cual la probabilidad es máxima. Esto se encuentra buscando el máximo de la función de verosimilitud.
Si la distribución pertenece a una familia regular, entonces como es una función monótona creciente, entonces encontrar el máximo de equivale a buscar el máximo de .
Podemos despejar y encontrar una función del parámetro en función de los datos, evaluamos la función en las variables aleatorias y encontramos el estimador ,
Si evaluamos en los datos obtenidos y obtenemos un valor estimado para el parámetro de la distribución.
Para el caso de familias no regulares, debemos hallar el máximo a mano, analizando la función.
Principio de Invarianza
Supongamos que es una función biunívoca de , Si es el EMV de , entonces será el EMV de .
Bondad de los Estimadores
El riesgo de estimar el parámetro de una distribución a partir de su EMV se mide con el error cuadrático medio
Un estimador es óptimo es el estimador de menor error cuadrático medio.
Un estimador es insesgado si el promedio del estimador se encuentra en el parámetro que quiero estimar, es decir.
Si el estimador es sesgado, podemos definir el sesgo como
Consistencia
Dada una sucesión de estimadores de de , decimos que es (débilmente) consistente si, para todo , entonces
Si y , entonces es débilmente consistente
Estimadores Asintóticamente normales
Se dice que es una sucesión de estimadores asintóticamente normales si converge en distribución normal con medio 0 y varianza .
Definimos como el número de información de Fisher
Teorema de Slutsky
Bajo ciertas condiciones generales, sea, sea un estimador de máxima verosimilitud de consistente. Sea derivable con , entonces es asintóticamente normal para estimar a
Luego, si . Entonces vale que:
Bootstrap
A partir de un conjunto de muestra puedo obtener un estimador, si consigo más muestras, puedo obtener el promedio de estos estimadores y así encontrar la esperanza del estimador.
Para encontrar más muestras, puedo extraer con reposición datos de la muestra original, y de esta forma construir nuevas muestras.
Una vez extraídos conjuntos de muestras de la muestra original, hallo sus estimadores correspondientes y calculo el promedio.