domingo, 1 de noviembre de 2009

ESTIMACIONES ESTADISTICA.

En la siguiente investigación, encontraremos temas bien importantes e interesantes sobre las estimaciones estadisticas, utilizando un buen lenguaje para mejor entendimiento del mismo.Desglosando que es : Estimacion, Diferentes tipos de estimadores, tales como, estimador insesgado, eficiente, etc…

Estimaciones estadísticas

Se llama estimación al conjunto de técnicas que permiten dar un valor aproximado de un parámetro de una población a partir de los datos proporcionados por una muestra. Por ejemplo, una estimación de la media de una determinada característica de una población de tamaño N podría ser la media de esa misma característica para una muestra de tamaño n.[1]

La estimación se divide en tres grandes bloques, cada uno de los cuales tiene distintos métodos que se usan en función de las características y propósitos del estudio:

  • Estimación puntual:[
    • Método de los momentos;
    • Método de la máxima verosimilitud;
    • Método de los mínimos cuadrados;
  • Estimación por intervalos.
  • Estimación bayesiana.
Estimador

Un estimador de un parámetro poblacional es una función de los datos muestrales, también llamado estadístico. En pocas palabras, es una fórmula que depende de los valores obtenidos de una muestra, para realizar estimaciones.

Formalmente, si θ es un parámetro poblacional, se dice que \hat{\theta}es un estimador puntual de θ si \hat{\theta}=\hat{\theta}(x_1, x_2, ..., x_n), donde x1,x2,...,xn son las variables aleatorias que integran una muestra aleatoria de tamaño n de la población en cuestión.

Por ejemplo, un estimador de la media poblacional, μ, puede ser la media muestral, \bar{x}, según la siguiente fórmula:

\mu \approx \bar{x} = \frac1n\sum_{i = 1}^n x_i  =  \frac1n (x_1+\cdots+x_n)

donde (x1, x2, ..., xn) sería el conjunto de de datos de la muestra.

El estimador es una variable aleatoria que asigna a cada posible valor de la muestra un valor numérico. Como tal, tiene sentido calcular su esperanza, su varianza y otras características propias de las variables aleatorias.

Estimador insesgado

Por supuesto, cualquier función de la muestra, con la definición anterior, podría ser un estimador, pero es deseable que las estimaciones que surjan a partir de un estimador "se parezcan", en cierto modo, al parámetro que se desea estimar.

Con este propósito, se dice que un estimador de un parámetro θ es insesgado si su esperanza es el propio θ.

Estimador eficiente

Un estimador de un parámetro θ es eficiente si su varianza es mínima. Esto hace que haya menos variabilidad entre las distintas estimaciones que podemos obtener (cada muestra dará una estimación diferente). De esta forma, la estimación será más fiable. Hay una cota mínima dentro de las varianzas que se puede obtener para cualquier estimador con un sesgo determinado. Esta cota se llama cota de Cramér-Rao.


Si la varianza de un estimador es igual a esta cota, sabremos que su varianza es mínima, y por tanto, estaremos seguros de que es eficiente. Sin embargo, no siempre esta cota es alcanzable, por lo que no siempre podremos saber si el estimador que hemos utilizado es el más eficiente de todos. Para ello, cuando dudamos entre dos estimadores diferentes, y ninguno de ellos tiene una varianza igual a la cota de Cramér-Rao se utiliza el coeficiente de eficiencia relativa.

Estimación puntual

Consiste en la estimación del valor del parámetro mediante un sólo valor, obtenido de una fórmula determinada. Por ejemplo, si se pretende estimar la talla media de un determinado grupo de individuos, puede extraerse una muestra y ofrecer como estimación puntual la talla media de los individuos. Lo más importante de un estimador, es que sea un estimador eficiente. Es decir, que sea insesgado(ausencia de sesgos) y estable en el muestreo o eficiente (varianza mínima).

Estimación por intervalos

Consiste en la obtención de un intervalo dentro del cual estará el valor del parámetro estimado con una cierta probabilidad. En la estimación por intervalos se usan los siguientes conceptos:


· Intervalo de confianza

El intervalo de confianza es una expresión del tipo [θ1, θ2] ó θ1 ≤ θ ≤ θ2, donde θ es el parámetro a estimar. Este intervalo contiene al parámetro estimado con una determinada certeza o nivel de confianza. Pero a veces puede cambiar este intervalo cuando la muestra no garantiza un axioma o un equivalente circustancial.

· Variabilidad del Parámetro

Si no se conoce, puede obtenerse una aproximación en los datos aportados por la literatura científica o en un estudio piloto. También hay métodos para calcular el tamaño de la muestra que prescinden de este aspecto. Habitualmente se usa como medida de esta variabilidad la desviación típica poblacional y se denota σ.

· Error de la estimación

Es una medida de su precisión que se corresponde con la amplitud del intervalo de confianza. Cuanta más precisión se desee en la estimación de un parámetro, más estrecho deberá ser el intervalo de confianza y, si se quiere mantener o disminuir el error, más ocurrencias deberán incluirse en la muestra estudiada. En caso de no incluir nuevas observaciones para la muestra, más error se comete al aumentar la precisión. Se suele llamar E, según la fórmula E = θ2 - θ1.


· Limite de Confianza

Es la probabilidad de que el verdadero valor del parámetro estimado en la población se sitúe en el intervalo de confianza obtenido. El nivel de confianza se denota por (1-α), aunque habitualmente suele expresarse con un porcentaje ((1-α)·100%). Es habitual tomar como nivel de confianza un 95% o un 99%, que se corresponden con valores α de 0,05 y 0,01 respectivamente.

· Valor α

También llamado nivel de significación. Es la probabilidad (en tanto por uno) de fallar en nuestra estimación, esto es, la diferencia entre la certeza (1) y el nivel de confianza (1-α). Por ejemplo, en una estimación con un nivel de confianza del 95%, el valor α es (100-95)/100 = 0,05.

Valor crítico

Se representa por Zα/2. Es el valor de la abscisa en una determinada distribución que deja a su derecha un área igual a α/2, siendo 1-α el nivel de confianza. Normalmente los valores

críticos están tabulados o pueden calcularse en función de la distribución de la población. Por ejemplo, para una distribución normal, de media 0 y desviación típica 1, el valor crítico para α = 0,05 se calcularía del siguiente modo: se busca en la tabla de la distribución ese valor (o el más aproximado), bajo la columna "Área"; se observa que se corresponde con -1,64. Entonces Zα/2 = 1,64. Si la media o desviación típica de la distribución normal no coinciden con las de la tabla, se puede realizar el cambio de variable t =(X-μ)/σ para su cálculo.

Con estas definiciones, si tras la extracción de una muestra se dice que "3 es una estimación de la media con un margen de error de 0,6 y un nivel de confianza del 99%", podemos interpretar que el verdadero valor de la media se encuentra entre 2,7 y 3,3, con una probabilidad del 99%. Los valores 2,7 y 3,3 se obtienen restando y sumando, respectivamente, la mitad del error, para obtener el intervalo de confianza según las definiciones dadas.

Para un tamaño fijo de la muestra, los conceptos de error y nivel de confianza van relacionados. Si admitimos un error mayor, esto es, aumentamos el tamaño del intervalo de confianza, tenemos también una mayor probabilidad de éxito en nuestra estimación, es decir, un mayor nivel de confianza.

El trabajo desarrollado anteriormente, fue de suma importancia para mi, ya que por medio de este pude entender sobre las estimaciones estadisticas, que son y cuales son los diferentes tipos de estimación.

Aprendiendo tambien a utilizar las formulas, y saber cual de estas utilizar en el momento indicado.

Fue una investigacion buscada en diferentes Fuentes para un major entendimiento del mismo.

No hay comentarios:

Publicar un comentario