Ir al contenido

Intervalo de confianza

De Wikipedia, la enciclopedia libre
Las líneas verticales representan 50 construcciones diferentes de intervalos de confianza para la estimación del valor μ.

En estadística, se llama intervalo de confianza a un intervalo dentro del cual se estima, con un determinado nivel de confianza, que estará el valor de cierto parámetro poblacional desconocido. Formalmente, los extremos del intervalo, se calculan a partir de los datos de una muestra correspondiente a un estimador del parámetro poblacional.[1]​ El nivel de confianza representa el porcentaje de intervalos que tomados de 100 muestras independientes distintas contienen en realidad el valor desconocido. En estas circunstancias, es el llamado error aleatorio o nivel de significancia, esto es, el número de intervalos sobre 100 que no contienen el valor.[2]

El nivel de confianza y la amplitud del intervalo varían conjuntamente, de forma que un intervalo más amplio tendrá más probabilidad de acierto (mayor nivel de confianza), mientras que para un intervalo más pequeño, que ofrece una estimación más precisa, aumenta su probabilidad de error.

Para la construcción de un determinado intervalo de confianza es necesario conocer la distribución teórica que sigue el parámetro a estimar, θ.[3]​ Es habitual que el parámetro presente una distribución normal. También pueden construirse intervalos de confianza con la desigualdad de Chebyshev.

Definición

[editar]

Un intervalo de de confianza para la estimación de un parámetro poblacional que sigue una determinada distribución de probabilidad, es una expresión del tipo tal que donde es la función de distribución de probabilidad de .

Ejemplos

[editar]

Intervalo de confianza de la media de una población

[editar]

De una población con media y desviación típica se pueden tomar muestras de elementos. Cada una de estas muestras tiene a su vez una media. Se puede demostrar que la media de todas las medias muestrales coincide con la media poblacional:[4]

Pero además, si el tamaño de las muestras es suficientemente grande,[5]​ o la distribución poblacional es normal, la distribución de medias muestrales es, prácticamente, una distribución normal (o gaussiana) con media y una desviación típica dada por la siguiente expresión

esto se representa como

Si estandarizamos, se sigue que

En una distribución puede calcularse fácilmente un intervalo dentro del cual caiga un determinado porcentaje de las observaciones, esto es, es sencillo hallar y tales que donde es el porcentaje deseado (véase el uso de las tablas en una distribución normal).

En esta distribución normal de medias se puede calcular el intervalo de confianza donde se encontrará la media poblacional si solo se conoce una media muestral (), con una confianza determinada. Habitualmente se manejan valores de confianza del 95 y del 99 por ciento. A este valor se le llamará (debido a que es el error que se cometerá, un término opuesto).

Para ello se necesita calcular el punto o, mejor dicho, su versión estandarizada o valor crítico— junto con su "opuesto en la distribución" . Estos puntos delimitan la probabilidad para el intervalo, como se muestra en la siguiente imagen:

Dicho punto es el número tal que:

Y en la versión estandarizada se cumple que:

Así:

De lo cual se obtendrá el intervalo de confianza

Obsérvese que el intervalo de confianza viene dado por la media muestral ± el producto del valor crítico por el error estándar .

Si no se conoce y n es grande (habitualmente se toma n ≥ 30):[6]

Aproximaciones para el valor para los niveles de confianza estándar son 1,96 para y 2,576 para .[7]

Intervalo de confianza de una proporción

[editar]

El intervalo de confianza para estimar una proporción , conocida como una proporción muestral de una muestra de tamaño , a un nivel del de confianza es:

En la demostración de estas fórmulas están involucrados el Teorema Central del Límite y la aproximación de una binomial por una normal.[8]

Ejemplo práctico

[editar]
Una línea de montaje de fábrica llena las tazas de helado hasta los 250 g +/- 2.5 g deseados.

Una máquina llena tazas con helado, y se supone que está ajustada para verter la cantidad de 250 g. Como la máquina no puede llenar cada taza con exactamente 250 g, el contenido que se añade a cada taza individual presenta cierta variación y se le asigna una variable aleatoria X. Se asume que esta variación se ajusta a una distribución normal de alrededor de la cantidad promedio deseada de 250 g, con una desviación estándar de 2.5 g.

Para determinar si la máquina está adecuadamente calibrada, se toma una muestra aleatoria de n = 25 tazas de helado para pesarlas. La medición resultante es X1, ..., X25, una muestra aleatoria procedente de  X.

Para μ, es suficiente con dar una estimación. El estimador adecuado es la media muestral:

La muestra señala los pesos reales x1, ..., x25, con media:


Al tomar otra muestra de 25 tazas, es esperable, de igual manera, que la masa presente valores como 250.4 o 251.1 gramos. Un valor medio muestral de 280 gramos en cambio, sería extremadamente excepcional si el contenido medio de las tazas está en la práctica cerca de 250 gramos. Hay un intervalo en torno al valor observado de 250.2 gramos de la media muestral, para el que si la media de la población completa efectivamente toma un valor en este rango, los datos observados no podrían ser considerados particularmente inusuales. Tal intervalo se denomina intervalo de confianza para el parámetro μ. ¿Cómo se calcula tal intervalo? Los extremos del intervalo deben calcularse a partir de la muestra para que resulten funciones estadísticas de la muestra X1, ..., X25 y de este modo son variables aleatorias a su vez.

En este caso, se determinarán los extremos considerando la media muestral X que como proviene de una distribución normal está también normalmente distribuida con la misma esperanza μ, pero con un error estándar de:

Por estandarización, se obtiene una variable aleatoria:

dependiente del parámetro μ que debe ser estimado, pero con una distribución normal estándar independiente del parámetro μ. Por lo tanto, es posible hallar números −z y z, independientes de μ, entre los cuales está Z con probabilidad 1 − α, una medida de cuán confiados queremos estar.

Tomamos 1 − α = 0.95, por ejemplo. Así, tenemos:

El número z proviene de una función de distribución acumulada, en este caso la Función de distribución normal acumulativa:

y se obtiene:

En otras palabras, el límite inferior de un intervalo de confianza del 95% es:

y el superior de tal intervalo es:

Con los valores de este ejemplo, el intervalo de confianza es:

Esto podría interpretarse como: con probabilidad del 0.95 encontramos un intervalo de confianza en el que se cumple que el parámetro μ está entre los límites estocásticos

y

Esto no implica que hay una probabilidad de 0.95 de encontrar el parámetro μ en el intervalo obtenido usando el valor efectivamente establecido para el valor medio de la muestra.

Cada vez que se repitan las mediciones, darán otro valor para la media X de la muestra. En el 95% de los casos μ estará entre los límites calculados a partir de la media, pero en el 5% de los casos no lo estará. El intervalo de confianza efectivo se calcula llevando los valores de masas de helado medidas a la fórmula. Este intervalo de confianza de 0.95 resulta:

El segmento vertical representa 50 realizaciones de un intervalo de confianza para μ.

En otras palabras, el intervalo de confianza del 95% está entre el límite inferior de 249.22 g y el superior de 251.18 g.

Como el valor deseado 250 de μ está dentro del intervalo de confianza resultante no hay razón para creer que la máquina no está correctamente calibrada.

El intervalo calculado tiene límites fijos, donde μ podría o no estar acotado. Así, este evento tiene probabilidad 0 o 1. No es posible decir: "con probabilidad (1 − α) el parámetro μ está en el intervalo de confianza." Sólo sabemos que por repetición en 100(1 − α) % de los casos, μ estará en el intervalo calculado. En 100α% de los casos, sin embargo esto no sucede. Desafortunadamente, no se conoce en cuáles de los casos esto sucede. Por eso se puede decir: "con nivel de confianza 100(1 − α) %, μ  está en el intervalo de confianza."

El error máximo se calcula como 0.98 dado que es la diferencia ente el valor en que se conserva la confianza dentro de los límites superior e inferior.

La figura ilustra 50 realizaciones de un intervalo de confianza para una población media dada μ. Si aleatoriamente se selecciona una realización, la probabilidad es del 95% de finalmente haber elegido un intervalo que contenga el parámetro; sin embargo, podría darse la desafortunada situación de haber elegido la errónea.

Véase también

[editar]

Referencias

[editar]
  1. Neyman, J. «Outline of a Theory of Statistical Estimation Based on the Classical Theory of Probability.». 
  2. Rius Díaz, Francisca (octubre de 1997). «8.2. Estimación confidencial». Bioestadística. Métodos y aplicaciones. Málaga: Universidad de Málaga. ISBN 84-7496-653-1. Archivado desde el original el 23 de diciembre de 2009. Consultado el 7 de abril de 2009. 
  3. Guerriero V. «Power Law Distribution: Method of Multi-scale Inferential Statistics». J. Mod. Math. Fr. (2012). 
  4. Es una consecuencia del Teorema Central del Límite.
  5. En la práctica se considera normal la distribución si n > 30.
  6. Sotomayor Velasco, Gabriel; Wisniewski, Piotr Marian (2001). «10.2. Intervalos de confianza para medias». Probabilidad y estadística para ingeniería y ciencias. Cengage Learning Editores. p. 230. ISBN 970686136X. Consultado el 20 de abril de 2009. 
  7. Véanse en las tablas de la normal tipificada las entradas correspondientes a los valores 0,95 y 0,99
  8. Rius Díaz, Francisca (octubre de 1997). «8.6.2. Intervalo para una proporción». Bioestadística. Métodos y aplicaciones. Málaga: Universidad de Málaga. ISBN 84-7496-653-1. Archivado desde el original el 23 de diciembre de 2009. Consultado el 24 de abril de 2009. 

Bibliografía

[editar]
  • Fisher, R. A. (1956). Statistical Methods and Scientific Inference. Oliver and Boyd, Edinburgh (p. 32).
  • Freund, J. E. (1962). Mathematical Statistics. Prentice Hall, Englewood Cliffs, NJ (pp. 227-228).
  • Hacking, I. (1965) Logic of Statistical Inference. Cambridge University Press, Cambridge.
  • Keeping, E. S. (1962). Introduction to Statistical Inference. D. Van Nostrand, Princeton, NJ.
  • Kiefer, J. (1977). Journal of the American Statistical Association, 72, 789-827.
  • Neyman, J. (1937). Philosophical Transactions of the Royal Society of London A, 236, 333-380.
  • Robinson, G. K. (1975). Biometrika, 62, 151-161.
  • Zar, J. H. (1984). Biostatistical Analysis. Prentice Hall International, New Jersey. pp. 43-45.