LA CAMPANA

Hay quienes leyeron esta noticia antes que tú.
Suscríbete para recibir artículos nuevos.
Correo electrónico
Nombre
Apellido
¿Cómo quieres leer La Campana?
Sin spam

Teoría de la probabilidad y estadística matemática.

  • Agekyan T.A. Fundamentos de la teoría del error para astrónomos y físicos (2ª ed.). M.: Nauka, 1972 (djvu, 2,44M)
  • Agekyan T.A. Teoría de la probabilidad para astrónomos y físicos. M.: Nauka, 1974 (djvu, 2,59M)
  • Anderson T. Análisis estadístico de series temporales. M.: Mir, 1976 (djvu, 14M)
  • Bakelman I.Ya. Werner A.L. Kantor B.E. Introducción a la geometría diferencial "en general". M.: Nauka, 1973. (djvú, 5,71 M)
  • Bernstein S.N. Teoría de la probabilidad. M.-L.: GI, 1927 (djvú, 4,51 millones)
  • Billingsley P. Convergencia de medidas de probabilidad. M.: Nauka, 1977 (djvú, 3,96 M)
  • Box J. Jenkins G. Análisis de series temporales: previsión y gestión. Número 1. M.: Mir, 1974 (djvú, 3,38 millones)
  • Box J. Jenkins G. Análisis de series temporales: previsión y gestión. Número 2. M.: Mir, 1974 (djvú, 1,72 M)
  • Borel E. Probabilidad y confiabilidad. M.: Nauka, 1969 (djvú, 1,19 M)
  • Van der Waerden B.L. Estadística matemática. Moscú: IL, 1960 (djvú, 6,90 M)
  • Vapnik V.N. Recuperando dependencias a partir de datos empíricos. M.: Nauka, 1979 (djvu, 6,18M)
  • Ventzel E.S. Introducción a la Investigación de Operaciones. M.: Radio soviética, 1964 (djvú, 8,43 M)
  • Ventzel E.S. Elementos de la teoría de juegos (2ª ed.). Ciclo: Conferencias populares sobre matemáticas. Número 32. M.: Nauka, 1961 (djvú, 648 K)
  • Ventstel E.S. Teoría de la probabilidad (4ª ed.). M.: Nauka, 1969 (djvú, 8,05 millones)
  • Ventstel E.S., Ovcharov L.A. Teoría de la probabilidad. Tareas y ejercicios. M.: Nauka, 1969 (djvú, 7,71 M)
  • Vilenkin N.Ya., Potapov V.G. Un libro práctico sobre teoría de la probabilidad con elementos de combinatoria y estadística matemática. Moscú: Educación, 1979. (djvú, 1,12 millones)
  • Gmurman V.E. Una guía para la resolución de problemas en teoría de la probabilidad y estadística matemática (3ª ed.). M.: Más alto. escuela, 1979 (djvu, 4,24M)
  • Gmurman V.E. Teoría de la probabilidad y estadística matemática(4ª ed.). M.: Escuela Superior, 1972 (djvú, 3,75 M)
  • Gnedenko B.V., Kolmogorov A.N. Limitar distribuciones para sumas de variables aleatorias independientes. M.-L.: GITTL, 1949 (djvú, 6,26 M)
  • Gnedenko B.V., Khinchin A.Ya. Una introducción elemental a la teoría de la probabilidad (7ª ed.). M.: Nauka, 1970 (djvu, 2,48M)
  • Roble J.L. Procesos probabilísticos. Moscú: IL, 1956 (djvu, 8,48M)
  • David G. Estadísticas ordinales. M.: Nauka, 1979 (djvú, 2,87 millones)
  • Ibragimov I.A., Linnik Yu.V. Cantidades relacionadas independientes y estacionarias. M.: Nauka, 1965 (djvu, 6,05M)
  • Idier V., Dryard D., James F., Rus M., Sadoulet B. Métodos estadísticos en física experimental. Moscú: Atomizdat, 1976 (djvú, 5,95 millones)
  • Kamalov M.K. Distribución formas cuadráticas en muestras de una población normal. Tashkent: Academia de Ciencias de la UzSSR, 1958 (djvú, 6,29 millones)
  • Kassandra O.N., Lebedev V.V. Procesamiento de resultados de observación. M.: Nauka, 1970 (djvú, 867 K)
  • Katz M. Probabilidad y cuestiones relacionadas en física. M.: Mir, 1965 (djvú, 3,67 millones)
  • Katz M. Varios problemas probabilísticos de física y matemáticas. M.: Nauka, 1967 (djvú, 1,50 M)
  • Katz M. Independencia estadística en teoría de probabilidad, análisis y teoría de números. Moscú: IL, 1963 (djvú, 964 K)
  • Kendall M., Moran P. Probabilidades geométricas. M.: Nauka, 1972 (djvú, 1,40 M)
  • Kendall M., Stewart A. Volumen 2. Inferencia estadística y conexiones. M.: Nauka, 1973. (djvú, 10M)
  • Kendall M., Stewart A. Volumen 3. Análisis estadístico multivariado y series de tiempo. M.: Nauka, 1976 (djvú, 7,96 M)
  • Kendall M., Stewart A. vol. 1. Teoría de las distribuciones. M.: Nauka, 1965 (djvu, 6,02M)
  • Kolmogorov A.N. Conceptos básicos de la teoría de la probabilidad (2ª ed.) M.: Nauka, 1974 (djvu, 2,14M)
  • Kolchin V.F., Sevastyanov B.A., Chistyakov V.P. Colocaciones aleatorias. M.: Nauka, 1976 (djvú, 2,96 M)
  • Kramer G. Métodos matemáticos de estadística (2ª ed.). M.: Mir, 1976 (djvu, 9,63M)
  • Leman E. Prueba de hipótesis estadísticas. M.: Ciencia. 1979 (djvú, 5,18 M)
  • Linnik Yu.V., Ostrovsky I.V. Descomposiciones de variables aleatorias y vectores. M.: Nauka, 1972 (djvú, 4,86 ​​M)
  • Likhholetov I.I., Matskevich I.P. Una guía para la resolución de problemas en matemáticas superiores, teoría de la probabilidad y estadística matemática (2ª ed.). Mn.: Vysh. escuela, 1969 (djvú, 4,99 M)
  • Loev M. Teoría de la probabilidad. Moscú: IL, 1962 (djvu, 7,38M)
  • Malakhov A.N. Análisis acumulativo de procesos aleatorios no gaussianos y sus transformaciones. M.: Sov. radio, 1978 (djvú, 6,72 M)
  • Meshalkin L.D. Colección de problemas sobre teoría de la probabilidad. Moscú: Universidad Estatal de Moscú, 1963. (djvú, 1 004 K)
  • Mitropolsky A.K. Teoría de los momentos. M.-L.: GIKSL, 1933 (djvú, 4,49 M)
  • Mitropolsky A.K. Técnicas de computación estadística (2ª ed.). M.: Nauka, 1971 (djvú, 8,35 millones)
  • Mosteller F., Rurke R., Thomas J. Probabilidad. M.: Mir, 1969 (djvu, 4,82M)
  • Nalímov V.V. Aplicación de la estadística matemática en el análisis de la materia. M.: GIFML, 1960 (djvú, 4,11 millones)
  • Neveu J. Fundamentos matemáticos de la teoría de la probabilidad. M.: Mir, 1969 (djvú, 3,62 millones)
  • Preston K. Matemáticas. Novedad en ciencia extranjera No.7. Estados de Gibbs en conjuntos contables. M.: Mir, 1977 (djvú, 2,15 M)
  • Savelyev L.Ya. Teoría de la probabilidad elemental. Parte 1. Novosibirsk: NSU, 2005 (

Teoría de la probabilidad y estadística matemática.


1. PARTE TEÓRICA


1 Convergencia de secuencias de variables aleatorias y distribuciones de probabilidad.


En la teoría de la probabilidad tenemos que lidiar con diferentes tipos convergencia de variables aleatorias. Consideremos los siguientes tipos principales de convergencia: por probabilidad, con probabilidad uno, por media de orden p, por distribución.

Sean,... variables aleatorias definidas en algún espacio de probabilidad (, Ф, P).

Definición 1. Se dice que una secuencia de variables aleatorias, ... converge en probabilidad a una variable aleatoria (notación:), si para alguna > 0


Definición 2. Se dice que una secuencia de variables aleatorias, ... converge con probabilidad uno (casi con certeza, en casi todas partes) a una variable aleatoria si


aquellos. si el conjunto de resultados para los cuales () no converge a () tiene probabilidad cero.

Este tipo de convergencia se denota de la siguiente manera: , o, o.

Definición 3. Una secuencia de variables aleatorias... se llama media-convergente de orden p, 0< p < , если


Definición 4. Se dice que una secuencia de variables aleatorias... converge en distribución a una variable aleatoria (notación:) si se trata de cualquier función continua acotada


La convergencia en la distribución de variables aleatorias se define sólo en términos de la convergencia de sus funciones de distribución. Por tanto, tiene sentido hablar de este tipo de convergencia incluso cuando las variables aleatorias se especifican en diferentes espacios de probabilidad.

Teorema 1.

a) Para que (P-a.s.), es necesario y suficiente que para cualquier > 0

) La secuencia () es fundamental con probabilidad uno si y solo si para cualquier > 0.

Prueba.

a) Sea A = (: |- | ), A = A. Entonces



Por tanto, el enunciado a) es el resultado de la siguiente cadena de implicaciones:

P(: )= 0 P() = 0 = 0 P(A) = 0, m 1 P(A) = 0, > 0 P() 0, n 0, > 0 P( ) 0,

n 0, > 0.) Denotemos = (: ), = . Entonces (: (()) no es fundamental ) = y de la misma forma que en a) se demuestra que (: (()) no es fundamental ) = 0 P( ) 0, n.

El teorema está demostrado.


Teorema 2. (Criterio de Cauchy para una convergencia casi segura)

Para que una secuencia de variables aleatorias () sea convergente con probabilidad uno (a alguna variable aleatoria), es necesario y suficiente que sea fundamental con probabilidad uno.

Prueba.

Si entonces +

de lo cual se sigue la necesidad de las condiciones del teorema.

Ahora dejemos que la secuencia () sea fundamental con probabilidad uno. Denotemos L = (: (()) no fundamental). Entonces para todos la secuencia numérica () es fundamental y, según el criterio de Cauchy para secuencias numéricas, existe (). vamos a poner



Esta función definida es una variable aleatoria y.

El teorema ha sido demostrado.


2 Método de funciones características.


El método de funciones características es una de las principales herramientas del aparato analítico de la teoría de la probabilidad. Junto con las variables aleatorias (que toman valores reales), la teoría de funciones características requiere el uso de variables aleatorias de valores complejos.

Muchas de las definiciones y propiedades relacionadas con variables aleatorias se transfieren fácilmente al caso complejo. Entonces, la expectativa matemática M ?variable aleatoria de valor complejo ?=?+?? se considera determinado si se determina expectativas matemáticas METRO ?y m ?. En este caso, por definición asumimos M ?= METRO ? + ?METRO ?. De la definición de independencia de elementos aleatorios se deduce que cantidades de valores complejos ?1 =?1+??1 , ?2=?2+??2son independientes si y sólo si los pares de variables aleatorias son independientes ( ?1 , ?1) Y ( ?2 , ?2), o, lo que es lo mismo, independiente ?-álgebra F ?1, ?1 y F ?2, ?2.

Junto con el espacio L 2variables aleatorias reales con segundo momento finito, podemos introducir en consideración el espacio de Hilbert de variables aleatorias de valores complejos ?=?+?? con M | ?|2?|2= ?2+?2, y el producto escalar ( ?1 , ?2)=M ?1?2¯ , Dónde ?2¯ - variable aleatoria conjugada compleja.

En operaciones algebraicas, los vectores Rn se tratan como columnas algebraicas,



Como vectores fila, a* - (a1,a2,…,an). Si Rn , entonces su producto escalar (a,b) se entenderá como una cantidad. esta claro que

Si aRn y R=||rij|| es una matriz de orden nхn, entonces



Definición 1. Sea F = F(x1,....,xn) - función de distribución n-dimensional en (, ()). Su función característica se llama función.


Definición 2 . ¿Si? = (?1,…,?n) es un vector aleatorio definido en un espacio de probabilidad con valores en, entonces su función característica se llama función



¿Dónde está F? = F?(х1,….,хn) - función de distribución vectorial?=(?1,…, ?n).

Si la función de distribución F(x) tiene densidad f = f(x), entonces



En este caso, la función característica no es más que la transformada de Fourier de la función f(x).

De (3) se deduce que la función característica ??(t) de un vector aleatorio también puede definirse mediante la igualdad



Propiedades básicas de funciones características (en el caso de n=1).

¿Dejarlo? = ?(?) - variable aleatoria, F? =¿F? (x) es su función de distribución y es la función característica.

Cabe señalar que si, entonces.



De hecho,

donde aprovechamos el hecho de que la expectativa matemática del producto de variables aleatorias independientes (limitadas) es igual al producto de sus expectativas matemáticas.

La propiedad (6) es clave al demostrar teoremas de límites para sumas de variables aleatorias independientes mediante el método de funciones características. En este sentido, la función de distribución se expresa a través de las funciones de distribución de términos individuales de una manera mucho más compleja, es decir, donde el signo * significa una convolución de las distribuciones.

Cada función de distribución se puede asociar con una variable aleatoria que tiene esta función como función de distribución. Por tanto, al presentar las propiedades de las funciones características, podemos limitarnos a considerar las funciones características de las variables aleatorias.

Teorema 1.¿Dejarlo? - una variable aleatoria con función de distribución F=F(x) y - su función característica.

Se producen las siguientes propiedades:

) es uniformemente continuo en;

) es una función de valor real si y sólo si la distribución de F es simétrica


)si por alguna n? 1 , entonces para todos hay derivadas y



)Si existe y es finito, entonces

) Sea para todo n ? 1 y


entonces para todo |t|

El siguiente teorema muestra que la función característica determina de forma única la función de distribución.

Teorema 2 (singularidad). Sean F y G dos funciones de distribución que tienen la misma función característica, es decir, para todos



El teorema dice que la función de distribución F = F(x) puede restaurarse únicamente a partir de su función característica. El siguiente teorema da una representación explícita de la función F en términos de.

Teorema 3 (fórmula de generalización). Sea F = F(x) la función de distribución y su función característica.

a) Para dos puntos cualesquiera a, b (a< b), где функция F = F(х) непрерывна,


) Si entonces la función de distribución F(x) tiene densidad f(x),



Teorema 4. Para que los componentes de un vector aleatorio sean independientes es necesario y suficiente que su función característica sea el producto de las funciones características de los componentes:


Teorema de Bochner-Khinchin . Sea una función continua Para que sea característica es necesario y suficiente que sea definida no negativa, es decir, para cualquier real t1, ... , tn y cualquier número complejo.



Teorema 5. Sea la función característica de una variable aleatoria.

a) Si para algunos, entonces la variable aleatoria es una red con un paso, es decir


) Si para dos puntos diferentes, ¿dónde está un número irracional, entonces es una variable aleatoria? es degenerado:



donde a es una constante.

c) Si, ¿es una variable aleatoria? degenerar.


1.3 Teorema del límite central para variables aleatorias independientes distribuidas idénticamente


Sea () una secuencia de variables aleatorias independientes distribuidas idénticamente. Expectativa M= a, varianza D= , S = , y Ф(х) es la función de distribución de la ley normal con parámetros (0,1). Introduzcamos otra secuencia de variables aleatorias.



Teorema. Si 0<<, то при n P(< x) Ф(х) равномерно относительно х ().

En este caso, la secuencia () se llama asintóticamente normal.

Del hecho de que M = 1 y de los teoremas de continuidad se deduce que, junto con la convergencia débil, FM f() Mf() para cualquier f continua acotada, también existe convergencia M f() Mf() para cualquier f continua , tal que |f(x)|< c(1+|x|) при каком-нибудь.

Prueba.

La convergencia uniforme aquí es consecuencia de la convergencia débil y la continuidad de Ф(x). Además, sin pérdida de generalidad, podemos suponer a = 0, ya que de lo contrario podríamos considerar la secuencia (), y la secuencia () no cambiaría. Por lo tanto, para demostrar la convergencia requerida basta con demostrar que (t) e cuando a = 0. Tenemos

(t) = , donde =(t).


Dado que M existe, entonces la descomposición existe y es válida.



Por lo tanto, para n

El teorema ha sido demostrado.


1.4 Las principales tareas de la estadística matemática, su breve descripción.


El establecimiento de patrones que gobiernan los fenómenos aleatorios masivos se basa en el estudio de datos estadísticos: los resultados de las observaciones. La primera tarea de la estadística matemática es indicar formas de recopilar y agrupar información estadística. La segunda tarea de la estadística matemática es desarrollar métodos para analizar datos estadísticos, dependiendo de los objetivos del estudio.

A la hora de resolver cualquier problema de estadística matemática, existen dos fuentes de información. El primero y más definido (explícito) es el resultado de observaciones (experimento) en forma de muestra de alguna población general de una variable aleatoria escalar o vectorial. En este caso, el tamaño de la muestra n puede ser fijo o puede aumentar durante el experimento (es decir, se pueden utilizar los llamados procedimientos de análisis estadístico secuencial).

La segunda fuente es toda la información a priori sobre las propiedades de interés del objeto en estudio, acumulada hasta el momento. Formalmente, la cantidad de información a priori se refleja en el modelo estadístico inicial que se elige al resolver el problema. Sin embargo, no es necesario hablar de una determinación aproximada en el sentido habitual de la probabilidad de un evento basándose en los resultados de los experimentos. Por determinación aproximada de cualquier cantidad generalmente se entiende que es posible indicar límites de error dentro de los cuales no ocurrirá un error. La frecuencia del evento es aleatoria para cualquier número de experimentos debido a la aleatoriedad de los resultados de los experimentos individuales. Debido a la aleatoriedad de los resultados de los experimentos individuales, la frecuencia puede diferir significativamente de la probabilidad del evento. Por lo tanto, al definir la probabilidad desconocida de un evento como la frecuencia de este evento durante una gran cantidad de experimentos, no podemos indicar los límites de error y garantizar que el error no excederá estos límites. Por lo tanto, en estadística matemática normalmente no hablamos de valores aproximados de cantidades desconocidas, sino de sus valores adecuados, estimaciones.

El problema de estimar parámetros desconocidos surge en los casos en que la función de distribución de la población se conoce hasta un parámetro. En este caso, es necesario encontrar una estadística cuyo valor muestral para la implementación considerada xn de una muestra aleatoria pueda considerarse un valor aproximado del parámetro. Una estadística cuyo valor muestral para cualquier realización xn se toma como un valor aproximado de un parámetro desconocido se denomina estimación puntual o simplemente estimación, y es el valor de una estimación puntual. Una estimación puntual debe satisfacer requisitos muy específicos para que su valor muestral corresponda al valor real del parámetro.

También es posible otro enfoque para resolver el problema en cuestión: encontrar tales estadísticas y, ¿con probabilidad? se cumple la siguiente desigualdad:



En este caso hablamos de estimación de intervalo para. Intervalo



¿Se llama intervalo de confianza para con el coeficiente de confianza?

Habiendo evaluado una u otra característica estadística con base en los resultados de los experimentos, surge la pregunta: ¿qué tan consistente es la suposición (hipótesis) de que la característica desconocida tiene exactamente el valor que se obtuvo como resultado de su evaluación con datos experimentales? Así surge la segunda clase importante de problemas en estadística matemática: los problemas de prueba de hipótesis.

En cierto sentido, el problema de probar una hipótesis estadística es el inverso del problema de estimación de parámetros. Al estimar un parámetro, no sabemos nada sobre su verdadero valor. Al probar una hipótesis estadística, por alguna razón se supone que se conoce su valor y es necesario verificar esta suposición con base en los resultados del experimento.

En muchos problemas de estadística matemática se consideran secuencias de variables aleatorias que convergen en un sentido u otro hasta algún límite (variable aleatoria o constante), cuando.

Por tanto, las principales tareas de la estadística matemática son el desarrollo de métodos para encontrar estimaciones y estudiar la precisión de su aproximación a las características evaluadas y el desarrollo de métodos para probar hipótesis.


5 Prueba de hipótesis estadísticas: conceptos básicos


La tarea de desarrollar métodos racionales para probar hipótesis estadísticas es una de las principales tareas de la estadística matemática. Una hipótesis estadística (o simplemente una hipótesis) es cualquier afirmación sobre el tipo o las propiedades de la distribución de variables aleatorias observadas en un experimento.

Sea una muestra que sea una realización de una muestra aleatoria de una población general, cuya densidad de distribución depende de un parámetro desconocido.

Las hipótesis estadísticas sobre el valor verdadero desconocido de un parámetro se denominan hipótesis paramétricas. Además, si es un escalar, entonces estamos hablando de hipótesis uniparamétricas, y si es un vector, entonces estamos hablando de hipótesis multiparamétricas.

Una hipótesis estadística se llama simple si tiene la forma

donde está algún valor de parámetro especificado.

Una hipótesis estadística se llama compleja si tiene la forma


donde es un conjunto de valores de parámetros que consta de más de un elemento.

En el caso de probar dos hipótesis estadísticas simples de la forma

donde hay dos valores dados (diferentes) del parámetro, la primera hipótesis generalmente se llama principal y la segunda se llama hipótesis alternativa o competidora.

El criterio, o criterio estadístico, para probar hipótesis es la regla mediante la cual, con base en datos de muestra, se toma una decisión sobre la validez de la primera o la segunda hipótesis.

El criterio se especifica mediante un conjunto crítico, que es un subconjunto del espacio muestral de una muestra aleatoria. La decisión se toma de la siguiente manera:

) si la muestra pertenece al conjunto crítico, entonces rechaza la hipótesis principal y acepta la hipótesis alternativa;

) si la muestra no pertenece al conjunto crítico (es decir, pertenece al complemento del conjunto al espacio muestral), entonces se rechaza la hipótesis alternativa y se acepta la hipótesis principal.

Al utilizar cualquier criterio, son posibles los siguientes tipos de errores:

1) aceptar una hipótesis cuando es cierta: un error del primer tipo;

)aceptar una hipótesis cuando es cierta es un error tipo II.

Las probabilidades de cometer errores del primer y segundo tipo se denotan por:

donde es la probabilidad de un evento siempre que la hipótesis sea cierta. Las probabilidades indicadas se calculan utilizando la función de densidad de distribución de una muestra aleatoria:

La probabilidad de cometer un error tipo I también se denomina nivel de significancia del criterio.

El valor igual a la probabilidad de rechazar la hipótesis principal cuando es verdadera se llama potencia de la prueba.


1.6 Criterio de independencia


Hay una muestra ((XY), ..., (XY)) de una distribución bidimensional

L con una función de distribución desconocida para lo cual es necesario probar la hipótesis H: , donde se encuentran algunas funciones de distribución unidimensionales.

Se puede construir una prueba simple de bondad de ajuste para la hipótesis H basándose en la metodología. Esta técnica se utiliza para modelos discretos con un número finito de resultados, por lo que acordamos que la variable aleatoria toma un número finito s de algunos valores, que denotaremos con letras, y el segundo componente, k valores. Si el modelo original tiene una estructura diferente, entonces los posibles valores de las variables aleatorias se agrupan preliminarmente por separado en el primer y segundo componente. En este caso, el conjunto se divide en s intervalos, el valor se establece en k intervalos y el valor se establece en N=sk rectángulos.

Denotemos por el número de observaciones del par (el número de elementos muestrales que pertenecen al rectángulo si los datos están agrupados), de modo que. Es conveniente organizar los resultados de la observación en forma de tabla de contingencia de dos signos (Tabla 1.1). En las aplicaciones y generalmente se refieren a dos criterios mediante los cuales se clasifican los resultados de la observación.

Sea P, i=1,…,s, j=1,…,k. Entonces la hipótesis de independencia significa que existen constantes s+k tales que y, es decir,


Tabla 1.1

Suma . . .. . .. . . . . .. . .. . . . . . . . . . . . . . .Suma . . .norte

Por tanto, la hipótesis H se reduce a la afirmación de que las frecuencias (su número es N = sk) se distribuyen según una ley polinómica con probabilidades de resultados que tienen una estructura específica especificada (el vector de probabilidades de resultados p está determinado por los valores r = s + k-2 de parámetros desconocidos.

Para probar esta hipótesis, encontraremos estimaciones de máxima verosimilitud para los parámetros desconocidos que determinan el esquema bajo consideración. Si la hipótesis nula es cierta, entonces la función de verosimilitud tiene la forma L(p)= donde el multiplicador c no depende de los parámetros desconocidos. De aquí, utilizando el método de Lagrange de multiplicadores indefinidos, obtenemos que las estimaciones requeridas tienen la forma

Por lo tanto, las estadísticas

L() en, ya que el número de grados de libertad en la distribución límite es igual a N-1-r=sk-1-(s+k-2)=(s-1)(k-1).

Entonces, para n suficientemente grande, se puede usar la siguiente regla de prueba de hipótesis: la hipótesis H se rechaza si y sólo si el valor del estadístico t calculado a partir de los datos reales satisface la desigualdad.

Este criterio tiene un nivel de significancia asintóticamente (en) dado y se denomina criterio de independencia.

2. PARTE PRÁCTICA


1 Soluciones a problemas sobre tipos de convergencia


1. Demuestre que la convergencia casi con seguridad implica convergencia en probabilidad. Proporcione un ejemplo de prueba para demostrar que lo contrario no es cierto.

Solución. Dejemos que una secuencia de variables aleatorias converja en una variable aleatoria x casi con certeza. Entonces, ¿para cualquiera? > 0

Desde entonces

y de la convergencia de xn a x se sigue casi con certeza que xn converge a x en probabilidad, ya que en este caso

Pero la afirmación contraria no es cierta. ¿Sea una secuencia de variables aleatorias independientes que tienen la misma función de distribución F(x), igual a cero en x? 0 e igual para x > 0. Considere la secuencia


Esta secuencia converge a cero en probabilidad, ya que

tiende a cero para cualquier fijo? Y. Sin embargo, es casi seguro que la convergencia a cero no se producirá. En realidad

tiende a la unidad, es decir, con probabilidad 1 para cualquiera y n habrá realizaciones en la secuencia que superen ?.

Obsérvese que, en presencia de algunas condiciones adicionales impuestas a las cantidades xn, la convergencia en probabilidad implica convergencia casi con certeza.

Sea xn una secuencia monótona. Demuestre que en este caso la convergencia de xn a x en probabilidad implica la convergencia de xn a x con probabilidad 1.

Solución. Sea xn una secuencia monótonamente decreciente, es decir. Para simplificar nuestro razonamiento, asumiremos que x º 0, xn ³ 0 para todo n. Supongamos que xn converge a x en probabilidad, pero es casi seguro que la convergencia no se produce. ¿Existe entonces? > 0, tal que para todo n


Pero lo dicho también significa que para todos n

lo que contradice la convergencia de xn a x en probabilidad. Por lo tanto, para una secuencia monótona xn, que converge a x en probabilidad, también converge con probabilidad 1 (casi con certeza).

Sea la secuencia xn converger a x en probabilidad. Demuestre que de esta secuencia es posible aislar una secuencia que converge a x con probabilidad 1 en.

Solución. Sea una secuencia de números positivos y sea y números positivos tales que la serie. Construyamos una secuencia de índices n1.

Entonces la serie


Dado que la serie converge, ¿para alguna? > 0 el resto de la serie tiende a cero. Pero luego tiende a cero y



Demuestre que la convergencia en promedio de cualquier orden positivo implica convergencia en probabilidad. Dé un ejemplo para demostrar que lo contrario no es cierto.

Solución. Sea la secuencia xn convergente a un valor x en promedio de orden p > 0, es decir



Utilicemos la desigualdad generalizada de Chebyshev: ¿arbitraria? > 0 y p > 0



Dirigiendo y teniendo en cuenta eso, obtenemos que



es decir, xn converge a x en probabilidad.

Sin embargo, la convergencia en probabilidad no implica una convergencia en promedio de orden p > 0. Esto se ilustra con el siguiente ejemplo. Considere el espacio de probabilidad áW, F, Rñ, donde F = B es el álgebra s de Borel, R es la medida de Lebesgue.

Definamos una secuencia de variables aleatorias de la siguiente manera:

La secuencia xn converge a 0 en probabilidad, ya que



pero para cualquier p > 0



es decir, no convergerá en promedio.

Vamos, que para todos n . Demuestre que en este caso xn converge a x en el cuadrado medio.

Solución. Tenga en cuenta que... Consigamos un presupuesto para. Consideremos una variable aleatoria. ¿Dejarlo? - un número positivo arbitrario. Luego a las y a las.



Si, entonces y. Por eso, . ¿Y porque? arbitrariamente pequeño y, luego, en, es decir, en la raíz cuadrática media.

Demuestre que si xn converge a x en probabilidad, entonces se produce una convergencia débil. Proporcione un ejemplo de prueba para demostrar que lo contrario no es cierto.

Solución. Demostremos que si, entonces en cada punto x, que es un punto de continuidad (esta es una condición necesaria y suficiente para una convergencia débil), está la función de distribución del valor xn, y - el valor de x.

Sea x un punto de continuidad de la función F. Si, entonces al menos una de las desigualdades o es verdadera. Entonces



De manera similar, para al menos una de las desigualdades o y






¿Si es tan pequeño como se desea? > 0 existe N tal que para todo n > N



Por otro lado, si x es un punto de continuidad, ¿es posible encontrar algo como esto? > 0, que para arbitrariamente pequeño



Entonces, ¿tan pequeño como quieras? y existe N tal que para n >N




o, lo que es lo mismo,



Esto significa que la convergencia se produce en todos los puntos de continuidad. En consecuencia, la convergencia débil se deriva de la convergencia en probabilidad.

La afirmación contraria, en términos generales, no se cumple. Para verificar esto, tomemos una secuencia de variables aleatorias que no son iguales a constantes con probabilidad 1 y tienen la misma función de distribución F(x). Suponemos que para todo n las cantidades y son independientes. Obviamente, se produce una convergencia débil, ya que todos los miembros de la secuencia tienen la misma función de distribución. Considerar:

|De la independencia e idéntica distribución de valores se deduce que




Elijamos entre todas las funciones de distribución de variables aleatorias no degeneradas, como F (x), que será distinta de cero para todas las ? suficientemente pequeñas. Entonces no tiende a cero con un crecimiento ilimitado de n y no se producirá convergencia en probabilidad.

7. Sea una convergencia débil, donde con probabilidad 1 hay una constante. Demuestre que en este caso convergerá a en probabilidad.

Solución. Sea la probabilidad 1 igual a a. Entonces una convergencia débil significa convergencia para cualquiera. Desde entonces a las y a las. Es decir, en y en. ¿Se sigue eso para alguien? > 0 probabilidad



tiende a cero en. Esto significa que

tiende a cero en, es decir, converge en probabilidad.

2.2 Resolución de problemas en la central de calefacción central.


El valor de la función gamma Г(x) en x= se calcula mediante el método de Monte Carlo. Encontremos el número mínimo de pruebas necesarias para que, con una probabilidad de 0,95, podamos esperar que el error relativo de los cálculos sea inferior al uno por ciento.

Para una precisión tenemos



Se sabe que



Habiendo realizado un cambio en (1), llegamos a la integral en un intervalo finito:



Con nosotros, por lo tanto


Como puede verse, se puede representar en la forma donde y se distribuye uniformemente. Que se realicen pruebas estadísticas. Entonces el análogo estadístico es la cantidad



donde, son variables aleatorias independientes con distribución uniforme. Al mismo tiempo



Del CLT se deduce que es asintóticamente normal con los parámetros.






Esto significa que el número mínimo de pruebas que garantizan con probabilidad el error relativo del cálculo no es más que igual.


Consideramos una secuencia de 2000 variables aleatorias independientes distribuidas idénticamente con una expectativa matemática de 4 y una varianza de 1,8. La media aritmética de estas cantidades es una variable aleatoria. Determine la probabilidad de que la variable aleatoria tome un valor en el intervalo (3.94; 4.12).

Sea,…,… una secuencia de variables aleatorias independientes que tienen la misma distribución con M=a=4 y D==1.8. Entonces el CLT es aplicable a la secuencia (). variable aleatoria

Probabilidad de que tome un valor en el intervalo ():



Para n=2000, 3,94 y 4,12 obtenemos



3 Prueba de hipótesis utilizando el criterio de independencia


Como resultado del estudio, se encontró que 782 padres de ojos claros también tienen hijos de ojos claros, y 89 padres de ojos claros tienen hijos de ojos oscuros. 50 padres de ojos oscuros también tienen hijos de ojos oscuros, y 79 padres de ojos oscuros tienen hijos de ojos claros. ¿Existe alguna relación entre el color de ojos de los padres y el color de ojos de sus hijos? Considere que el nivel de confianza es 0,99.


Tabla 2.1

NiñosPadresSumaOjos clarosOjos oscurosOjos claros78279861Ojos oscuros8950139Suma8711291000

H: No existe relación entre el color de ojos de los niños y los padres.

H: Existe una relación entre el color de ojos de los niños y los padres.



s=k=2 =90.6052 con 1 grado de libertad

Los cálculos se realizaron en Mathematica 6.

Dado que > , entonces la hipótesis H, sobre la ausencia de una relación entre el color de ojos de padres e hijos, a nivel de significancia, debe rechazarse y aceptarse la hipótesis alternativa H.


Se afirma que el efecto del fármaco depende del método de aplicación. Verifique esta afirmación utilizando los datos presentados en la tabla. 2.2 Considere que el nivel de confianza es 0,95.


Tabla 2.2

Resultado Método de aplicación ABC Desfavorable 111716 Favorable 202319

Solución.

Para resolver este problema utilizaremos una tabla de contingencia de dos características.


Tabla 2.3

Resultado Forma de aplicación Monto ABC Desfavorable 11171644 Favorable 20231962 Monto 314035106

H: el efecto de las drogas no depende del método de administración.

H: el efecto de las drogas depende del método de aplicación.

Las estadísticas se calculan utilizando la siguiente fórmula.



s=2, k=3, =0,734626 con 2 grados de libertad.


Cálculos realizados en Mathematica 6

De las tablas de distribución encontramos eso.

Desde< , то гипотезу H, про отсутствия зависимости действия лекарств от способа применения, при уровне значимости, следует принять.


Conclusión


Este artículo presenta cálculos teóricos de la sección “Criterio de Independencia”, así como “Teoremas de Límite de la Teoría de la Probabilidad”, del curso “Teoría de la Probabilidad y Estadística Matemática”. Durante el trabajo se puso a prueba en la práctica el criterio de independencia; Además, para secuencias dadas de variables aleatorias independientes, se comprobó el cumplimiento del teorema del límite central.

Este trabajo me ayudó a mejorar mi conocimiento de estas secciones de la teoría de la probabilidad, trabajar con fuentes literarias y dominar firmemente la técnica de verificar el criterio de independencia.

teorema de la hipótesis estadística probabilística

Lista de enlaces


1. Colección de problemas de la teoría de la probabilidad con soluciones. Uh. subsidio / Ed. V.V. Semenets. - Jarkov: KhTURE, 2000. - 320 p.

Gikhman I.I., Skorokhod A.V., Yadrenko M.I. Teoría de la probabilidad y estadística matemática. - K.: Escuela Vishcha, 1979. - 408 p.

Ivchenko G.I., Medvedev Yu.I., Estadística matemática: libro de texto. subsidio para colegios. - M.: Más alto. escuela, 1984. - 248 p., .

Estadística matemática: libro de texto. para universidades / V.B. Goryainov, I.V. Pavlov, G.M. Tsvetkova y otros; Ed. V.S. Zarubina, A.P. Krischenko. - M.: Editorial de MSTU im. NORDESTE. Bauman, 2001. - 424 p.


Tutoría

¿Necesitas ayuda para estudiar un tema?

Nuestros especialistas le asesorarán o brindarán servicios de tutoría sobre temas que le interesen.
Envía tu solicitud indicando el tema ahora mismo para conocer la posibilidad de obtener una consulta.

Fundamentos de la teoría de la probabilidad y la estadística matemática.

Fundamentos de la teoría de la probabilidad y estadística matemática Conceptos básicos de la teoría de la probabilidad El tema de estudio de la teoría de la probabilidad son los patrones cuantitativos de fenómenos aleatorios homogéneos de naturaleza masiva. Definición 1. Un evento es cualquier hecho posible del que se puede decir que sucede o no en determinadas condiciones. Ejemplo. Las ampollas confeccionadas que salen de la línea de montaje pueden ser estándar o no estándar. Un (cualquier) resultado de estos dos posibles se llama evento. Hay tres tipos de eventos: confiables, imposibles y aleatorios. Definición 2. Confiable es un evento que, si se cumplen ciertas condiciones, no puede dejar de suceder, es decir. Definitivamente sucederá. Ejemplo. Si la urna contiene sólo bolas blancas, entonces una bola extraída al azar de la urna siempre será blanca. En estas condiciones, el hecho de la aparición de una bola blanca será un hecho fiable. Definición 3. Imposible es un evento que, si se cumplen ciertas condiciones, no puede ocurrir. Ejemplo. No puedes sacar una bola blanca de una urna que contenga solo bolas negras. En estas condiciones, la aparición de una bola blanca será un hecho imposible. Definición 4. Aleatorio es un evento que, en las mismas condiciones, puede ocurrir, pero no ocurrir. Ejemplo. Una moneda lanzada al aire puede caer de modo que en su cara superior aparezca un escudo de armas o un número. Aquí, la aparición de una u otra cara de la moneda en la parte superior es un evento aleatorio. Definición 5. Una prueba es un conjunto de condiciones o acciones que pueden repetirse un número infinito de veces. Ejemplo. Lanzar una moneda al aire es una prueba y el posible resultado, es decir, la aparición de un escudo de armas o de un número en la parte superior de la moneda es un acontecimiento. Definición 6. Si los eventos A i son tales que durante una prueba determinada solo puede ocurrir uno de ellos y ningún otro no incluido en la totalidad, entonces estos eventos se denominan los únicos posibles. Ejemplo. La urna contiene bolas blancas y negras y ninguna otra. Una bola tomada al azar puede resultar blanca o negra. Estos eventos son los únicos posibles, porque Se excluye la aparición de una bola de otro color durante esta prueba. Definición 7. Dos eventos A y B se llaman incompatibles si no pueden ocurrir juntos durante una prueba determinada. Ejemplo. El escudo y el número son los únicos eventos posibles e incompatibles durante un solo lanzamiento de moneda. Definición 8. Dos eventos A y B se denominan conjuntos (compatibles) para una prueba determinada si la ocurrencia de uno de ellos no excluye la posibilidad de que ocurra otro evento durante la misma prueba. Ejemplo. Es posible que una cara y un número aparezcan juntos al lanzar dos monedas de una sola vez. Definición 9. Los eventos A i se consideran igualmente posibles en una prueba determinada si, debido a la simetría, hay motivos para creer que ninguno de estos eventos es más posible que los demás. Ejemplo. La aparición de cualquier cara durante el lanzamiento de un dado es un evento igualmente posible (siempre que el dado esté hecho de un material homogéneo y tenga la forma de un hexágono regular). Definición 10. Los eventos se denominan favorables (favorables) para un determinado evento si la ocurrencia de uno de estos eventos implica la ocurrencia de este evento. Los casos que excluyen la ocurrencia de un evento se denominan desfavorables para este evento. Ejemplo. La urna contiene 5 bolas blancas y 7 negras. Cuando tomas una bola al azar, puedes terminar con una bola blanca o negra en tus manos. En este caso, la aparición de una bola blanca se ve favorecida por 5 casos, y la aparición de una bola negra por 7 casos de un total de 12 casos posibles. Definición 11. Dos únicos eventos posibles e incompatibles se denominan opuestos entre sí. Si uno de estos eventos se designa con A, entonces el evento opuesto se designa con el símbolo Â. Ejemplo. Acertar y fallar; ganar y perder en un billete de lotería son ejemplos de eventos opuestos. Definición 12. Si, como resultado de cualquier operación masiva que consta de n experimentos u observaciones (pruebas) individuales similares, algún evento aleatorio aparece m veces, entonces el número m se llama frecuencia del evento aleatorio y la relación m / n se llama frecuencia. Ejemplo. Entre los primeros 20 productos que salieron de la línea de montaje, hubo 3 productos no estándar (defectuosos). Aquí el número de pruebas n = 20, la frecuencia de defectos m = 3, la frecuencia de defectos m / n = 3/20 = 0,15. Cada evento aleatorio bajo condiciones dadas tiene su propia posibilidad objetiva de ocurrencia, y para algunos eventos esta posibilidad de ocurrencia es mayor, para otros es menor. Para comparar cuantitativamente eventos entre sí en términos del grado de posibilidad de que ocurran, se asocia un cierto número real con cada evento aleatorio, expresando una evaluación cuantitativa del grado de posibilidad objetiva de que ocurra este evento. Este número se llama probabilidad del evento. Definición 13. La probabilidad de un determinado evento es una medida numérica de la posibilidad objetiva de que ocurra este evento. Definición 14. (Definición clásica de probabilidad). La probabilidad del evento A es la relación entre el número m de casos favorables a la ocurrencia de este evento y el número n de todos los casos posibles, es decir P(A) = m/n. Ejemplo. La urna contiene 5 bolas blancas y 7 negras, bien mezcladas. ¿Cuál es la probabilidad de que una bola extraída al azar de una urna sea blanca? Solución. En esta prueba sólo hay 12 casos posibles, de los cuales 5 favorecen la aparición de una bola blanca. Por tanto, la probabilidad de que aparezca una bola blanca es P = 5/12. Definición 15. (Definición estadística de probabilidad). Si, con un número suficientemente grande de ensayos repetidos en relación con algún evento A, se observa que la frecuencia del evento fluctúa alrededor de un número constante, entonces el evento A tiene una probabilidad P(A), aproximadamente igual a la frecuencia, es decir P(A)~m/n. La frecuencia de un evento durante un número ilimitado de intentos se llama probabilidad estadística. Propiedades básicas de la probabilidad. 1 0 Si el evento A implica el evento B (A  B), entonces la probabilidad del evento A no excede la probabilidad del evento B. P(A)≤P(B) 2 0 Si los eventos A y B son equivalentes (A  B, B  A, B=A), entonces sus probabilidades son iguales a P(A)=P(B). 3 0 La probabilidad de cualquier evento A no puede ser un número negativo, es decir Р(А)≥0 4 0 La probabilidad de un evento confiable  es igual a 1. Р()=1. 5 0 La probabilidad de un evento imposible  es 0. Р(  )=0. 6 0 La probabilidad de cualquier evento aleatorio A se encuentra entre cero y uno 0<Р(А)<1 Основные формулы комбинаторики Определение 1 . Различные группы по m предметов, составленные из n однородных предметов ( m , n ), называются соединениями. Предметы, из которых составляют различные соединения, называют элементами. Существует 3 вида соединений: размещения, перестановки, сочетания. Определение 2. Размещениями по m элементов из данных n элементов ( m ≤ n ) называют такие соединения, которые отличаются друг от друга либо самими элементами, либо их порядком. Например, размещениями из трех предметов a , b и c по два будут следующие соединения: ab , ac , bc , ca , cb , ba . Число размещений из данных n элементов по m обозначают символом А n m = n ( n -1)( n -2)·....·( n - m +1). Пример. А 10 4 =10·9·8·7=5040. Определение 3. Перестановками из n элементов называют такие соединения, которые отличаются друг от друга только порядком элементов. Р n =А n n = n ( n -1)( n -2)...·3·2·1= n ! По определению 0!=1. Пример. Р 5 =5!=1·2·3·4·5=120. Определение 4. Сочетаниями из n элементов по m называются также соединения, которые отличаются друг от друга, по меньшей мере, одним элементом и каждое из которых содержит m различных элементов: C n m === Пример. Найти число сочетаний из 10 элементов по четыре. Решение. C 10 4 ==210. Пример. Найти число сочетаний из 20 элементов по 17. Решение. ==1040. Теоремы теории вероятностей Теорема сложения вероятностей Теорема 1 . Вероятность наступления одного какого-либо события из двух несовместимых событий А и В равно сумме вероятностей этих событий Р(А+В)=Р(А)+Р(В ). Пример. В урне 5 красных, 7 синих и 8 белых шаров, перемешанных между собой. Какова вероятность того, что взятый наугад один шар окажется не красным? Решение. Не красный шар - это или белый или синий шары. Вероятность появления белого шара (событие А) равна Р(А)= 8/20 = 2/5. Вероятность появления синего шара (событие В) равна Р(В)= 7/20. Событие, состоящее в появлении не красного шара, означает появление или А или В, т.к. события А и В несовместимы, то применима теорема 1. Искомая вероятность будет равна Р(А+В)=Р(А)+Р(В)=2/5+ +7/20=3/4. Теорема 2. Вероятность наступления одного из двух событий A или B равно сумме вероятностей этих событий минус вероятность их совместного появления P ( A + B )= P ( A )+ P ( B )+ P ( AB ). Теорема умножения вероятностей Определение 1. Два события A и B называются независимыми друг от друга, если вероятность одного из них не зависит от наступления или ненаступления другого. Пример. Пусть A - событие, состоящее в появлении герба при первом бросании монеты, а B - событие, состоящее в появлении герба при втором бросании монеты, то события A и B не зависят друг от друга, т.е. результат первого бросания монеты не может изменить вероятность появления герба при втором бросании монеты. Определение 2. Два события A и B называются зависящими друг от друга, если вероятность одного из них зависит от наступления или ненаступления другого. Пример. В урне 8 белых и 7 красных шаров, перемешанных между собой. Событие A - появление белого шара, а событие B - появление красного шара. Будем брать из урны наугад два раза по одному шару, не возвращая их обратно. До начала испытания вероятность появления события A равна P ( A )=8/15, и вероятность события B равна P ( B )=7/15. Если предположить, что в первый раз был взят белый шар (событие A ), то вероятность появления события B при втором испытании будет P ( B )=7/14=1/2. Если в первый раз был взят красный шар, то вероятность появления красного шара при втором извлечении равна P ( B )=6/14=3/7. Определение 3. Вероятность события B , вычисленная в предположении, что перед этим наступило связанное с ним событие A , называется условной вероятностью события B и обозначается PA ( B ). Теорема 3 . Вероятность совместного наступления двух зависимых событий ( A и B ) равна произведению вероятности одного из них на условную вероятность другого, вычисленную в предположении, что первое событие произошло, т.е. P ( AB )= P ( A )· P A ( B )= P ( B )· P B ( A ). Теорема 4. Вероятность совместного наступления нескольких зависимых событий равно произведению вероятности одного из них на условные вероятности всех остальных событий, вычисленные в предположении, что все предыдущие события уже наступили: P(A 1 A 2 A 3 ...A k )=P(A 1 )·P A1 (A 2 )·P A1A2 ·P(A 3 )...·P A1A2…A k-1 (A k ) Теорема 5 . Вероятность совместного наступления двух независимых событий A и B равна произведению вероятностей этих событий P ( AB )= P ( A )· P ( B ). Теорема 6 . Вероятность совместного наступления нескольких независимых событий A 1 , A 2 , ... A k равна произведению их вероятностей, т.е. P ( A 1 A 2 ... A k )= P ( A 1 )· P ( A 2 )·...· P ( A k ). Пример. Два стрелка делают одновременно по одному выстрелу в одну цель. Какова вероятность того, что оба попадут, если известно, что первый стрелок в среднем дает 7 попаданий, а второй 8 попаданий на каждые 10 выстрелов? Какова вероятность поражения мишени? Решение. Вероятность попадания первого стрелка (событие A ) равна P ( A )=0,8, вероятность попадания второго стрелка (событие B ) равна P ( B )=0,7. События A и B независимы друг от друга, поэтому вероятность совместного наступления этих событий (совместное попадание в цель) найдем по теореме умножения для независимых событий: P ( AB )= P ( A ) P ( B )=0,8·0,7=0,56. Вероятность поражения мишени означает попадание в мишень хотя бы одного стрелка. Так как попадание в мишень первого и второго стрелков являются событиями совместными, то применение теоремы сложения вероятностей для совместных событий дает следующий результат: P(A+B)=P(A)+P(B)-P(AB)=P(A)+P(B)-P(A)·P(B)=0,8+0,7- 0,8·0,7=0,94. 5.3.3. Формула полной вероятности Определение 4. Если при некотором испытании может произойти одно какое-либо событие из нескольких несовместных A 1 , A 2 ,..., A k , и при этом никаких других событий быть не может, но одно из указанных событий обязательно произойдет, то группу событий A 1 , A 2 ,..., A k называют полной группой событий. Теорема 7. Сумма вероятностей событий, образующих полную группу, равна единице: P ( A 1 )+ P ( A 2 )+...+ P ( A k )=1. Следствие. Сумма вероятностей двух противоположных событий равна единице: P ( A )+ P ( A )=1. Если вероятность одного события обозначим через p , вероятность противоположного ему события обозначим через q , тогда p + q =1. Пример. Вероятность попадания в цель равна 0,94. Найти вероятность непопадания. Решение . Попадание в цель и непопадание являются противоположными событиями, поэтому, если p =0,94, то q =1- p =1-0,94=0,06. Теорема 8 . Если случайные события A 1 , A 2 ... A n образуют полную систему, и если событие B может осуществляться только совместно с каким-нибудь одним из этих событий, то вероятность наступления события B можно определить по формуле: P(B)=P(A 1 )P A1 (B)+P(A 2 )P A2 (B)+...+P(A n )P A n (B) Это равенство называется формулой полной вероятности . Пример. На склад готовой продукции поступили изделия из трех цехов, в том числе: 30% из I -го цеха, 45% из II цеха и 25% из III цеха. Среди изделий I цеха брак составляет 0,6%, по II цеху 0,4% и по III цеху-0,16%. Какова вероятность того, что взятое наугад для контроля одно изделие окажется с браком? Решение. Одно изделие может быть взято или из продукции I цеха (событие A 1 ), или из продукции II цеха (событие A 2 ), или из продукции III цеха (событие A 3 ). Вероятности этих событий будут: P ( A 1 )=0,30; P ( A 2 )=0,45; P ( A 3 )=0,25. Вероятность того, что изделие с браком (событие B ) будет взято из продукции I цеха, есть условная вероятность P A 1 ( B ). Она равна P A 1 ( B )=0,006. Вероятность того, что изделие с браком будет взято из продукции II цеха P A 2 ( B )=0,004 и из продукции III цеха P A 3 ( B )=0,0016. Теперь по формуле полной вероятности найдем вероятность того, что взятое наугад одно изделие будет с браком: P(B)=P(A 1 )P A1 (B)+P(A 2 )P A2 (B)+...+P(A 3 )P A3 (B) = 0,3·0,006+0,45·0,004+0,25·0,0016=0,004. Формула Бернулли Теорема 9. Пусть производится n независимых повторных испытаний по отношению к некоторому событию A . Пусть вероятность появления этого события в каждом отдельном испытании остается неизменно равной p , а вероятность появления противоположного события Ā, есть q . Тогда вероятность появления интересующего нас события A равно m раз при указанных n испытаниях рассчитывается по формуле Бернулли: P m , n = p m q n - m , так как, то P m , n = · p m · q n - m Пример. Коэффициент использования станка в среднем равен 0,8. В цехе имеется 5 станков. Какова вероятность того, что в некоторый момент времени окажутся работоспособными только 3 станка? Решение. Задача подходит под схему повторных испытаний и решается по формуле Бернулли: n =5, m =3, p =0,8 и q =1-0,8=0,2: P 3,5 = (0,8) 3 ·(0,2) 2 =0,2084. Асимптотическая формула Пуассона В статистической практике нередко встречаются такие примеры независимых испытаний, когда при большом числе n независимых испытаний вероятность Р появления события в каждом отдельном испытании оказывается сравнительно малой величиной, стремящейся к нулю с увеличением числа испытаний . При этих условиях для вычисления вероятности Р m , n появление события m раз в n испытаниях пользуются асимптотической формулой Пуассона : Р m,n ≈e -a , где a=np Пример. Доля брака всей продукции завода составляет 0,5%. Какова вероятность того, что в партии, состоящей из 400 изделий, окажется три изделия бракованных? Решение. В условии примера дано p =0,005, n =400, m =3, следовательно, a = np =400·0,005=2. Вероятность данного события найдем по формуле Пуассона Р m , n (3,400) = 0,1804. Случайные величины и их числовые характеристики Определение 1. Случайной величиной называется переменная величина, которая в результате опыта принимает одно значение, причем неизвестно заранее, какое именно. Определение 2. Дискретной называется случайная величина, которая может принимать лишь отдельные, изолированные друг от друга значения. Случайная дискретная величина задается законом распределения, связывающим принимаемые ею значения x i и вероятности их принятия p i . Закон распределения чаще всего задается в табличной форме. Графическое представление закона распределения случайной дискретной величины – многоугольник распределения . Числовые характеристики дискретной случайной величины. 1) Математическое ожидание. Определение 3. Математическое ожидание случайной дискретной величины X с конечным числом значений называется сумма произведений возможных ее значений на их вероятности: M ( X ) = μ = x 1 p 1 + x 2 p 2 +...+ x n p n = . Вероятности всех значений случайной дискретной величины удовлетворяют условию нормировки: Свойства математического ожидания. 1 0 Математическое ожидание постоянной (неслучайной) величины С равно самой постоянной M ( C )= C . 2 0 Математическое ожидание алгебраической суммы нескольких случайных величин равно алгебраической сумме математических ожиданий слагаемых M ( X 1 ± X 2 ±...± X n ) = M ( X 1 ) ± M ( X 2 ) ±…± M ( X n ). 3 0 Константу можно вынести за знак математического ожидания M ( CX )= CM ( X ). 4 0 Математическое ожидание произведения нескольких независимых случайных величин равно произведению математических ожиданий этих величин: M ( X 1 X 2 ... X n ) = M ( X 1 ) M ( X 2 )... M ( X ) n . 2) Дисперсия дискретной случайной величины. Определение 4. Дисперсией случайной дискретной величины X называется математическое ожидание квадрата отклонения этой величины от ее математического ожидания. D ( X ) = M {[ X - M ( X )] 2 } = , где M ( X ) = μ Для вычисления дисперсии более удобна формула: D ( X )= M ( X 2 )-[ M ( X )] 2 , т.е. дисперсия случайной величины равна разности между математическим ожиданием квадрата этой величины и квадратом ее математического ожидания. Свойства дисперсии. 1 0 Дисперсия постоянной величины равна нулю D (С) = 0. 2 0 Постоянный множитель можно выносить за знак дисперсии, предварительно возведя его в квадрат: D ( CX ) = C 2 D ( X ). 3 0 Дисперсия суммы нескольких независимых случайных величин равна сумме дисперсий этих величин: D ( X 1 +...+ X n ) = D ( X 1 )+...+ D ( X n ). 4 0 Дисперсия разности двух независимых случайных величин равна сумме дисперсий этих величин D ( X - Y )= D ( X )+ D ( Y ). 3). Среднее квадратическое отклонение Определение 5 . Средним квадратическим отклонением случайной величины называется квадратный корень из дисперсии σ ( X )=. Пример. Найти математическое ожидание и дисперсию случайной величины X , которая задана следующим законом распределения: Решение. Найдем математическое ожидание: M ( x )=1·0,3+2·0,5+5·0,2=2,3. Найдем все возможные значения квадрата отклонения. [ x 1 - M ( x )] 2 =(1-2,3) 2 =1,69 [ x 2 - M ( x )] 2 =(2-2,3) 2 =0,09 [ x 3 - M ( x )] 2 =(5-2,3) 2 =7,29 Напишем закон распределения квадрата отклонения Найдем дисперсию: D ( x )=1,69·0,3+0,09·0,5+7,29·0,2=2,01. Числовые характеристики непрерывной случайной величины. Определение 6. Непрерывной называют случайную величину, которая может принимать все значения из некоторого конечного или бесконечного промежутка. Определение 7. Интегральной функцией распределения называют функцию F ( x ), определяющую для каждого значения x вероятность того, что случайная величина X примет значение меньше x , т.е. F ( x )= P ( X < x ). Свойства интегральной функции распределения 1 0 Значения интегральной функции распределения принадлежат отрезку 0≤ F ( x ) ≤1. 2 0 Функция распределения есть неубывающая функция. Следствие 1. Вероятность того, что случайная величина X попадет в интервал ( a , b ), равна приращению ее интегральной функции распределения на этом интервале P ( a < x < b )= F ( b )- F ( a ). Следствие 2. Вероятность того, что случайная непрерывная величина X примет одно определенное значение равна нулю P ( X = x 1 )=0. 3 0 Если возможные значения случайной величины X принадлежат интервалу ( a , b ), то F ( x )=0 при x ≤ a и F ( x )=1 при x ≥ a . Определение 8. Дифференциальной функцией распределения f ( x ) (или плотностью вероятности) называется производная от интегральной функции f ( x )= F "( x ). Интегральная функция является первообразной для дифференциальной функции, поэтому вероятность того, что случайная непрерывная величина x примет значение, принадлежащее интервалу ( a , b ), определяется равенством: P ( a < x < b )== F ( b )- F ( a )Зная дифференциальную функцию, можно найти функцию распределения: F ( x )= Свойства дифференциальной функции распределения 1 0 Дифференциальная функция распределения есть функция неотрицательная f ( x ) ≥0 2 0 Несобственный интеграл от дифференциальной функции распределения равен единице (условие нормировки): . 1) Математическое ожидание. Математическим ожиданием случайной непрерывной величины X , возможные значения которой прина д лежат отрезку ( a , b ), называется опр е деленный интеграл: M ( X ) = , где f ( x )-плотность вероятности случайной величины X . 2) Дисперсия. Дисперсия непрерывной случайной величины X есть математическое ожидание квадрата отклонения зтой величины от ее математического жидания D(X) = M{ 2 }.Следовательно, если возможные значения случайной величины X принадлежат отрезку ( a ; b ), то D ( x )= или D ( x )= 3) Среднее квадратическое отклонение определяется так: σ ( x ) = Пример. Найти дисперсию случайной величины X , заданной интегральной функцией F ( x )= Решение. Найдем дифференциальную функцию: f ( x )= F ’ ( x )= Выислим математическое ожидание M ( x ) = . Найдем искомую дисперсию D ( x ) = = = 2/4=4/3. Вероятность попадания нормально распределенной случайной величины X в заданный интервал Определение 9. Распределение вероятностей случайной непрерывной величины X называется нормальным, если плотность вероятности описывается формулой: , где μ - математическое ожидание, σ - среднее квадратическое отклонение. Определение 10. Нормальное распределение с параметрами μ = 0, σ = 1 называется нормированным или стандартным. Плотность вероятности нормированного нормального распределения описывается следующей формулой: . Значения данной функции для неотрицательных значений затабулированы. В силу четности функции φ ( x ) значения для отрицательных чисел легко определить φ (- x )= φ ( x ). Пример. Математическое ожидание нормального распределенной случайной величины X равно μ =3 и среднее квадратическое отклонение σ =2. Написать дифференциальную функцию X . Решение. f ( x )= Если случайная величина X распределена по нормальному закону, то вероятность ее попадания в интервал ( a , b ) определяется следующим о б разом: P(aS2=DB= = , que es una estimación insesgada de la varianza general DГ. Para estimar la desviación estándar de la población, se utiliza la desviación estándar “corregida”, que es igual a la raíz cuadrada de la varianza “corregida”. S= Definición 14. Se denomina intervalo de confianza (θ*-δ;θ*+δ), que cubre un parámetro desconocido con una confiabilidad γ dada. El intervalo de confianza para estimar la expectativa matemática de una distribución normal con una desviación estándar conocida σ se expresa mediante la fórmula: =2Ф(t)=γ donde ε=tδ/ es la precisión de la estimación. El número t se determina a partir de la ecuación: 2Ф(t)=γ según las tablas de la función de Laplace. Ejemplo. La variable aleatoria X tiene una distribución normal con una desviación estándar conocida σ=3. Encuentre intervalos de confianza para estimar la expectativa matemática desconocida μ utilizando las medias muestrales X, si el tamaño de la muestra es n = 36 y la confiabilidad de la estimación se da γ = 0,95. Solución. Encontremos t a partir de la relación 2Ф(t)=0,95; Ф(t)=0,475. De las tablas encontramos t = 1,96. Encontremos la precisión de la estimación σ =tδ/=1,96·3/= 0,98. Intervalo de confianza (x -0,98; x +0,98). Los intervalos de confianza para estimar la expectativa matemática de una distribución normal con una σ desconocida se determinan utilizando la distribución de Student con k=n-1 grados de libertad: T= , donde S es la desviación estándar “corregida”, n es el tamaño de la muestra. A partir de la distribución de Student, el intervalo de confianza cubre el parámetro desconocido μ con confiabilidad γ: o, donde tγ es el coeficiente de Student encontrado a partir de los valores de γ (confiabilidad) y k (número de grados de libertad) de las tablas. Ejemplo. La característica cuantitativa X de la población se distribuye normalmente. Con base en un tamaño de muestra de n=16, se encontró la media muestral xB=20,2 y la desviación cuadrática “media corregida” S=0,8. Estime la expectativa matemática desconocida m utilizando un intervalo de confianza con confiabilidad γ = 0,95. Solución. De la tabla encontramos: tγ = 2,13. Encontremos los límites de confianza: =20,2-2,13·0,8=19,774 y =20,2+ +2,13·0,8/=20,626. Entonces, con una confiabilidad de 0,95, el parámetro desconocido μ está en el intervalo 19,774<μ <20,626. .Элементы теории корреляции Определение 1. Статистической называют зависимость, при которой изменение одной из величин влечет изменение распределения другой. Определение 2. Если при изменении одной из величин изменяетсясреднее значение другой величины, то такая статистическая зависимость называется корреляционной. Пример. ПустьY-урожай зерна,X-количество удобрений. С одинаковых по площади участков земли при равных количествах внесенных удобрений снимают различный урожай, т.е.Y не является функциейX. Это объясняется влиянием случайных факторов (осадки, температура воздуха и т.д.) Вместе с тем средний урожай является функцией от количества удобрений, т.е.Y связан сX корреляционной зависимостью. Определение 3. Среднее арифметическое значение величиныY, вычисленное при условии, чтоX принимает фиксированное значение, называется условным средним и обозначается. Определение 4. Условным средним называют среднее арифметическое наблюдавшихся значенийx, соответствующихY=y. Можно составить таблицу, определяющую соответствие между значениямиxi и условными среднимиyxi, а затем в декартовой системе координат строят точкиM(xi;yxi) и соединяют их отрезками прямых. Полученная линия называется эмпирической линией регрессииY наX. Аналогично строится эмпирическая линия регрессииX наY. Если точкиMi(xi;yxi) иNi(xy;y) располагаются вдоль прямой, то линия регрессии называется линией прямой регрессии и операция "сглаживания" ломаной сводится к нахождению параметровa иb функцииy=ax+b. Из двух нормальных уравнений: находят коэффициентыa иb. ρxy=a== выборочный коэффициент регрессии признакаY наX. b== Уравнение прямой линии регрессии признакаY наX имеет вид: - =ρyx(x-). Проведя аналогичные расчеты, можно получить следующие математические выражения, характеризующие прямую регрессию признакаX наY:x=cy+d. ρyx=c= = - выборочный коэффициент регрессии признакаX наY. d= - свободный член уравнения. = - уравнение прямой линии регрессии признакаX наY. Показателем тесноты связи являетсякоэффициент корреляции, используемый только при линейной корреляции:r = =. Для решения задач удобна следующая формула: r == . В формуле для коэффициента корреляцииr = числитель дроби всегда меньше знаменателя, следовательно, коэффициент корреляции - всегда правильная дробь между нулем и единицей -1≤r≤+1. Положительное значениеr указывает на прямую связь между признаками; отрицательное - на обратную связь между ними. Данные для корреляционного анализа могут быть сгруппированы в виде корреляционной таблицы. Рассмотрим пример. Пусть проведено наблюдение двух признаков (X иY) у 15 объектов. Составлена следующая таблица первичных данных: Упорядочим первичные данные, поместив их в таблицу: В первом столбце запишем в порядке возрастания значенияxi: 8,9,10,11, а во второй строке - в том же порядке значенияyi: 18,20,24,27,30. На пересечении строк и столбцов запишем число повторений одинаковых пар (xi;yi) в ряду наблюдений. Требуется установить и оценить зависимость случайной величиныY от величиныX, используя данные корреляционной таблицы. n = 15 - объем выборки Используем формулы для корреляционных расчетов. Уравнение регрессииX наY: xy=cy +d =ρxyy+d, где ρxy=. Величина коэффициента корреляцииr=± С учетом частотnx иny формулы регрессионного анализа несколько видоизменяется: ρxy=, где; ; ; ; . .Проверка статистических гипотез. Определение 1. Статистической называют гипотезу о виде неизвестного распределения или о параметрах известных распределений. Определение 2. Нулевой (основной) называют выдвинутую гипотезуH0. Определение 3. Конкурирующей (альтернативной) называют гипотезуH1, которая противоречит нулевой. Определение 4. Статистическим критерием называют специально подобранную величину, распределение которой известно (хотя бы приближенно), которая используется для проверки статистической гипотезы. Определение 5. Критической областью называют совокупность значений критерия, при которых нулевую гипотезу отвергают. Определение 6. Областью принятия гипотезы (областью допустимых значений) называют совокупность значений критерия, при которых нулевую гипотезу принимают. Основной принцип проверки статистических гипотез: если наблюдаемое значение критерия принадлежит критической области, то нулевую гипотезу отвергают; если наблюдаемое значение критерия принадлежит области принятия гипотезы, то гипотезу принимают. Определение 7. Критическими точками (границами)kkp называют точки, отделяющие критическую область от области принятия гипотезы. Определение 8. Правосторонней называют критическую область, определяемую неравенствомK>kkp, donde kkp>0. Definición 9. Zurdo es la región crítica definida por la desigualdad K k2 donde k2>k1. Para encontrar la región crítica, establezca el nivel de significancia α y busque puntos críticos basándose en las siguientes relaciones: a) para la región crítica de la derecha P(K>kkp)=α; b) para la región crítica del lado izquierdo P(K<-kkp)=α; в) для двусторонней критической областиP(K>kkp)=α/2 y P(K<-kkp)=α/2. Пример. По двум независимым выборкам, объемы которыхn1=11 иn2=14, извлеченным из нормальных генеральных совокупностейX иY, найдены исправленные выборочные дисперсииSx2=0,76;Sy2=0,38. При уровне зависимостиα=0,05 проверить нулевую гипотезуH0:Д(x)=Д(y) о равенстве генеральных дисперсий, при конкурирующей гипотезе:H1:Д(x)>Solución D(y). Encontremos la relación entre la varianza corregida grande y la más pequeña: Fobs = =2. Dado que H1:D(x)>D(y), entonces la región crítica es diestra. Usando la tabla, usando α = 0,05 y los números de grados de libertad k1 = n1-1 = 10; k2 = n2-1 = 13, encontramos el punto crítico Fcr (0,05; 10,13) = 2,67. Desde Fobs. Mamá lavó el marco


Al final de las largas vacaciones de verano, es hora de regresar lentamente a las matemáticas superiores y abrir solemnemente el archivo Verdov vacío para comenzar a crear una nueva sección: . Lo admito, las primeras líneas no son fáciles, pero el primer paso es la mitad del camino, por lo que sugiero que todos estudien detenidamente el artículo introductorio, después de lo cual dominar el tema será 2 veces más fácil. No estoy exagerando en absoluto. …En vísperas del próximo 1 de septiembre, recuerdo el primer grado y la primaria…. Las letras forman sílabas, las sílabas forman palabras, las palabras forman oraciones cortas: mamá lavó el marco. ¡Dominar la estadística matemática y de Turver es tan fácil como aprender a leer! Sin embargo, para ello es necesario conocer los términos, conceptos y designaciones clave, así como algunas reglas específicas, que son el tema de esta lección.

Pero primero, acepte mis felicitaciones por el inicio (continuación, finalización, marca según corresponda) del año escolar y acepte el regalo. El mejor regalo es un libro, y para el trabajo independiente recomiendo la siguiente literatura:

1) Gmurman V.E. Teoría de la probabilidad y estadística matemática.

Un libro de texto legendario que ha pasado por más de diez reimpresiones. Se distingue por su inteligibilidad y presentación extremadamente simple del material, y creo que los primeros capítulos ya son completamente accesibles para los estudiantes de los grados 6-7.

2) Gmurman V.E. Guía para la resolución de problemas de teoría de la probabilidad y estadística matemática.

Un libro de soluciones del mismo Vladimir Efimovich con ejemplos y problemas detallados.

NECESARIAMENTE¡Descarga ambos libros de Internet o consigue sus originales en papel! También funcionará la versión de los años 60 y 70, lo que es aún mejor para los tontos. Aunque la frase "teoría de la probabilidad para tontos" suena bastante ridícula, ya que casi todo se limita a operaciones aritméticas elementales. Sin embargo, se saltan en algunos lugares. derivados Y integrales, pero esto es sólo en algunos lugares.

Intentaré lograr la misma claridad de presentación, pero debo advertir que mi curso está dirigido a resolución de problemas y los cálculos teóricos se mantienen al mínimo. Por lo tanto, si necesita una teoría detallada, pruebas de teoremas (¡teoremas-teoremas!), consulte el libro de texto. Bueno quien quiere aprender a resolver problemas en teoría de la probabilidad y estadística matemática en el menor tiempo posible, ¡sígueme!

Eso es suficiente para empezar =)

A medida que lea los artículos, es recomendable familiarizarse (al menos brevemente) con tareas adicionales de los tipos considerados. en la pagina Soluciones listas para usar para matemáticas superiores Se publicarán los correspondientes pdf con ejemplos de soluciones. También se proporcionará una importante ayuda IDZ 18.1 Ryabushko(más simple) y IDZ resuelto según la colección de Chudesenko(más difícil).

1) Cantidad dos eventos y el evento se llama cual es que sucederá o evento o evento o ambos eventos al mismo tiempo. En el caso de que los acontecimientos incompatible, la última opción desaparece, es decir, puede ocurrir o evento o evento .

La regla también se aplica a un mayor número de términos, por ejemplo, el evento es lo que pasará al menos uno de eventos , A si los eventos son incompatiblesentonces una cosa y solo una cosa evento de esta cantidad: o evento , o evento , o evento , o evento , o evento .

Hay muchos ejemplos:

Eventos (al tirar un dado no aparecerán 5 puntos) es lo que aparecerá o 1, o 2, o 3, o 4, o 6 puntos.

Evento (se eliminará no más dos puntos) es que aparecerá 1 o 2agujas.

Evento (habrá un número par de puntos) es lo que aparece o 2 o 4 o 6 puntos.

El evento es que se sacará una carta roja (corazón) de la baraja. o pandereta), y el evento – que se extraerá la “imagen” (jack o dama o rey o as).

Un poco más interesante es el caso de los eventos conjuntos:

El evento es que se sacará un trébol de la baraja. o Siete o siete de tréboles Según la definición dada anteriormente, al menos algo- o cualquier trébol o cualquier siete o su "intersección" - siete de tréboles. Es fácil calcular que este evento corresponde a 12 resultados elementales (9 cartas de tréboles + 3 sietes restantes).

El evento es que mañana a las 12.00 vendrá AL MENOS UNO de los eventos conjuntos sumables, a saber:

– o sólo habrá lluvia/sólo tormenta/sólo sol;
– o sólo ocurrirá un par de eventos (lluvia + tormenta / lluvia + sol / tormenta + sol);
– o los tres eventos aparecerán simultáneamente.

Es decir, el evento incluye 7 resultados posibles.

El segundo pilar del álgebra de eventos:

2) La obra dos eventos y llamar a un evento que consiste en la ocurrencia conjunta de estos eventos, en otras palabras, la multiplicación significa que bajo algunas circunstancias habrá Y evento , Y evento . Una afirmación similar es cierta para un mayor número de eventos, por ejemplo, una obra implica que bajo ciertas condiciones sucederá. Y evento , Y evento , Y evento , …, Y evento .

Considere una prueba en la que se lanzan dos monedas y los siguientes eventos:

– aparecerá cara en la primera moneda;
– la primera moneda saldrá cara;
– aparecerá cara en la segunda moneda;
– la segunda moneda saldrá cara.

Entonces:
Y el 2) aparecerán cabezas;
– el evento es que en ambas monedas (el día 1 Y el 2) será cara;
– el evento es que la primera moneda saldrá cara Y la segunda moneda es cruz;
– el evento es que la primera moneda saldrá cara Y en la segunda moneda hay un águila.

Es fácil ver que los acontecimientos incompatible (porque, por ejemplo, no puede caer 2 caras y 2 cruces al mismo tiempo) y forma grupo completo (ya que se tiene en cuenta Todo posibles resultados de lanzar dos monedas). Resumamos estos eventos: . ¿Cómo interpretar esta entrada? Muy simple: la multiplicación significa un conectivo lógico. Y, y además - O. Así, la cantidad es fácil de leer en un lenguaje humano comprensible: “aparecerán dos cabezas o dos cabezas o la primera moneda saldrá cara Y en la segunda cola o la primera moneda saldrá cara Y en la segunda moneda hay un águila"

Este fue un ejemplo cuando en una prueba Se trata de varios objetos, en este caso dos monedas. Otro esquema común en problemas prácticos es volver a probar , cuando, por ejemplo, se lanza el mismo dado 3 veces seguidas. Como demostración, considere los siguientes eventos:

– en el 1er lanzamiento obtendrás 4 puntos;
– en el segundo lanzamiento obtendrás 5 puntos;
– en el 3er lanzamiento obtendrás 6 puntos.

Entonces el evento es que en el 1er lanzamiento obtendrás 4 puntos Y en el 2do lanzamiento obtendrás 5 puntos Y en el tercer lanzamiento obtendrás 6 puntos. Evidentemente, en el caso de un cubo habrá significativamente más combinaciones (resultados) que si estuviéramos lanzando una moneda.

...Entiendo que quizás los ejemplos que se analizan no sean muy interesantes, pero son cosas que se encuentran muchas veces en los problemas y no hay forma de escapar de ellas. Además de una moneda, un cubo y una baraja de cartas, te esperan urnas con bolas multicolores, varias personas anónimas disparando a un objetivo y un trabajador incansable que constantemente está puliendo algunos detalles =)

probabilidad de evento

probabilidad de evento es el concepto central de la teoría de la probabilidad. ... Algo muy lógico, pero teníamos que empezar por algún lado =) Hay varios enfoques para su definición:

;
Definición geométrica de probabilidad. ;
Definición estadística de probabilidad .

En este artículo me centraré en la definición clásica de probabilidad, que es la más utilizada en tareas educativas.

Designaciones. La probabilidad de un determinado evento se indica con una letra latina mayúscula y el evento en sí se coloca entre paréntesis, actuando como una especie de argumento. Por ejemplo:


Además, la letra minúscula se utiliza mucho para indicar probabilidad. En particular, puede abandonar las engorrosas designaciones de eventos y sus probabilidades. a favor del siguiente estilo::

– la probabilidad de que al lanzar una moneda salga cara;
– la probabilidad de que una tirada de dados dé como resultado 5 puntos;
– la probabilidad de que se saque de la baraja una carta del palo de trébol.

Esta opción es popular a la hora de resolver problemas prácticos, ya que permite reducir significativamente la grabación de la solución. Como en el primer caso, aquí es conveniente utilizar subíndices/superíndices “parlantes”.

Todos han adivinado durante mucho tiempo los números que acabo de escribir arriba, y ahora descubriremos cómo resultaron:

Definición clásica de probabilidad:

La probabilidad de que ocurra un evento en una determinada prueba se llama razón, donde:

– número total de todos igualmente posible, elemental resultados de esta prueba, que forman grupo completo de eventos;

- cantidad elemental resultados, favorable evento.

Al lanzar una moneda, puede caer cara o cruz; estos eventos se forman grupo completo, por tanto, el número total de resultados; al mismo tiempo, cada uno de ellos elemental Y igualmente posible. El evento se ve favorecido por el resultado (cara). Según la definición clásica de probabilidad: .

De manera similar, como resultado del lanzamiento de un dado, pueden aparecer resultados elementales igualmente posibles, formando un grupo completo, y el evento se ve favorecido por un único resultado (tirar un cinco). Es por eso: ESTO NO ESTÁ ACEPTO HACER (aunque no está prohibido estimar porcentajes mentalmente).

Es habitual utilizar fracciones de una unidad., y, obviamente, la probabilidad puede variar dentro de . Además, si , entonces el evento es imposible, Si - confiable, y si , entonces estamos hablando de aleatorio evento.

! Si mientras resuelves cualquier problema obtienes algún otro valor de probabilidad, ¡busca el error!

En el enfoque clásico para determinar la probabilidad, los valores extremos (cero y uno) se obtienen exactamente mediante el mismo razonamiento. Saque 1 bola al azar de cierta urna que contiene 10 bolas rojas. Considere los siguientes eventos:

En un solo ensayo no ocurrirá un evento de baja probabilidad..

Esta es la razón por la que no ganarás el premio mayor de la lotería si la probabilidad de que se produzca este evento es, digamos, 0,00000001. Sí, sí, eres tú, el único billete en una determinada circulación. Sin embargo, una mayor cantidad de boletos y una mayor cantidad de sorteos no le ayudarán mucho. ...Cuando les cuento esto a otros, casi siempre escucho como respuesta: “pero alguien gana”. Bien, entonces hagamos el siguiente experimento: compre un boleto para cualquier lotería hoy o mañana (¡no se demore!). Y si ganas... bueno, al menos más de 10 kilorublos, asegúrate de registrarte; te explicaré por qué sucedió esto. Por un porcentaje, por supuesto =) =)

Pero no hay por qué estar triste, porque existe un principio opuesto: si la probabilidad de algún evento es muy cercana a uno, entonces en una sola prueba sucederá. casi seguro sucederá. Por eso, antes de lanzarse en paracaídas, no hay que tener miedo, al contrario, ¡sonríe! Después de todo, deben surgir circunstancias completamente impensables y fantásticas para que ambos paracaídas fallen.

Aunque todo esto es lirismo, ya que dependiendo del contenido del evento, el primer principio puede resultar alegre y el segundo, triste; o incluso ambos son paralelos.

Quizás eso sea suficiente por ahora, en clase. Problemas de probabilidad clásicos sacaremos el máximo partido a la fórmula. En la parte final de este artículo, consideraremos un teorema importante:

La suma de las probabilidades de eventos que forman un grupo completo es igual a uno.. En términos generales, si los eventos forman un grupo completo, entonces con un 100% de probabilidad uno de ellos sucederá. En el caso más simple, un grupo completo está formado por eventos opuestos, por ejemplo:

– como resultado del lanzamiento de una moneda, aparecerá cara;
– el resultado del lanzamiento de una moneda será cruz.

Según el teorema:

Está absolutamente claro que estos eventos son igualmente posibles y sus probabilidades son las mismas. .

Debido a la igualdad de probabilidades, los eventos igualmente posibles a menudo se denominan igualmente probable . Y aquí hay un trabalenguas para determinar el grado de intoxicación =)

Ejemplo con un cubo: los eventos son opuestos, por lo tanto .

El teorema considerado es conveniente porque le permite encontrar rápidamente la probabilidad del evento opuesto. Entonces, si se conoce la probabilidad de que salga un cinco, es fácil calcular la probabilidad de que no salga:

Esto es mucho más sencillo que sumar las probabilidades de cinco resultados elementales. Por cierto, para resultados elementales, este teorema también es cierto:
. Por ejemplo, si es la probabilidad de que el tirador dé en el blanco, entonces es la probabilidad de que falle.

! En la teoría de la probabilidad, no es deseable utilizar letras para otros fines.

En honor al Día del Conocimiento, no pondré tarea =), pero es muy importante que puedas responder las siguientes preguntas:

– ¿Qué tipos de eventos existen?
– ¿Qué es el azar y la igual posibilidad de un evento?
– ¿Cómo entiende usted los términos compatibilidad/incompatibilidad de eventos?
– ¿Qué es un grupo completo de eventos, eventos opuestos?
– ¿Qué significa la suma y multiplicación de eventos?
– ¿Cuál es la esencia de la definición clásica de probabilidad?
– ¿Por qué es útil el teorema de la suma de probabilidades de eventos que forman un grupo completo?

No, no es necesario que abarrotes nada, estos son solo los conceptos básicos de la teoría de la probabilidad, una especie de manual que rápidamente encajará en tu cabeza. Y para que esto suceda lo antes posible, te sugiero que te familiarices con las lecciones.

para estudiantes de 2do año de todas las especialidades

Departamento de Matemáticas Superiores

Parte introductoria

¡Estimados alumnos!

Llamamos su atención sobre una conferencia de revisión (introductoria) del profesor N.Sh. Kremer sobre la disciplina "Teoría de la probabilidad y estadística matemática" para estudiantes de segundo año de VZFEI.

La conferencia discute tareas estudiar teoría de la probabilidad y estadística matemática en una universidad de economía y su lugar en el sistema de formación de un economista moderno, se considera organización independiente Se entrega el trabajo de los estudiantes utilizando un sistema de capacitación basado en computadora (CTS) y libros de texto tradicionales. resumen de las principales disposiciones este curso, así como recomendaciones metodológicas para su estudio.

Entre las disciplinas matemáticas que se estudian en una universidad de economía, la teoría de la probabilidad y la estadística matemática ocupan un lugar especial. En primer lugar, es la base teórica de las disciplinas estadísticas. En segundo lugar, en el estudio se utilizan directamente los métodos de la teoría de la probabilidad y la estadística matemática. agregados de masa fenómenos observados, procesar resultados de observaciones e identificar patrones de fenómenos aleatorios. Finalmente, la teoría de la probabilidad y la estadística matemática tienen una importancia metodológica importante en proceso cognitivo, al identificar un patrón general investigado procesos, sirve como una lógica base razonamiento inductivo-deductivo.

Cada estudiante de segundo año deberá tener el siguiente conjunto (caso) en la disciplina “Teoría de la probabilidad y estadística matemática”:

1. Conferencia de orientación general en esta disciplina.

2. Libro de texto n.sh. Kremer “Teoría de la probabilidad y estadística matemática” - M.: UNITY - DANA, 2007 (en adelante lo llamaremos simplemente “libro de texto”).

3. Manual educativo y metodológico.“Teoría de la probabilidad y estadística matemática” / ed. n.sh. Kremer. – M.: Libro de texto universitario, 2005 (en adelante, “manual”).

4. Programa de formación informática. COPR para la disciplina (en adelante denominado “programa de computadora”).

En el sitio web del instituto, en la página "Recursos corporativos", se publican versiones en línea del programa informático KOPR2, una conferencia de orientación general y una versión electrónica del manual. Además, el programa informático y el manual se presentan en CD - memoria de sólo lectura Ah para estudiantes de segundo año. Por tanto, en “forma papel” el alumno sólo necesita disponer de un libro de texto.

Expliquemos el propósito de cada uno de los materiales educativos incluidos en el conjunto (estuche) especificado.

en el libro de texto Se presentan las principales disposiciones del material educativo de la disciplina, ilustradas por un número suficientemente grande de problemas resueltos.

EN beneficios Se dan recomendaciones metodológicas para el estudio independiente del material educativo, se resaltan los conceptos más importantes del curso y tareas típicas, se dan preguntas de prueba para el autoexamen en esta disciplina, opciones para las pruebas caseras que el estudiante debe completar, así como metodológicas. Se dan instrucciones para su implementación.

programa de computadora está diseñado para brindarle la máxima asistencia para dominar el curso en el modo diálogo programa con un estudiante para compensar en la mayor medida su falta de formación en el aula y contacto adecuado con el profesor.

Para un estudiante que estudia a través del sistema de educación a distancia, la importancia primordial y decisiva es organización del trabajo independiente.

Cuando comience a estudiar esta disciplina, lea esta conferencia general (introductoria) hasta el final. Esto le permitirá tener una idea general de los conceptos y métodos básicos utilizados en el curso “Teoría de la probabilidad y estadística matemática”, y los requisitos para el nivel de formación de los estudiantes de VZFEI.

Antes de estudiar cada tema Lea las pautas para estudiar este tema en el manual. Aquí encontrarás una lista de preguntas educativas sobre este tema que estudiarás; descubra qué conceptos, definiciones, teoremas y problemas son los más importantes que deben estudiarse y dominarse primero.

Luego procede a estudiar. material educativo basico según el libro de texto de acuerdo con las recomendaciones metodológicas recibidas. Le recomendamos que tome notas en un cuaderno aparte sobre las principales definiciones, enunciados de teoremas, diagramas de sus demostraciones, fórmulas y soluciones a problemas típicos. Es recomendable escribir las fórmulas en tablas especiales para cada parte del curso: teoría de la probabilidad y estadística matemática. El uso regular de notas, en particular tablas de fórmulas, ayuda a memorizarlas.

Solo después de trabajar con el material educativo básico de cada tema del libro de texto se podrá pasar a estudiar este tema utilizando un programa de formación en informática (KOPR2).

Preste atención a la estructura del programa informático para cada tema. Después del nombre del tema, hay una lista de las principales cuestiones educativas del tema en el libro de texto, indicando el número de párrafos y páginas que deben estudiarse. (Recuerde que en el manual también se proporciona una lista de estas preguntas para cada tema).

Luego, en forma breve, se proporciona material de referencia sobre este tema (o sobre párrafos individuales de este tema): definiciones básicas, teoremas, propiedades y características, fórmulas, etc. Mientras estudias un tema, también puedes mostrar en pantalla aquellos fragmentos de material de referencia (sobre este tema o sobre temas anteriores) que se necesitan en este momento.

Luego se le ofrece material de formación y, por supuesto, tareas estándar ( ejemplos), cuya solución se considera en el modo diálogo programas con un estudiante. Las funciones de una serie de ejemplos se limitan a mostrar en pantalla las etapas de la solución correcta a petición del alumno. Al mismo tiempo, en el proceso de considerar la mayoría de los ejemplos, se le harán preguntas de una naturaleza u otra. Las respuestas a algunas preguntas deben ingresarse usando el teclado. respuesta numérica, a otros - Elige la respuesta (o respuestas) correcta. de varias propuestas.

Dependiendo de la respuesta ingresada, el programa confirma su exactitud o sugiere, después de leer la sugerencia que contiene los principios teóricos necesarios, intentar nuevamente dar la solución y la respuesta correctas. Muchas tareas tienen un límite en el número de intentos de solución (si se excede este límite, necesariamente se muestra en la pantalla el progreso correcto de la solución). También hay ejemplos en los que la cantidad de información contenida en la pista aumenta a medida que se repiten los intentos fallidos de responder.

Luego de familiarizarte con los principios teóricos del material educativo y los ejemplos, que se acompañan de un análisis detallado de la solución, deberás realizar ejercicios de autocontrol para consolidar tus habilidades en la resolución de problemas típicos de cada tema. Las tareas de autocontrol también contienen elementos de diálogo con el alumno. Después de completar la solución, puedes mirar la respuesta correcta y compararla con la que diste.

Al final del trabajo sobre cada tema, se deben realizar tareas de control. Las respuestas correctas no se le muestran a usted y sus respuestas se registran en el disco duro de la computadora para su posterior revisión por parte del profesor-consultor (tutor).

Después de estudiar los temas 1 a 7, debe completar la prueba casera No. 3, y después de estudiar los temas 8 a 11, la prueba casera No. 4. Las variantes de estas pruebas se dan en el manual (su versión electrónica). El número de la opción que se ejecuta debe coincidir con el último dígito de su número de expediente personal (libro de calificaciones, cédula de estudiante). Para cada prueba deberás someterte a una entrevista, durante la cual deberás demostrar tu capacidad para resolver problemas y conocimiento de conceptos básicos (definiciones, teoremas (sin demostración), fórmulas, etc.) sobre el tema de la prueba. El estudio de la disciplina finaliza con un examen del curso.

La teoría de la probabilidad es una ciencia matemática que estudia los patrones de fenómenos aleatorios.

La disciplina que se ofrece para el estudio consta de dos secciones, "Teoría de la probabilidad" y "Estadística matemática".



LA CAMPANA

Hay quienes leyeron esta noticia antes que tú.
Suscríbete para recibir artículos nuevos.
Correo electrónico
Nombre
Apellido
¿Cómo quieres leer La Campana?
Sin spam