LA CLOCHE

Il y a ceux qui ont lu cette nouvelle avant vous.
Abonnez-vous pour recevoir de nouveaux articles.
E-mail
Nom
Nom de famille
Comment voulez-vous lire La Cloche ?
Pas de spam

Théorie des probabilités et statistiques mathématiques

  • Agekyan T.A. Fondamentaux de la théorie des erreurs pour les astronomes et les physiciens (2e éd.). M. : Nauka, 1972 (djvu, 2,44 Mo)
  • Agekyan T.A. Théorie des probabilités pour les astronomes et les physiciens. M. : Nauka, 1974 (djvu, 2,59 Mo)
  • Anderson T. Analyse statistique des séries chronologiques. M. : Mir, 1976 (djvu, 14M)
  • Bakelman I.Ya. Werner A.L. Kantor B.E. Introduction à la géométrie différentielle "en général". M. : Nauka, 1973 (djvu, 5,71 Mo)
  • Bernstein S.N. Théorie des probabilités. M.-L. : GI, 1927 (djvu, 4,51 Mo)
  • Billingsley P. Convergence des mesures de probabilité. M. : Nauka, 1977 (djvu, 3,96 Mo)
  • Encadré J. Jenkins G. Analyse des séries chronologiques : prévisions et gestion. Numéro 1. M. : Mir, 1974 (djvu, 3,38 Mo)
  • Encadré J. Jenkins G. Analyse des séries chronologiques : prévisions et gestion. Numéro 2. M. : Mir, 1974 (djvu, 1,72 M)
  • Borel E. Probabilité et fiabilité. M. : Nauka, 1969 (djvu, 1,19 Mo)
  • Van der Waerden B.L. Statistiques mathématiques. M. : IL, 1960 (djvu, 6,90 M)
  • Vapnik V.N. Récupération de dépendances basées sur des données empiriques. M. : Nauka, 1979 (djvu, 6,18 Mo)
  • Ventzel E.S. Introduction à la recherche opérationnelle. M. : Radio soviétique, 1964 (djvu, 8,43 Mo)
  • Ventzel E.S. Éléments de théorie des jeux (2e éd.). Série : Conférences populaires sur les mathématiques. Numéro 32. M. : Nauka, 1961 (djvu, 648 Ko)
  • Ventstel E.S. Théorie des probabilités (4e éd.). M. : Nauka, 1969 (djvu, 8,05M)
  • Ventstel E.S., Ovcharov L.A. Théorie des probabilités. Tâches et exercices. M. : Nauka, 1969 (djvu, 7,71 Mo)
  • Vilenkin N.Ya., Potapov V.G. Un cahier d'exercices pratiques sur la théorie des probabilités avec des éléments de combinatoire et de statistiques mathématiques. M. : Éducation, 1979 (djvu, 1,12 Mo)
  • Gmurman V.E. Un guide pour résoudre des problèmes de théorie des probabilités et de statistiques mathématiques (3e éd.). M. : Plus haut. école, 1979 (djvu, 4,24 Mo)
  • Gmurman V.E. Théorie des probabilités et statistiques mathématiques(4e éd.). M. : Ecole Supérieure, 1972 (djvu, 3,75 M)
  • Gnedenko B.V., Kolmogorov A.N. Distributions limites pour les sommes de variables aléatoires indépendantes. M.-L. : GITTL, 1949 (djvu, 6,26 Mo)
  • Gnedenko B.V., Khinchin A.Ya. Une introduction élémentaire à la théorie des probabilités (7e éd.). M. : Nauka, 1970 (djvu, 2,48 Mo)
  • Chêne J.L. Processus probabilistes. M. : IL, 1956 (djvu, 8,48 Mo)
  • David G. Statistiques ordinales. M. : Nauka, 1979 (djvu, 2,87M)
  • Ibragimov I.A., Linnik Yu.V. Grandeurs liées indépendantes et stationnaires. M. : Nauka, 1965 (djvu, 6,05 M)
  • Idier V., Dryard D., James F., Rus M., Sadoulet B. Méthodes statistiques en physique expérimentale. M. : Atomizdat, 1976 (djvu, 5,95M)
  • Kamalov M.K. Distribution formes quadratiques dans des échantillons provenant d’une population normale. Tachkent : Académie des sciences de l'OuzSSR, 1958 (djvu, 6,29 Mo)
  • Kassandra O.N., Lebedev V.V. Traitement des résultats d'observation. M. : Nauka, 1970 (djvu, 867 Ko)
  • Katz M. Probabilités et problèmes connexes en physique. M. : Mir, 1965 (djvu, 3,67 Mo)
  • Katz M. Plusieurs problèmes probabilistes de physique et de mathématiques. M. : Nauka, 1967 (djvu, 1,50 M)
  • Katz M. Indépendance statistique en théorie des probabilités, analyse et théorie des nombres. M. : IL, 1963 (djvu, 964 Ko)
  • Kendall M., Moran P. Probabilités géométriques. M. : Nauka, 1972 (djvu, 1,40 M)
  • Kendall M., Stewart A. Volume 2. Inférence statistique et connexions. M. : Nauka, 1973 (djvu, 10M)
  • Kendall M., Stewart A. Volume 3. Analyse statistique multivariée et séries chronologiques. M. : Nauka, 1976 (djvu, 7,96 Mo)
  • Kendall M., Stewart A. Vol. 1. Théorie des distributions. M. : Nauka, 1965 (djvu, 6,02 Mo)
  • Kolmogorov A.N. Concepts de base de la théorie des probabilités (2e éd.) M. : Nauka, 1974 (djvu, 2,14 Mo)
  • Kolchin V.F., Sevastyanov B.A., Chistyakov V.P. Placements aléatoires. M. : Nauka, 1976 (djvu, 2,96 Mo)
  • Kramer G. Méthodes mathématiques de statistiques (2e éd.). M. : Mir, 1976 (djvu, 9,63 Mo)
  • Leman E. Test d'hypothèses statistiques. M. : Sciences. 1979 (djvu, 5,18 Mo)
  • Linnik Yu.V., Ostrovsky I.V. Décompositions de variables aléatoires et de vecteurs. M. : Nauka, 1972 (djvu, 4,86 ​​Mo)
  • Likholetov I.I., Matskevich I.P. Un guide pour résoudre des problèmes en mathématiques supérieures, en théorie des probabilités et en statistiques mathématiques (2e éd.). Mn. : Vysh. école, 1969 (djvu, 4,99 Mo)
  • Loev M. Théorie des probabilités. M. : IL, 1962 (djvu, 7,38 Mo)
  • Malakhov A.N. Analyse cumulative de processus aléatoires non gaussiens et de leurs transformations. M. : Sov. radio, 1978 (djvu, 6,72 Mo)
  • Meshalkin L.D. Recueil de problèmes sur la théorie des probabilités. M. : MSU, 1963 (djvu, 1 004 Ko)
  • Mitropolski A.K. Théorie des moments. M.-L. : GIKSL, 1933 (djvu, 4,49 Mo)
  • Mitropolski A.K. Techniques de calcul statistique (2e éd.). M. : Nauka, 1971 (djvu, 8,35M)
  • Mosteller F., Rurke R., Thomas J. Probabilité. M. : Mir, 1969 (djvu, 4,82 Mo)
  • Nalimov V.V. Application des statistiques mathématiques à l'analyse de la matière. M. : GIFML, 1960 (djvu, 4,11 Mo)
  • Neveu J. Fondements mathématiques de la théorie des probabilités. M. : Mir, 1969 (djvu, 3,62 Mo)
  • Preston K. Mathématiques. Nouveau dans la science étrangère n°7. Gibbs déclare sur des ensembles dénombrables. M. : Mir, 1977 (djvu, 2,15 M)
  • Savelyev L.Ya. Théorie élémentaire des probabilités. Partie 1. Novossibirsk : NSU, 2005 (

Théorie des probabilités et statistiques mathématiques


1. PARTIE THÉORIQUE


1 Convergence des séquences de variables aléatoires et des distributions de probabilité


En théorie des probabilités, nous devons traiter différents types convergence de variables aléatoires. Considérons les principaux types de convergence suivants : par probabilité, avec probabilité un, par ordre p, par distribution.

Soit,... des variables aléatoires définies sur un espace de probabilité (, Ф, P).

Définition 1. Une séquence de variables aléatoires, ... est dite converger en probabilité vers une variable aléatoire (notation :), si pour tout > 0


Définition 2. Une séquence de variables aléatoires, ... est dite converger avec une probabilité un (presque certainement, presque partout) vers une variable aléatoire si


ceux. si l'ensemble des résultats pour lesquels () ne convergent pas vers () a une probabilité nulle.

Ce type de convergence est noté comme suit : , ou, ou.

Définition 3. Une séquence de variables aléatoires... est appelée moyenne convergente d'ordre p, 0< p < , если


Définition 4. Une séquence de variables aléatoires... est dite converger en distribution vers une variable aléatoire (notation :) si pour toute fonction continue bornée


La convergence dans la distribution des variables aléatoires est définie uniquement en termes de convergence de leurs fonctions de distribution. Il est donc logique de parler de ce type de convergence même lorsque des variables aléatoires sont spécifiées dans différents espaces de probabilité.

Théorème 1.

a) Pour que (P-a.s.), il soit nécessaire et suffisant que pour tout > 0

) La séquence () est fondamentale avec une probabilité un si et seulement si pour tout > 0.

Preuve.

a) Soit A = (: |- | ), A = A. Alors



Par conséquent, l’énoncé a) est le résultat de la chaîne d’implications suivante :

P(: )= 0 P() = 0 = 0 P(A) = 0, m 1 P(A) = 0, > 0 P() 0, n 0, > 0 P( ) 0,

n 0, > 0.) Notons = (: ), = . Alors (: (()) n'est pas fondamental ) = et de la même manière qu'en a) on montre que (: (()) n'est pas fondamental ) = 0 P( ) 0, n.

Le théorème est prouvé


Théorème 2. (Critère de Cauchy pour une convergence presque certaine)

Pour qu'une séquence de variables aléatoires () converge avec une probabilité un (vers une variable aléatoire), il est nécessaire et suffisant qu'elle soit fondamentale avec une probabilité un.

Preuve.

Si, alors +

d'où découle la nécessité des conditions du théorème.

Laissez maintenant la séquence () être fondamentale avec une probabilité un. Notons L = (: (()) non fondamental). Alors pour toutes les suites de nombres () est fondamentale et, selon le critère de Cauchy pour les suites de nombres, il existe (). Mettons



Cette fonction définie est une variable aléatoire et.

Le théorème a été prouvé.


2 Méthode des fonctions caractéristiques


La méthode des fonctions caractéristiques est l'un des principaux outils de l'appareil analytique de la théorie des probabilités. Outre les variables aléatoires (en prenant des valeurs réelles), la théorie des fonctions caractéristiques nécessite l'utilisation de variables aléatoires à valeurs complexes.

De nombreuses définitions et propriétés relatives aux variables aléatoires sont facilement transférables au cas complexe. Ainsi, l'espérance mathématique M ?variable aléatoire à valeur complexe ?=?+?? est considéré comme déterminé s'il est déterminé attentes mathématiques M ?et M ?. Dans ce cas, par définition nous supposons M ?=M ? + ?M ?. De la définition de l'indépendance des éléments aléatoires, il s'ensuit que les quantités à valeurs complexes ?1 =?1+??1 , ?2=?2+??2sont indépendants si et seulement si des paires de variables aléatoires sont indépendantes ( ?1 , ?1) Et ( ?2 , ?2), ou, ce qui revient au même, indépendant ?-algèbre F ?1, ?1 et F ?2, ?2.

Avec l'espace L 2variables aléatoires réelles avec un moment second fini, nous pouvons introduire en considération l'espace de Hilbert des variables aléatoires à valeurs complexes ?=?+?? avec M | ?|2?|2= ?2+?2, et le produit scalaire ( ?1 , ?2)=M ?1?2¯ , Où ?2¯ - variable aléatoire conjuguée complexe.

Dans les opérations algébriques, les vecteurs Rn sont traités comme des colonnes algébriques,



En tant que vecteurs lignes, a* - (a1,a2,…,an). Si Rn , alors leur produit scalaire (a,b) sera compris comme une quantité. C'est clair que

Si aRn et R=||rij|| est une matrice d'ordre nхn, alors



Définition 1. Soit F = F(x1,....,xn) - fonction de distribution à n dimensions dans (, ()). Sa fonction caractéristique est appelée fonction


Définition 2 . Si? = (?1,…,?n) est un vecteur aléatoire défini sur un espace de probabilité avec des valeurs dans, alors sa fonction caractéristique est appelée la fonction



où est F ? = F?(х1,….,хn) - fonction de distribution vectorielle ?=(?1,…, ?n).

Si la fonction de distribution F(x) a une densité f = f(x), alors



Dans ce cas, la fonction caractéristique n'est rien d'autre que la transformée de Fourier de la fonction f(x).

De (3) il résulte que la fonction caractéristique ??(t) d'un vecteur aléatoire peut également être définie par l'égalité



Propriétés de base des fonctions caractéristiques (dans le cas de n=1).

Laissez-le ? = ?(?) - variable aléatoire, F? =F? (x) est sa fonction de distribution et est la fonction caractéristique.

Il convient de noter que si, alors.



En fait,

où nous avons profité du fait que l'espérance mathématique du produit de variables aléatoires indépendantes (limitées) est égale au produit de leurs espérances mathématiques.

La propriété (6) est essentielle pour prouver des théorèmes limites pour des sommes de variables aléatoires indépendantes par la méthode des fonctions caractéristiques. À cet égard, la fonction de distribution s'exprime à travers les fonctions de distribution de termes individuels d'une manière beaucoup plus complexe, à savoir où le signe * signifie une convolution des distributions.

Chaque fonction de distribution dans peut être associée à une variable aléatoire qui a cette fonction comme fonction de distribution. Par conséquent, lors de la présentation des propriétés des fonctions caractéristiques, nous pouvons nous limiter à considérer les fonctions caractéristiques des variables aléatoires.

Théorème 1. Laissez-le ? - une variable aléatoire de fonction de répartition F=F(x) et - sa fonction caractéristique.

Les propriétés suivantes ont lieu :

) est uniformément continue dans ;

) est une fonction à valeur réelle si et seulement si la distribution de F est symétrique


)si pour certains n? 1 , alors pour tout il y a des dérivées et



)Si existe et est fini, alors

) Soit pour tout n ? 1 et


alors pour tout |t|

Le théorème suivant montre que la fonction caractéristique détermine de manière unique la fonction de distribution.

Théorème 2 (unicité). Soient F et G deux fonctions de distribution ayant la même fonction caractéristique, c'est-à-dire pour tout



Le théorème dit que la fonction de distribution F = F(x) peut être restaurée de manière unique à partir de sa fonction caractéristique. Le théorème suivant donne une représentation explicite de la fonction F en termes de.

Théorème 3 (formule de généralisation). Soit F = F(x) la fonction de distribution et sa fonction caractéristique.

a) Pour deux points a, b (a)< b), где функция F = F(х) непрерывна,


) Si alors la fonction de distribution F(x) a une densité f(x),



Théorème 4. Pour que les composantes d'un vecteur aléatoire soient indépendantes, il faut et suffisant que sa fonction caractéristique soit le produit des fonctions caractéristiques des composantes :


Théorème de Bochner-Khinchin . Soit une fonction continue Pour qu'elle soit caractéristique, il faut et suffisant qu'elle soit définie non négative, c'est-à-dire pour tout réel t1, ... , tn et tout nombre complexe.



Théorème 5. Soit la fonction caractéristique d'une variable aléatoire.

a) Si pour certains, alors la variable aléatoire est un treillis avec un pas, c'est-à-dire


) Si pour deux points différents, où est un nombre irrationnel, alors est-ce une variable aléatoire ? est dégénéré :



où a est une constante.

c) Si, alors est-ce une variable aléatoire ? dégénérer.


1.3 Théorème central limite pour les variables aléatoires indépendantes distribuées de manière identique


Soit () une séquence de variables aléatoires indépendantes et identiquement distribuées. Attente M= a, variance D= , S = , et Ф(х) est la fonction de distribution de la loi normale avec les paramètres (0,1). Introduisons une autre séquence de variables aléatoires



Théorème. Si 0<<, то при n P(< x) Ф(х) равномерно относительно х ().

Dans ce cas, la séquence () est dite asymptotiquement normale.

Du fait que M = 1 et des théorèmes de continuité, il s'ensuit qu'en plus de la convergence faible, FM f() Mf() pour tout f continu borné, il existe également une convergence M f() Mf() pour tout f continu , tel que |f(x)|< c(1+|x|) при каком-нибудь.

Preuve.

La convergence uniforme est ici une conséquence d’une faible convergence et continuité de Ф(x). De plus, sans perte de généralité, nous pouvons supposer a = 0, car sinon nous pourrions considérer la séquence (), et la séquence () ne changerait pas. Par conséquent, pour prouver la convergence requise, il suffit de montrer que (t) e lorsque a = 0. On a

(t) = , où =(t).


Puisque M existe, alors la décomposition existe et est valide



Donc pour n

Le théorème a été prouvé.


1.4 Les principales tâches de la statistique mathématique, leur brève description


L'établissement de modèles qui régissent les phénomènes aléatoires de masse repose sur l'étude de données statistiques - les résultats d'observations. La première tâche des statistiques mathématiques est d'indiquer les moyens de collecter et de regrouper les informations statistiques. La deuxième tâche de la statistique mathématique est de développer des méthodes d'analyse des données statistiques, en fonction des objectifs de l'étude.

Lors de la résolution d’un problème de statistiques mathématiques, il existe deux sources d’informations. Le premier et le plus précis (explicite) est le résultat d'observations (expériences) sous la forme d'un échantillon provenant d'une population générale d'une variable aléatoire scalaire ou vectorielle. Dans ce cas, la taille de l’échantillon n peut être fixe ou elle peut augmenter au cours de l’expérience (c’est-à-dire que des procédures d’analyse statistique dite séquentielle peuvent être utilisées).

La deuxième source est constituée de toutes les informations a priori sur les propriétés d'intérêt de l'objet étudié, accumulées jusqu'au moment présent. Formellement, la quantité d'informations a priori se reflète dans le modèle statistique initial choisi pour résoudre le problème. Cependant, il n'est pas nécessaire de parler d'une détermination approximative au sens habituel de la probabilité d'un événement basée sur les résultats d'expériences. Par détermination approximative d'une quantité quelconque, on entend généralement qu'il est possible d'indiquer des limites d'erreur à l'intérieur desquelles une erreur ne se produira pas. La fréquence de l'événement est aléatoire pour un nombre quelconque d'expériences en raison du caractère aléatoire des résultats des expériences individuelles. En raison du caractère aléatoire des résultats des expériences individuelles, la fréquence peut s'écarter considérablement de la probabilité de l'événement. Par conséquent, en définissant la probabilité inconnue d'un événement comme la fréquence de cet événement sur un grand nombre d'expériences, nous ne pouvons pas indiquer les limites d'erreur et garantir que l'erreur ne dépassera pas ces limites. Par conséquent, dans les statistiques mathématiques, nous ne parlons généralement pas de valeurs approximatives de quantités inconnues, mais de leurs valeurs appropriées, estimations.

Le problème de l’estimation de paramètres inconnus se pose dans les cas où la fonction de répartition de la population est connue à un paramètre près. Dans ce cas, il est nécessaire de trouver une statistique dont la valeur d'échantillon pour la mise en œuvre xn considérée d'un échantillon aléatoire pourrait être considérée comme une valeur approximative du paramètre. Une statistique dont la valeur d'échantillon pour toute réalisation xn est prise comme valeur approximative d'un paramètre inconnu est appelée une estimation ponctuelle ou simplement une estimation, et est la valeur d'une estimation ponctuelle. Une estimation ponctuelle doit satisfaire à des exigences très spécifiques pour que sa valeur d'échantillon corresponde à la valeur réelle du paramètre.

Une autre approche pour résoudre le problème considéré est également possible : trouver de telles statistiques et, de sorte qu'avec probabilité ? l'inégalité suivante est vraie :



Dans ce cas, nous parlons d'estimation d'intervalle pour. Intervalle



est appelé l'intervalle de confiance pour le coefficient de confiance ?.

Après avoir évalué l'une ou l'autre caractéristique statistique sur la base des résultats d'expériences, la question se pose : dans quelle mesure l'hypothèse (hypothèse) selon laquelle la caractéristique inconnue a exactement la valeur qui a été obtenue à la suite de son évaluation avec les données expérimentales est-elle cohérente ? C'est ainsi qu'apparaît la deuxième classe importante de problèmes en statistique mathématique : les problèmes de test d'hypothèses.

En un sens, le problème du test d’une hypothèse statistique est l’inverse du problème de l’estimation des paramètres. Lors de l’estimation d’un paramètre, nous ne savons rien de sa vraie valeur. Lors du test d’une hypothèse statistique, pour une raison quelconque, sa valeur est supposée connue et il est nécessaire de vérifier cette hypothèse sur la base des résultats de l’expérience.

Dans de nombreux problèmes de statistiques mathématiques, des séquences de variables aléatoires sont considérées, convergeant dans un sens ou dans un autre vers une certaine limite (variable aléatoire ou constante), quand.

Ainsi, les tâches principales de la statistique mathématique sont le développement de méthodes permettant de trouver des estimations et d'étudier l'exactitude de leur approximation des caractéristiques évaluées et le développement de méthodes permettant de tester des hypothèses.


5 Tester des hypothèses statistiques : concepts de base


La tâche consistant à développer des méthodes rationnelles pour tester des hypothèses statistiques est l'une des tâches principales de la statistique mathématique. Une hypothèse statistique (ou simplement une hypothèse) est toute déclaration sur le type ou les propriétés de la distribution de variables aléatoires observées dans une expérience.

Soit un échantillon qui est la réalisation d'un échantillon aléatoire provenant d'une population générale, dont la densité de distribution dépend d'un paramètre inconnu.

Les hypothèses statistiques concernant la valeur réelle inconnue d'un paramètre sont appelées hypothèses paramétriques. De plus, s'il s'agit d'un scalaire, alors nous parlons d'hypothèses à un paramètre, et s'il s'agit d'un vecteur, alors nous parlons d'hypothèses à plusieurs paramètres.

Une hypothèse statistique est dite simple si elle a la forme

où est une valeur de paramètre spécifiée.

Une hypothèse statistique est dite complexe si elle a la forme


où est un ensemble de valeurs de paramètres composé de plusieurs éléments.

Dans le cas du test de deux hypothèses statistiques simples de la forme

où sont deux valeurs données (différentes) du paramètre, la première hypothèse est généralement appelée la principale et la seconde est appelée l'hypothèse alternative ou concurrente.

Le critère, ou critère statistique, pour tester les hypothèses est la règle par laquelle, sur la base de données d'échantillon, une décision est prise quant à la validité de la première ou de la deuxième hypothèse.

Le critère est spécifié à l’aide d’un ensemble critique, qui est un sous-ensemble de l’espace échantillon d’un échantillon aléatoire. La décision est prise comme suit :

) si l'échantillon appartient à l'ensemble critique, alors rejetez l'hypothèse principale et acceptez l'hypothèse alternative ;

) si l'échantillon n'appartient pas à l'ensemble critique (c'est-à-dire qu'il appartient au complément de l'ensemble à l'espace échantillon), alors l'hypothèse alternative est rejetée et l'hypothèse principale est acceptée.

Lors de l'utilisation d'un critère, les types d'erreurs suivants sont possibles :

1) accepter une hypothèse lorsqu'elle est vraie - une erreur de première espèce ;

)accepter une hypothèse alors qu’elle est vraie est une erreur de type II.

Les probabilités de commettre des erreurs des premier et deuxième types sont indiquées par :

où est la probabilité d'un événement à condition que l'hypothèse soit vraie. Les probabilités indiquées sont calculées à l'aide de la fonction de densité de distribution d'un échantillon aléatoire :

La probabilité de commettre une erreur de type I est également appelée niveau de signification du critère.

La valeur égale à la probabilité de rejeter l’hypothèse principale lorsqu’elle est vraie est appelée puissance du test.


1.6 Critère d'indépendance


Il existe un échantillon ((XY), ..., (XY)) d'une distribution bidimensionnelle

L avec une fonction de distribution inconnue pour laquelle il faut tester l'hypothèse H : , où sont des fonctions de distribution unidimensionnelles.

Un simple test d’adéquation pour l’hypothèse H peut être construit sur la base de la méthodologie. Cette technique est utilisée pour les modèles discrets avec un nombre fini de résultats, nous convenons donc que la variable aléatoire prend un nombre fini s de certaines valeurs, que nous désignerons par des lettres, et la deuxième composante - k valeurs. Si le modèle d'origine a une structure différente, les valeurs possibles des variables aléatoires sont préalablement regroupées séparément en première et deuxième composantes. Dans ce cas, l'ensemble est divisé en s intervalles, la valeur définie en k intervalles et la valeur elle-même définie en N = sk rectangles.

Notons par le nombre d'observations de la paire (le nombre d'éléments de l'échantillon appartenant au rectangle si les données sont regroupées), de sorte que. Il convient de disposer les résultats de l'observation sous la forme d'un tableau de contingence de deux signes (tableau 1.1). Dans les applications, on entend généralement deux critères selon lesquels les résultats d'observation sont classés.

Soit P, i=1,…,s, j=1,…,k. Alors l’hypothèse d’indépendance signifie qu’il existe des constantes s+k telles que et, c’est-à-dire


Tableau 1.1

Somme . . .. . .. . . . . .. . .. . . . . . . . . . . . . . .Somme . . .n

Ainsi, l'hypothèse H se résume à l'affirmation selon laquelle les fréquences (leur nombre est N = sk) sont distribuées selon une loi polynomiale avec des probabilités de résultats ayant la structure spécifique spécifiée (le vecteur des probabilités de résultats p est déterminé par les valeurs r = s + k-2 de paramètres inconnus.

Pour tester cette hypothèse, nous trouverons des estimations du maximum de vraisemblance pour les paramètres inconnus qui déterminent le schéma considéré. Si l'hypothèse nulle est vraie, alors la fonction de vraisemblance a la forme L(p)= où le multiplicateur c ne dépend pas des paramètres inconnus. De là, en utilisant la méthode de Lagrange des multiplicateurs indéfinis, on obtient que les estimations requises ont la forme

Ainsi, les statistiques

L() at, puisque le nombre de degrés de liberté dans la distribution limite est égal à N-1-r=sk-1-(s+k-2)=(s-1)(k-1).

Ainsi, pour n suffisamment grand, la règle de test d'hypothèse suivante peut être utilisée : l'hypothèse H est rejetée si et seulement si la valeur statistique t calculée à partir des données réelles satisfait l'inégalité.

Ce critère a un niveau de signification asymptotiquement (at) donné et est appelé critère d'indépendance.

2. PARTIE PRATIQUE


1 Solutions aux problèmes sur les types de convergence


1. Montrer que la convergence implique presque certainement une convergence en probabilité. Fournissez un exemple de test pour montrer que l’inverse n’est pas vrai.

Solution. Laissez une séquence de variables aléatoires converger vers une variable aléatoire x presque certainement. Alors, pour quelqu'un ? > 0

Depuis lors

et de la convergence de xn vers x il s'ensuit presque certainement que xn converge vers x en probabilité, puisque dans ce cas

Mais l’affirmation inverse n’est pas vraie. Soit une séquence de variables aléatoires indépendantes ayant la même fonction de distribution F(x), égale à zéro en x ? 0 et égal pour x > 0. Considérons la séquence


Cette suite converge vers zéro en probabilité, puisque

tend vers zéro pour tout fixe ? Et. Toutefois, la convergence vers zéro n’aura presque certainement pas lieu. Vraiment

tend vers l'unité, c'est-à-dire qu'avec une probabilité de 1 pour tout et n, il y aura des réalisations dans la séquence qui dépasseront ?.

Notons qu'en présence de quelques conditions supplémentaires imposées sur les quantités xn, la convergence en probabilité implique presque certainement une convergence.

Soit xn une séquence monotone. Montrer que dans ce cas la convergence de xn vers x en probabilité entraîne la convergence de xn vers x avec probabilité 1.

Solution. Soit xn une séquence décroissante de façon monotone. Pour simplifier notre raisonnement, nous supposerons que x º 0, xn ³ 0 pour tout n. Supposons que xn converge vers x en probabilité, mais la convergence n’aura presque certainement pas lieu. Est-ce que ça existe alors ? > 0, tel que pour tout n


Mais ce qui a été dit signifie aussi que pour tout n

ce qui contredit la convergence de xn vers x en probabilité. Ainsi, pour une séquence monotone xn, qui converge vers x en probabilité, converge également avec une probabilité 1 (presque certainement).

Laissez la séquence xn converger vers x en probabilité. Montrer qu'à partir de cette suite il est possible d'isoler une suite qui converge vers x avec une probabilité 1 at.

Solution. Soit une séquence de nombres positifs, et soit et des nombres positifs tels que la série. Construisons une séquence d'indices n1

Puis la série


Puisque la série converge, alors pour quelque chose ? > 0 le reste de la série tend vers zéro. Mais alors il tend vers zéro et



Montrer que la convergence en moyenne de tout ordre positif implique une convergence en probabilité. Donnez un exemple pour montrer que l’inverse n’est pas vrai.

Solution. Soit la séquence xn convergeant vers une valeur x en moyenne d'ordre p > 0, c'est-à-dire



Utilisons l'inégalité généralisée de Chebyshev : pour l'arbitraire ? > 0 et p > 0



En dirigeant et en tenant compte de cela, nous obtenons que



c'est-à-dire que xn converge vers x en probabilité.

Cependant, la convergence en probabilité n'entraîne pas une convergence en moyenne d'ordre p > 0. Ceci est illustré par l'exemple suivant. Considérons l'espace de probabilité áW, F, Rñ, où F = B est la s-algèbre de Borel, R est la mesure de Lebesgue.

Définissons une séquence de variables aléatoires comme suit :

La suite xn converge vers 0 en probabilité, puisque



mais pour tout p > 0



c'est-à-dire qu'il ne convergera pas en moyenne.

Laissez, qu'en est-il de tout n . Montrer que dans ce cas xn converge vers x dans le carré moyen.

Solution. Noter que... Obtenons une estimation pour. Considérons une variable aléatoire. Laissez-le ? - un nombre positif arbitraire. Puis à et à.



Si, alors et. Ainsi, . Et parce que ? arbitrairement petit et, alors, à, c'est-à-dire dans la moyenne quadratique.

Montrer que si xn converge vers x en probabilité, alors une faible convergence se produit. Fournissez un exemple de test pour montrer que l’inverse n’est pas vrai.

Solution. Montrons que si, alors en chaque point x, qui est un point de continuité (c'est une condition nécessaire et suffisante pour une convergence faible), est la fonction de distribution de la valeur xn, et - la valeur de x.

Soit x un point de continuité de la fonction F. Si, alors au moins une des inégalités ou est vraie. Alors



De même, pour au moins une des inégalités ou et






Si, alors pour aussi petit que souhaité ? > 0 il existe N tel que pour tout n > N



D’un autre côté, si x est un point de continuité, est-il possible de trouver quelque chose comme ça ? > 0, ce qui pour arbitrairement petit



Alors, aussi petit que vous le souhaitez ? et il existe N tel que pour n >N




ou, ce qui est pareil,



Cela signifie que la convergence a lieu à tous les points de continuité. Par conséquent, une convergence faible découle d’une convergence en probabilité.

L’affirmation inverse, d’une manière générale, n’est pas valable. Pour vérifier cela, prenons une séquence de variables aléatoires qui ne sont pas égales à des constantes de probabilité 1 et ont la même fonction de distribution F(x). Nous supposons que pour tout n les quantités et sont indépendantes. Évidemment, une faible convergence se produit puisque tous les membres de la séquence ont la même fonction de distribution. Considérer:

|De l'indépendance et de la répartition identique des valeurs, il résulte que




Choisissons parmi toutes les fonctions de distribution de variables aléatoires non dégénérées telles que F(x) qui sera non nulle pour tout ? suffisamment petit. Alors il ne tend pas vers zéro avec une croissance illimitée de n et la convergence en probabilité n’aura pas lieu.

7. Soit une convergence faible, où avec une probabilité 1 il y a une constante. Montrer que dans ce cas il convergera vers en probabilité.

Solution. Soit la probabilité 1 égale à a. Alors une convergence faible signifie une convergence pour tout. Depuis, alors à et à. Autrement dit, à et à. Cela s'ensuit pour quelqu'un ? > 0 probabilité



tendent vers zéro à. Cela signifie que

tend vers zéro en, c'est-à-dire converge vers en probabilité.

2.2 Résolution des problèmes sur le centre de chauffage central


La valeur de la fonction gamma Г(x) à x= est calculée par la méthode de Monte Carlo. Trouvons le nombre minimum de tests nécessaires pour qu'avec une probabilité de 0,95 nous puissions nous attendre à ce que l'erreur relative des calculs soit inférieure à un pour cent.

Pour une précision près, nous avons



On sait que



Après avoir modifié (1), on arrive à l'intégrale sur un intervalle fini :



Chez nous donc


Comme vous pouvez le constater, il peut être représenté sous la forme où et est réparti uniformément. Laissez faire des tests statistiques. Alors l’analogue statistique est la quantité



où, sont des variables aléatoires indépendantes avec une distribution uniforme. En même temps



Du CLT, il s'ensuit que les paramètres sont asymptotiquement normaux.






Cela signifie que le nombre minimum de tests garantissant avec probabilité l'erreur relative du calcul n'est pas supérieur à égal.


Nous considérons une séquence de 2000 variables aléatoires indépendantes distribuées de manière identique avec une espérance mathématique de 4 et une variance de 1,8. La moyenne arithmétique de ces quantités est une variable aléatoire. Déterminez la probabilité que la variable aléatoire prenne une valeur dans l'intervalle (3.94 ; 4.12).

Soit, …,… une séquence de variables aléatoires indépendantes ayant la même distribution avec M=a=4 et D==1,8. Alors le CLT est applicable à la séquence (). Variable aléatoire

Probabilité qu'il prenne une valeur dans l'intervalle () :



Pour n=2000, 3,94 et 4,12 on obtient



3 Tester des hypothèses en utilisant le critère d'indépendance


À la suite de l'étude, il a été constaté que 782 pères aux yeux clairs ont également des fils aux yeux clairs, et 89 pères aux yeux clairs ont des fils aux yeux foncés. 50 pères aux yeux noirs ont aussi des fils aux yeux noirs, et 79 pères aux yeux noirs ont des fils aux yeux clairs. Existe-t-il une relation entre la couleur des yeux des pères et celle de leurs fils ? Prenez le niveau de confiance à 0,99.


Tableau 2.1

EnfantsPèresSommeYeux clairsYeux foncésYeux clairs78279861Yeux foncés8950139Sum8711291000

H : Il n’y a aucune relation entre la couleur des yeux des enfants et celle des pères.

H : Il existe une relation entre la couleur des yeux des enfants et celle des pères.



s=k=2 =90.6052 avec 1 degré de liberté

Les calculs ont été effectués dans Mathematica 6.

Puisque > , alors l'hypothèse H, sur l'absence de relation entre la couleur des yeux des pères et des enfants, au niveau de signification, devrait être rejetée et l'hypothèse alternative H devrait être acceptée.


Il est indiqué que l'effet du médicament dépend de la méthode d'application. Vérifiez cette affirmation à l’aide des données présentées dans le tableau. 2.2 Considérons que le niveau de confiance est de 0,95.


Tableau 2.2

Résultat Mode d'application ABC Défavorable 111716 Favorable 202319

Solution.

Pour résoudre ce problème, nous utiliserons un tableau de contingence de deux caractéristiques.


Tableau 2.3

Résultat Mode d'application Montant ABC Défavorable 11171644 Favorable 20231962 Montant 314035106

H : l'effet des médicaments ne dépend pas du mode d'administration

H : l'effet des médicaments dépend de la méthode d'application

Les statistiques sont calculées à l'aide de la formule suivante



s=2, k=3, =0,734626 avec 2 degrés de liberté.


Calculs effectués dans Mathematica 6

D'après les tableaux de répartition, nous constatons cela.

Depuis< , то гипотезу H, про отсутствия зависимости действия лекарств от способа применения, при уровне значимости, следует принять.


Conclusion


Cet article présente les calculs théoriques de la section « Critère d'indépendance », ainsi que « Théorèmes limites de la théorie des probabilités », du cours « Théorie des probabilités et statistiques mathématiques ». Au cours des travaux, le critère d'indépendance a été testé en pratique ; De plus, pour des séquences données de variables aléatoires indépendantes, le respect du théorème central limite a été vérifié.

Ce travail m'a permis d'améliorer ma connaissance de ces sections de la théorie des probabilités, de travailler avec des sources littéraires et de maîtriser solidement la technique de vérification du critère d'indépendance.

théorème de l'hypothèse statistique probabiliste

Liste des liens


1. Collection de problèmes de la théorie des probabilités avec solutions. Euh. allocation / Éd. V.V. Séménets. - Kharkov : KhTURE, 2000. - 320 p.

Gikhman I.I., Skorokhod A.V., Yadrenko M.I. Théorie des probabilités et statistiques mathématiques. - K. : École Vishcha, 1979. - 408 p.

Ivchenko G.I., Medvedev Yu.I., Statistiques mathématiques : manuel. allocation pour les collèges. - M. : Plus haut. école, 1984. - 248 p., .

Statistiques mathématiques : Manuel. pour les universités / V.B. Gorianov, I.V. Pavlov, G.M. Tsvetkova et autres ; Éd. CONTRE. Zarubina, A.P. Krischenko. - M. : Maison d'édition MSTU im. N.E. Bauman, 2001. - 424 p.


Tutorat

Besoin d'aide pour étudier un sujet ?

Nos spécialistes vous conseilleront ou fourniront des services de tutorat sur des sujets qui vous intéressent.
Soumettez votre candidature en indiquant le sujet dès maintenant pour connaître la possibilité d'obtenir une consultation.

Fondements de la théorie des probabilités et des statistiques mathématiques

Fondements de la théorie des probabilités et des statistiques mathématiques Concepts de base de la théorie des probabilités Le sujet de l'étude de la théorie des probabilités concerne les modèles quantitatifs de phénomènes aléatoires homogènes de nature de masse. Définition 1. Un événement est tout fait possible dont on peut dire qu'il se produit ou ne se produit pas dans des conditions données. Exemple. Les ampoules prêtes à l'emploi qui sortent de la chaîne de montage peuvent être standard ou non standard. Un (n'importe quel) résultat parmi ces deux possibles est appelé un événement. Il existe trois types d'événements : fiables, impossibles et aléatoires. Définition 2. Fiable est un événement qui, si certaines conditions sont remplies, ne peut manquer de se produire, c'est-à-dire cela arrivera certainement. Exemple. Si l’urne ne contient que des boules blanches, alors une boule tirée au hasard dans l’urne sera toujours blanche. Dans ces conditions, le fait de l’apparition d’une boule blanche sera un événement fiable. Définition 3. Impossible est un événement qui, si certaines conditions sont remplies, ne peut pas se produire. Exemple. Vous ne pouvez pas retirer une boule blanche d’une urne contenant uniquement des boules noires. Dans ces conditions, l’apparition d’une boule blanche sera un évènement impossible. Définition 4. Le hasard est un événement qui, dans les mêmes conditions, peut se produire, mais peut ne pas se produire. Exemple. Une pièce lancée peut tomber de telle sorte que des armoiries ou un numéro apparaissent sur sa face supérieure. Ici, l’apparition de l’une ou l’autre face de la pièce sur le dessus est un événement aléatoire. Définition 5. Un test est un ensemble de conditions ou d'actions qui peuvent être répétées un nombre infini de fois. Exemple. Lancer une pièce de monnaie est un test et le résultat possible, c'est-à-dire l'apparition soit d'un blason, soit d'un chiffre sur la face supérieure de la pièce est un événement. Définition 6. Si les événements A i sont tels que lors d'un test donné un seul d'entre eux et aucun autre non inclus dans la totalité ne peut se produire, alors ces événements sont appelés les seuls possibles. Exemple. L'urne contient des boules blanches et noires et aucune autre. Une boule prise au hasard peut se révéler blanche ou noire. Ces événements sont les seuls possibles, car l'apparition d'une boule de couleur différente lors de ce test est exclue. Définition 7. Deux événements A et B sont dits incompatibles s'ils ne peuvent se produire ensemble au cours d'un test donné. Exemple. Les armoiries et le numéro sont les seuls événements possibles et incompatibles lors d'un seul tirage au sort. Définition 8. Deux événements A et B sont dits conjoints (compatibles) pour un test donné si la survenance de l'un d'eux n'exclut pas la possibilité de la survenance d'un autre événement au cours du même test. Exemple. Il est possible qu’une tête et un chiffre apparaissent ensemble lorsque l’on lance deux pièces en un seul lancer. Définition 9. Les événements A i sont dits également possibles dans un test donné si, en raison de la symétrie, il y a des raisons de croire qu'aucun de ces événements n'est plus possible que les autres. Exemple. L'apparition d'une face quelconque lors d'un lancer de dé est un événement également possible (à condition que le dé soit constitué d'un matériau homogène et ait la forme d'un hexagone régulier). Définition 10. Les événements sont dits favorables (favorables) pour un certain événement si la survenance de l'un de ces événements entraîne la survenance de cet événement. Les cas excluant la survenance d'un événement sont dits défavorables à cet événement. Exemple. L'urne contient 5 boules blanches et 7 boules noires. Lorsque vous prenez une boule au hasard, vous pouvez vous retrouver avec une boule blanche ou noire dans vos mains. Dans ce cas, l'apparition d'une boule blanche est favorisée par 5 cas, et l'apparition d'une boule noire par 7 cas sur un total de 12 cas possibles. Définition 11. Deux événements possibles et incompatibles sont appelés opposés l'un à l'autre. Si l'un de ces événements est désigné par A, alors l'événement opposé est désigné par le symbole Â. Exemple. Frapper et rater ; gagner et perdre sur un billet de loterie sont tous des exemples d’événements opposés. Définition 12. Si, à la suite d'une opération de masse composée de n expériences ou observations individuelles similaires (tests), un événement aléatoire apparaît m fois, alors le nombre m est appelé la fréquence de l'événement aléatoire et le rapport m / n est appelée sa fréquence. Exemple. Parmi les 20 premiers produits sortis de la chaîne de montage, il y avait 3 produits non standards (défauts). Ici le nombre de tests n = 20, la fréquence des défauts m = 3, la fréquence des défauts m/n = 3/20 = 0,15. Chaque événement aléatoire dans des conditions données a sa propre possibilité objective d'occurrence, et pour certains événements, cette possibilité d'occurrence est plus grande, pour d'autres elle est moindre. Pour comparer quantitativement les événements entre eux en termes de degré de possibilité de leur apparition, un certain nombre réel est associé à chaque événement aléatoire, exprimant une évaluation quantitative du degré de possibilité objective de survenance de cet événement. Ce nombre s'appelle la probabilité de l'événement. Définition 13. La probabilité d'un certain événement est une mesure numérique de la possibilité objective de la survenance de cet événement. Définition 14. (Définition classique de la probabilité). La probabilité de l'événement A est le rapport du nombre m de cas favorables à la survenance de cet événement sur le nombre n de tous les cas possibles, soit P(A) = m/n. Exemple. L'urne contient 5 boules blanches et 7 boules noires, soigneusement mélangées. Quelle est la probabilité qu’une boule tirée au hasard dans une urne soit blanche ? Solution. Dans ce test il n’y a que 12 cas possibles, dont 5 favorisent l’apparition d’une boule blanche. La probabilité qu’une boule blanche apparaisse est donc P = 5/12. Définition 15. (Définition statistique de la probabilité). Si, avec un nombre suffisamment grand d'essais répétés par rapport à un événement A, on remarque que la fréquence de l'événement fluctue autour d'un nombre constant, alors l'événement A a une probabilité P(A), approximativement égale à la fréquence, c'est-à-dire P(A)~m/n. La fréquence d’un événement sur un nombre illimité d’essais est appelée probabilité statistique. Propriétés fondamentales de la probabilité. 1 0 Si l'événement A entraîne l'événement B (A  B), alors la probabilité de l'événement A ne dépasse pas la probabilité de l'événement B. P(A)≤P(B) 2 0 Si les événements A et B sont équivalents (A  B, B  A, B=A), alors leurs probabilités sont égales à P(A)=P(B). 3 0 La probabilité de tout événement A ne peut pas être un nombre négatif, c'est-à-dire Р(А)≥0 4 0 La probabilité d'un événement fiable  est égale à 1. Р()=1. 5 0 La probabilité d'un événement impossible  est 0. Р(  )=0. 6 0 La probabilité de tout événement aléatoire A est comprise entre zéro et un 0<Р(А)<1 Основные формулы комбинаторики Определение 1 . Различные группы по m предметов, составленные из n однородных предметов ( m , n ), называются соединениями. Предметы, из которых составляют различные соединения, называют элементами. Существует 3 вида соединений: размещения, перестановки, сочетания. Определение 2. Размещениями по m элементов из данных n элементов ( m ≤ n ) называют такие соединения, которые отличаются друг от друга либо самими элементами, либо их порядком. Например, размещениями из трех предметов a , b и c по два будут следующие соединения: ab , ac , bc , ca , cb , ba . Число размещений из данных n элементов по m обозначают символом А n m = n ( n -1)( n -2)·....·( n - m +1). Пример. А 10 4 =10·9·8·7=5040. Определение 3. Перестановками из n элементов называют такие соединения, которые отличаются друг от друга только порядком элементов. Р n =А n n = n ( n -1)( n -2)...·3·2·1= n ! По определению 0!=1. Пример. Р 5 =5!=1·2·3·4·5=120. Определение 4. Сочетаниями из n элементов по m называются также соединения, которые отличаются друг от друга, по меньшей мере, одним элементом и каждое из которых содержит m различных элементов: C n m === Пример. Найти число сочетаний из 10 элементов по четыре. Решение. C 10 4 ==210. Пример. Найти число сочетаний из 20 элементов по 17. Решение. ==1040. Теоремы теории вероятностей Теорема сложения вероятностей Теорема 1 . Вероятность наступления одного какого-либо события из двух несовместимых событий А и В равно сумме вероятностей этих событий Р(А+В)=Р(А)+Р(В ). Пример. В урне 5 красных, 7 синих и 8 белых шаров, перемешанных между собой. Какова вероятность того, что взятый наугад один шар окажется не красным? Решение. Не красный шар - это или белый или синий шары. Вероятность появления белого шара (событие А) равна Р(А)= 8/20 = 2/5. Вероятность появления синего шара (событие В) равна Р(В)= 7/20. Событие, состоящее в появлении не красного шара, означает появление или А или В, т.к. события А и В несовместимы, то применима теорема 1. Искомая вероятность будет равна Р(А+В)=Р(А)+Р(В)=2/5+ +7/20=3/4. Теорема 2. Вероятность наступления одного из двух событий A или B равно сумме вероятностей этих событий минус вероятность их совместного появления P ( A + B )= P ( A )+ P ( B )+ P ( AB ). Теорема умножения вероятностей Определение 1. Два события A и B называются независимыми друг от друга, если вероятность одного из них не зависит от наступления или ненаступления другого. Пример. Пусть A - событие, состоящее в появлении герба при первом бросании монеты, а B - событие, состоящее в появлении герба при втором бросании монеты, то события A и B не зависят друг от друга, т.е. результат первого бросания монеты не может изменить вероятность появления герба при втором бросании монеты. Определение 2. Два события A и B называются зависящими друг от друга, если вероятность одного из них зависит от наступления или ненаступления другого. Пример. В урне 8 белых и 7 красных шаров, перемешанных между собой. Событие A - появление белого шара, а событие B - появление красного шара. Будем брать из урны наугад два раза по одному шару, не возвращая их обратно. До начала испытания вероятность появления события A равна P ( A )=8/15, и вероятность события B равна P ( B )=7/15. Если предположить, что в первый раз был взят белый шар (событие A ), то вероятность появления события B при втором испытании будет P ( B )=7/14=1/2. Если в первый раз был взят красный шар, то вероятность появления красного шара при втором извлечении равна P ( B )=6/14=3/7. Определение 3. Вероятность события B , вычисленная в предположении, что перед этим наступило связанное с ним событие A , называется условной вероятностью события B и обозначается PA ( B ). Теорема 3 . Вероятность совместного наступления двух зависимых событий ( A и B ) равна произведению вероятности одного из них на условную вероятность другого, вычисленную в предположении, что первое событие произошло, т.е. P ( AB )= P ( A )· P A ( B )= P ( B )· P B ( A ). Теорема 4. Вероятность совместного наступления нескольких зависимых событий равно произведению вероятности одного из них на условные вероятности всех остальных событий, вычисленные в предположении, что все предыдущие события уже наступили: P(A 1 A 2 A 3 ...A k )=P(A 1 )·P A1 (A 2 )·P A1A2 ·P(A 3 )...·P A1A2…A k-1 (A k ) Теорема 5 . Вероятность совместного наступления двух независимых событий A и B равна произведению вероятностей этих событий P ( AB )= P ( A )· P ( B ). Теорема 6 . Вероятность совместного наступления нескольких независимых событий A 1 , A 2 , ... A k равна произведению их вероятностей, т.е. P ( A 1 A 2 ... A k )= P ( A 1 )· P ( A 2 )·...· P ( A k ). Пример. Два стрелка делают одновременно по одному выстрелу в одну цель. Какова вероятность того, что оба попадут, если известно, что первый стрелок в среднем дает 7 попаданий, а второй 8 попаданий на каждые 10 выстрелов? Какова вероятность поражения мишени? Решение. Вероятность попадания первого стрелка (событие A ) равна P ( A )=0,8, вероятность попадания второго стрелка (событие B ) равна P ( B )=0,7. События A и B независимы друг от друга, поэтому вероятность совместного наступления этих событий (совместное попадание в цель) найдем по теореме умножения для независимых событий: P ( AB )= P ( A ) P ( B )=0,8·0,7=0,56. Вероятность поражения мишени означает попадание в мишень хотя бы одного стрелка. Так как попадание в мишень первого и второго стрелков являются событиями совместными, то применение теоремы сложения вероятностей для совместных событий дает следующий результат: P(A+B)=P(A)+P(B)-P(AB)=P(A)+P(B)-P(A)·P(B)=0,8+0,7- 0,8·0,7=0,94. 5.3.3. Формула полной вероятности Определение 4. Если при некотором испытании может произойти одно какое-либо событие из нескольких несовместных A 1 , A 2 ,..., A k , и при этом никаких других событий быть не может, но одно из указанных событий обязательно произойдет, то группу событий A 1 , A 2 ,..., A k называют полной группой событий. Теорема 7. Сумма вероятностей событий, образующих полную группу, равна единице: P ( A 1 )+ P ( A 2 )+...+ P ( A k )=1. Следствие. Сумма вероятностей двух противоположных событий равна единице: P ( A )+ P ( A )=1. Если вероятность одного события обозначим через p , вероятность противоположного ему события обозначим через q , тогда p + q =1. Пример. Вероятность попадания в цель равна 0,94. Найти вероятность непопадания. Решение . Попадание в цель и непопадание являются противоположными событиями, поэтому, если p =0,94, то q =1- p =1-0,94=0,06. Теорема 8 . Если случайные события A 1 , A 2 ... A n образуют полную систему, и если событие B может осуществляться только совместно с каким-нибудь одним из этих событий, то вероятность наступления события B можно определить по формуле: P(B)=P(A 1 )P A1 (B)+P(A 2 )P A2 (B)+...+P(A n )P A n (B) Это равенство называется формулой полной вероятности . Пример. На склад готовой продукции поступили изделия из трех цехов, в том числе: 30% из I -го цеха, 45% из II цеха и 25% из III цеха. Среди изделий I цеха брак составляет 0,6%, по II цеху 0,4% и по III цеху-0,16%. Какова вероятность того, что взятое наугад для контроля одно изделие окажется с браком? Решение. Одно изделие может быть взято или из продукции I цеха (событие A 1 ), или из продукции II цеха (событие A 2 ), или из продукции III цеха (событие A 3 ). Вероятности этих событий будут: P ( A 1 )=0,30; P ( A 2 )=0,45; P ( A 3 )=0,25. Вероятность того, что изделие с браком (событие B ) будет взято из продукции I цеха, есть условная вероятность P A 1 ( B ). Она равна P A 1 ( B )=0,006. Вероятность того, что изделие с браком будет взято из продукции II цеха P A 2 ( B )=0,004 и из продукции III цеха P A 3 ( B )=0,0016. Теперь по формуле полной вероятности найдем вероятность того, что взятое наугад одно изделие будет с браком: P(B)=P(A 1 )P A1 (B)+P(A 2 )P A2 (B)+...+P(A 3 )P A3 (B) = 0,3·0,006+0,45·0,004+0,25·0,0016=0,004. Формула Бернулли Теорема 9. Пусть производится n независимых повторных испытаний по отношению к некоторому событию A . Пусть вероятность появления этого события в каждом отдельном испытании остается неизменно равной p , а вероятность появления противоположного события Ā, есть q . Тогда вероятность появления интересующего нас события A равно m раз при указанных n испытаниях рассчитывается по формуле Бернулли: P m , n = p m q n - m , так как, то P m , n = · p m · q n - m Пример. Коэффициент использования станка в среднем равен 0,8. В цехе имеется 5 станков. Какова вероятность того, что в некоторый момент времени окажутся работоспособными только 3 станка? Решение. Задача подходит под схему повторных испытаний и решается по формуле Бернулли: n =5, m =3, p =0,8 и q =1-0,8=0,2: P 3,5 = (0,8) 3 ·(0,2) 2 =0,2084. Асимптотическая формула Пуассона В статистической практике нередко встречаются такие примеры независимых испытаний, когда при большом числе n независимых испытаний вероятность Р появления события в каждом отдельном испытании оказывается сравнительно малой величиной, стремящейся к нулю с увеличением числа испытаний . При этих условиях для вычисления вероятности Р m , n появление события m раз в n испытаниях пользуются асимптотической формулой Пуассона : Р m,n ≈e -a , где a=np Пример. Доля брака всей продукции завода составляет 0,5%. Какова вероятность того, что в партии, состоящей из 400 изделий, окажется три изделия бракованных? Решение. В условии примера дано p =0,005, n =400, m =3, следовательно, a = np =400·0,005=2. Вероятность данного события найдем по формуле Пуассона Р m , n (3,400) = 0,1804. Случайные величины и их числовые характеристики Определение 1. Случайной величиной называется переменная величина, которая в результате опыта принимает одно значение, причем неизвестно заранее, какое именно. Определение 2. Дискретной называется случайная величина, которая может принимать лишь отдельные, изолированные друг от друга значения. Случайная дискретная величина задается законом распределения, связывающим принимаемые ею значения x i и вероятности их принятия p i . Закон распределения чаще всего задается в табличной форме. Графическое представление закона распределения случайной дискретной величины – многоугольник распределения . Числовые характеристики дискретной случайной величины. 1) Математическое ожидание. Определение 3. Математическое ожидание случайной дискретной величины X с конечным числом значений называется сумма произведений возможных ее значений на их вероятности: M ( X ) = μ = x 1 p 1 + x 2 p 2 +...+ x n p n = . Вероятности всех значений случайной дискретной величины удовлетворяют условию нормировки: Свойства математического ожидания. 1 0 Математическое ожидание постоянной (неслучайной) величины С равно самой постоянной M ( C )= C . 2 0 Математическое ожидание алгебраической суммы нескольких случайных величин равно алгебраической сумме математических ожиданий слагаемых M ( X 1 ± X 2 ±...± X n ) = M ( X 1 ) ± M ( X 2 ) ±…± M ( X n ). 3 0 Константу можно вынести за знак математического ожидания M ( CX )= CM ( X ). 4 0 Математическое ожидание произведения нескольких независимых случайных величин равно произведению математических ожиданий этих величин: M ( X 1 X 2 ... X n ) = M ( X 1 ) M ( X 2 )... M ( X ) n . 2) Дисперсия дискретной случайной величины. Определение 4. Дисперсией случайной дискретной величины X называется математическое ожидание квадрата отклонения этой величины от ее математического ожидания. D ( X ) = M {[ X - M ( X )] 2 } = , где M ( X ) = μ Для вычисления дисперсии более удобна формула: D ( X )= M ( X 2 )-[ M ( X )] 2 , т.е. дисперсия случайной величины равна разности между математическим ожиданием квадрата этой величины и квадратом ее математического ожидания. Свойства дисперсии. 1 0 Дисперсия постоянной величины равна нулю D (С) = 0. 2 0 Постоянный множитель можно выносить за знак дисперсии, предварительно возведя его в квадрат: D ( CX ) = C 2 D ( X ). 3 0 Дисперсия суммы нескольких независимых случайных величин равна сумме дисперсий этих величин: D ( X 1 +...+ X n ) = D ( X 1 )+...+ D ( X n ). 4 0 Дисперсия разности двух независимых случайных величин равна сумме дисперсий этих величин D ( X - Y )= D ( X )+ D ( Y ). 3). Среднее квадратическое отклонение Определение 5 . Средним квадратическим отклонением случайной величины называется квадратный корень из дисперсии σ ( X )=. Пример. Найти математическое ожидание и дисперсию случайной величины X , которая задана следующим законом распределения: Решение. Найдем математическое ожидание: M ( x )=1·0,3+2·0,5+5·0,2=2,3. Найдем все возможные значения квадрата отклонения. [ x 1 - M ( x )] 2 =(1-2,3) 2 =1,69 [ x 2 - M ( x )] 2 =(2-2,3) 2 =0,09 [ x 3 - M ( x )] 2 =(5-2,3) 2 =7,29 Напишем закон распределения квадрата отклонения Найдем дисперсию: D ( x )=1,69·0,3+0,09·0,5+7,29·0,2=2,01. Числовые характеристики непрерывной случайной величины. Определение 6. Непрерывной называют случайную величину, которая может принимать все значения из некоторого конечного или бесконечного промежутка. Определение 7. Интегральной функцией распределения называют функцию F ( x ), определяющую для каждого значения x вероятность того, что случайная величина X примет значение меньше x , т.е. F ( x )= P ( X < x ). Свойства интегральной функции распределения 1 0 Значения интегральной функции распределения принадлежат отрезку 0≤ F ( x ) ≤1. 2 0 Функция распределения есть неубывающая функция. Следствие 1. Вероятность того, что случайная величина X попадет в интервал ( a , b ), равна приращению ее интегральной функции распределения на этом интервале P ( a < x < b )= F ( b )- F ( a ). Следствие 2. Вероятность того, что случайная непрерывная величина X примет одно определенное значение равна нулю P ( X = x 1 )=0. 3 0 Если возможные значения случайной величины X принадлежат интервалу ( a , b ), то F ( x )=0 при x ≤ a и F ( x )=1 при x ≥ a . Определение 8. Дифференциальной функцией распределения f ( x ) (или плотностью вероятности) называется производная от интегральной функции f ( x )= F "( x ). Интегральная функция является первообразной для дифференциальной функции, поэтому вероятность того, что случайная непрерывная величина x примет значение, принадлежащее интервалу ( a , b ), определяется равенством: P ( a < x < b )== F ( b )- F ( a )Зная дифференциальную функцию, можно найти функцию распределения: F ( x )= Свойства дифференциальной функции распределения 1 0 Дифференциальная функция распределения есть функция неотрицательная f ( x ) ≥0 2 0 Несобственный интеграл от дифференциальной функции распределения равен единице (условие нормировки): . 1) Математическое ожидание. Математическим ожиданием случайной непрерывной величины X , возможные значения которой прина д лежат отрезку ( a , b ), называется опр е деленный интеграл: M ( X ) = , где f ( x )-плотность вероятности случайной величины X . 2) Дисперсия. Дисперсия непрерывной случайной величины X есть математическое ожидание квадрата отклонения зтой величины от ее математического жидания D(X) = M{ 2 }.Следовательно, если возможные значения случайной величины X принадлежат отрезку ( a ; b ), то D ( x )= или D ( x )= 3) Среднее квадратическое отклонение определяется так: σ ( x ) = Пример. Найти дисперсию случайной величины X , заданной интегральной функцией F ( x )= Решение. Найдем дифференциальную функцию: f ( x )= F ’ ( x )= Выислим математическое ожидание M ( x ) = . Найдем искомую дисперсию D ( x ) = = = 2/4=4/3. Вероятность попадания нормально распределенной случайной величины X в заданный интервал Определение 9. Распределение вероятностей случайной непрерывной величины X называется нормальным, если плотность вероятности описывается формулой: , где μ - математическое ожидание, σ - среднее квадратическое отклонение. Определение 10. Нормальное распределение с параметрами μ = 0, σ = 1 называется нормированным или стандартным. Плотность вероятности нормированного нормального распределения описывается следующей формулой: . Значения данной функции для неотрицательных значений затабулированы. В силу четности функции φ ( x ) значения для отрицательных чисел легко определить φ (- x )= φ ( x ). Пример. Математическое ожидание нормального распределенной случайной величины X равно μ =3 и среднее квадратическое отклонение σ =2. Написать дифференциальную функцию X . Решение. f ( x )= Если случайная величина X распределена по нормальному закону, то вероятность ее попадания в интервал ( a , b ) определяется следующим о б разом: P(aS2=DB= = , qui est une estimation non biaisée de la variance générale DГ. Pour estimer l’écart type de la population, on utilise l’écart type « corrigé », qui est égal à la racine carrée de la variance « corrigée ». S= Définition 14. Un intervalle de confiance est appelé (θ*-δ;θ*+δ), qui couvre un paramètre inconnu avec une fiabilité γ donnée. L'intervalle de confiance pour estimer l'espérance mathématique d'une distribution normale avec un écart type connu σ est exprimé par la formule : =2Ф(t)=γ où ε=tδ/ est la précision de l'estimation. Le nombre t est déterminé à partir de l'équation : 2Ф(t)=γ d'après les tableaux de la fonction de Laplace. Exemple. La variable aléatoire X a une distribution normale avec un écart type connu σ=3. Trouvez des intervalles de confiance pour estimer l'espérance mathématique inconnue μ à l'aide des moyennes d'échantillon X, si la taille de l'échantillon est n = 36 et que la fiabilité de l'estimation est donnée γ = 0,95. Solution. Trouvons t à partir de la relation 2Ф(t)=0,95 ; Ф(t)=0,475. D'après les tableaux, nous trouvons t = 1,96. Trouvons la précision de l'estimation σ =tδ/=1,96·3/= 0,98. Intervalle de confiance (x -0,98 ; x +0,98). Les intervalles de confiance pour estimer l'espérance mathématique d'une distribution normale avec un σ inconnu sont déterminés à l'aide de la distribution de Student avec k=n-1 degrés de liberté : T= , où S est l'écart type « corrigé », n est la taille de l'échantillon. A partir de la distribution de Student, l'intervalle de confiance couvre le paramètre inconnu μ avec une fiabilité γ : ou, où tγ est le coefficient de Student trouvé à partir des valeurs de γ (fiabilité) et k (nombre de degrés de liberté) des tableaux. Exemple. La caractéristique quantitative X de la population est normalement distribuée. Sur la base d'une taille d'échantillon de n = 16, la moyenne de l'échantillon xB = 20,2 et l'écart carré « moyen corrigé » S = 0,8 ont été trouvés. Estimez l'espérance mathématique inconnue m en utilisant un intervalle de confiance avec une fiabilité γ = 0,95. Solution. A partir du tableau, nous trouvons : tγ = 2,13. Trouvons les limites de confiance : =20,2-2,13·0,8=19,774 et =20,2+ +2,13·0,8/=20,626. Ainsi, avec une fiabilité de 0,95, le paramètre inconnu μ est dans l'intervalle 19,774<μ <20,626. .Элементы теории корреляции Определение 1. Статистической называют зависимость, при которой изменение одной из величин влечет изменение распределения другой. Определение 2. Если при изменении одной из величин изменяетсясреднее значение другой величины, то такая статистическая зависимость называется корреляционной. Пример. ПустьY-урожай зерна,X-количество удобрений. С одинаковых по площади участков земли при равных количествах внесенных удобрений снимают различный урожай, т.е.Y не является функциейX. Это объясняется влиянием случайных факторов (осадки, температура воздуха и т.д.) Вместе с тем средний урожай является функцией от количества удобрений, т.е.Y связан сX корреляционной зависимостью. Определение 3. Среднее арифметическое значение величиныY, вычисленное при условии, чтоX принимает фиксированное значение, называется условным средним и обозначается. Определение 4. Условным средним называют среднее арифметическое наблюдавшихся значенийx, соответствующихY=y. Можно составить таблицу, определяющую соответствие между значениямиxi и условными среднимиyxi, а затем в декартовой системе координат строят точкиM(xi;yxi) и соединяют их отрезками прямых. Полученная линия называется эмпирической линией регрессииY наX. Аналогично строится эмпирическая линия регрессииX наY. Если точкиMi(xi;yxi) иNi(xy;y) располагаются вдоль прямой, то линия регрессии называется линией прямой регрессии и операция "сглаживания" ломаной сводится к нахождению параметровa иb функцииy=ax+b. Из двух нормальных уравнений: находят коэффициентыa иb. ρxy=a== выборочный коэффициент регрессии признакаY наX. b== Уравнение прямой линии регрессии признакаY наX имеет вид: - =ρyx(x-). Проведя аналогичные расчеты, можно получить следующие математические выражения, характеризующие прямую регрессию признакаX наY:x=cy+d. ρyx=c= = - выборочный коэффициент регрессии признакаX наY. d= - свободный член уравнения. = - уравнение прямой линии регрессии признакаX наY. Показателем тесноты связи являетсякоэффициент корреляции, используемый только при линейной корреляции:r = =. Для решения задач удобна следующая формула: r == . В формуле для коэффициента корреляцииr = числитель дроби всегда меньше знаменателя, следовательно, коэффициент корреляции - всегда правильная дробь между нулем и единицей -1≤r≤+1. Положительное значениеr указывает на прямую связь между признаками; отрицательное - на обратную связь между ними. Данные для корреляционного анализа могут быть сгруппированы в виде корреляционной таблицы. Рассмотрим пример. Пусть проведено наблюдение двух признаков (X иY) у 15 объектов. Составлена следующая таблица первичных данных: Упорядочим первичные данные, поместив их в таблицу: В первом столбце запишем в порядке возрастания значенияxi: 8,9,10,11, а во второй строке - в том же порядке значенияyi: 18,20,24,27,30. На пересечении строк и столбцов запишем число повторений одинаковых пар (xi;yi) в ряду наблюдений. Требуется установить и оценить зависимость случайной величиныY от величиныX, используя данные корреляционной таблицы. n = 15 - объем выборки Используем формулы для корреляционных расчетов. Уравнение регрессииX наY: xy=cy +d =ρxyy+d, где ρxy=. Величина коэффициента корреляцииr=± С учетом частотnx иny формулы регрессионного анализа несколько видоизменяется: ρxy=, где; ; ; ; . .Проверка статистических гипотез. Определение 1. Статистической называют гипотезу о виде неизвестного распределения или о параметрах известных распределений. Определение 2. Нулевой (основной) называют выдвинутую гипотезуH0. Определение 3. Конкурирующей (альтернативной) называют гипотезуH1, которая противоречит нулевой. Определение 4. Статистическим критерием называют специально подобранную величину, распределение которой известно (хотя бы приближенно), которая используется для проверки статистической гипотезы. Определение 5. Критической областью называют совокупность значений критерия, при которых нулевую гипотезу отвергают. Определение 6. Областью принятия гипотезы (областью допустимых значений) называют совокупность значений критерия, при которых нулевую гипотезу принимают. Основной принцип проверки статистических гипотез: если наблюдаемое значение критерия принадлежит критической области, то нулевую гипотезу отвергают; если наблюдаемое значение критерия принадлежит области принятия гипотезы, то гипотезу принимают. Определение 7. Критическими точками (границами)kkp называют точки, отделяющие критическую область от области принятия гипотезы. Определение 8. Правосторонней называют критическую область, определяемую неравенствомK>kkp, où kkp>0. Définition 9. Gaucher est la région critique définie par l'inégalité K k2 où k2>k1. Pour trouver la région critique, définissez le niveau de signification α et recherchez les points critiques en fonction des relations suivantes : a) pour la région critique de droite P(K>kkp)=α ; b) pour la région critique du côté gauche P(K<-kkp)=α; в) для двусторонней критической областиP(K>kkp)=α/2 et P(K<-kkp)=α/2. Пример. По двум независимым выборкам, объемы которыхn1=11 иn2=14, извлеченным из нормальных генеральных совокупностейX иY, найдены исправленные выборочные дисперсииSx2=0,76;Sy2=0,38. При уровне зависимостиα=0,05 проверить нулевую гипотезуH0:Д(x)=Д(y) о равенстве генеральных дисперсий, при конкурирующей гипотезе:H1:Д(x)>Solution D(y). Trouvons le rapport entre la grande variance corrigée et la plus petite : Fobs = =2. Puisque H1:D(x)>D(y), alors la région critique est droite. A l'aide du tableau, en utilisant α = 0,05 et les nombres de degrés de liberté k1 = n1-1 = 10 ; k2 = n2-1 = 13, on trouve le point critique Fcr (0,05 ; 10,13) = 2,67. Depuis Fobs. Maman a lavé le cadre


À la fin des longues vacances d'été, il est temps de revenir lentement aux mathématiques supérieures et d'ouvrir solennellement le fichier Verdov vide pour commencer à créer une nouvelle section - . J'avoue, les premières lignes ne sont pas faciles, mais la première étape est à mi-chemin, je suggère donc à chacun d'étudier attentivement l'article d'introduction, après quoi maîtriser le sujet sera 2 fois plus facile ! Je n'exagère pas du tout. …A la veille du 1er septembre prochain, je me souviens de la première année et du primaire…. Les lettres forment des syllabes, les syllabes forment des mots, les mots forment des phrases courtes - Maman a lavé le cadre. Maîtriser le Turver et les statistiques mathématiques est aussi simple que d'apprendre à lire ! Cependant, pour cela, vous devez connaître les termes, concepts et désignations clés, ainsi que certaines règles spécifiques, qui font l'objet de cette leçon.

Mais d'abord, veuillez accepter mes félicitations pour le début (poursuite, achèvement, note le cas échéant) de l'année scolaire et acceptez le cadeau. Le meilleur cadeau est un livre, et pour un travail indépendant, je recommande la littérature suivante :

1) Gmurman V.E. Théorie des probabilités et statistiques mathématiques

Un manuel légendaire qui a fait l'objet de plus de dix réimpressions. Il se distingue par son intelligibilité et sa présentation extrêmement simple du matériel, et les premiers chapitres sont entièrement accessibles, je pense, déjà pour les élèves de la 6e à la 7e année.

2) Gmurman V.E. Guide pour résoudre des problèmes de théorie des probabilités et de statistiques mathématiques

Un livre de solutions du même Vladimir Efimovich avec des exemples et des problèmes détaillés.

NÉCESSAIREMENT téléchargez les deux livres sur Internet ou obtenez leurs originaux papier ! La version des années 60 et 70 fonctionnera également, ce qui est encore mieux pour les nuls. Bien que l'expression « théorie des probabilités pour les nuls » semble plutôt ridicule, puisque presque tout se limite à des opérations arithmétiques élémentaires. Ils sautent cependant par endroits produits dérivés Et intégrales, mais ce n'est que par endroits.

J'essaierai d'atteindre la même clarté de présentation, mais je dois prévenir que mon cours s'adresse à résolution de problèmes et les calculs théoriques sont réduits au minimum. Ainsi, si vous avez besoin d'une théorie détaillée, de preuves de théorèmes (théorèmes-théorèmes !), merci de vous référer au manuel. Eh bien, qui veut apprendre à résoudre des problèmes en théorie des probabilités et statistiques mathématiques dans les plus brefs délais, suis-moi!

C'est suffisant pour commencer =)

En lisant les articles, il est conseillé de se familiariser (au moins brièvement) avec des tâches supplémentaires des types considérés. Sur la page Solutions toutes faites pour les mathématiques supérieures Les pdf correspondants avec des exemples de solutions seront publiés. Une aide importante sera également fournie IDZ 18.1 Ryabushko(plus simple) et IDZ résolu selon la collection de Chudesenko(plus difficile).

1) Montant deux événements et l'événement est appelé, c'est-à-dire qu'il se produira ouévénement ouévénement ou les deux événements en même temps. Dans le cas où des événements incompatible, la dernière option disparaît, c'est-à-dire qu'elle peut se produire ouévénement ouévénement .

La règle s'applique également à un plus grand nombre de termes, par exemple l'événement c'est ce qui va arriver au moins un des événements , UN si les événements sont incompatiblesalors une chose et une seule choseévénement à partir de ce montant : ouévénement , ouévénement , ouévénement , ouévénement , ouévénement .

Il existe de nombreux exemples :

Les événements (lors du lancement d'un dé, 5 points n'apparaîtront pas) sont ce qui apparaîtra ou 1, ou 2, ou 3, ou 4, ou 6points.

Événement (sera supprimé pas plus deux points) c'est que 1 apparaîtra ou 2points.

Événement (il y aura un nombre pair de points) c'est ce qui apparaît ou 2 ou 4 ou 6points.

L'événement est qu'un carton rouge (cœur) sera tiré du jeu ou tambourin), et l'événement – que la « photo » sera extraite (jack ou dame ou roi ou as).

Un peu plus intéressant est le cas des événements communs :

L'événement est qu'un club sera tiré du jeu ou Sept ou sept de trèfle Selon la définition donnée ci-dessus, au moins quelque chose- ou n'importe quel club ou n'importe quel sept ou leur « intersection » - sept de clubs. Il est facile de calculer que cet événement correspond à 12 résultats élémentaires (9 cartes de club + 3 sept restants).

L'événement est que demain à 12h00 viendra AU MOINS UN des événements conjoints récapitulables, à savoir :

– ou il n’y aura que de la pluie / seulement des orages / seulement du soleil ;
– ou seulement quelques paires d'événements se produiront (pluie + orage / pluie + soleil / orage + soleil) ;
– ou les trois événements apparaîtront simultanément.

Autrement dit, l'événement comprend 7 résultats possibles.

Le deuxième pilier de l’algèbre des événements :

2) Le travail deux événements et appeler un événement qui consiste en la survenance conjointe de ces événements, en d'autres termes, la multiplication signifie que dans certaines circonstances il y aura Etévénement , Etévénement . Une affirmation similaire est vraie pour un plus grand nombre d'événements, par exemple, une œuvre implique que dans certaines conditions elle se produira. Etévénement , Etévénement , Etévénement , …, Etévénement .

Prenons un test dans lequel deux pièces sont lancées et les événements suivants :

– des faces apparaîtront sur la 1ère pièce ;
– la 1ère pièce tombera sur face ;
– des têtes apparaîtront sur la 2ème pièce ;
– la 2ème pièce tombera face.

Alors:
Et le 2) des têtes apparaîtront ;
– l’événement est celui sur les deux pièces (au 1er Et le 2, ce sera face ;
– l’événement est que la 1ère pièce tombera face Et la 2ème pièce est face ;
– l’événement est que la 1ère pièce tombera face Et sur la 2ème pièce il y a un aigle.

Il est facile de voir que les événements incompatible (car par exemple, il ne peut pas tomber 2 têtes et 2 queues en même temps) et forme groupe complet (car pris en compte Tous résultats possibles du lancer de deux pièces). Résumons ces événements : . Comment interpréter cette entrée ? Très simple - la multiplication signifie un connecteur logique ET, et un ajout – OU. Ainsi, le montant est facile à lire dans un langage humain compréhensible : « deux têtes apparaîtront ou deux têtes ou la 1ère pièce tombera face Et sur la 2ème queue ou la 1ère pièce tombera face Et sur la 2ème pièce il y a un aigle"

C'était un exemple quand en un seul essai plusieurs objets sont impliqués, en l'occurrence deux pièces de monnaie. Un autre schéma courant dans les problèmes pratiques est retester , lorsque par exemple on lance le même dé 3 fois de suite. À titre de démonstration, considérons les événements suivants :

– au 1er lancer vous obtiendrez 4 points ;
– au 2ème lancer vous obtiendrez 5 points ;
– au 3ème lancer vous obtiendrez 6 points.

Puis l'événement est-ce qu'au 1er lancer tu obtiendras 4 points Et au 2ème lancer vous obtiendrez 5 points Et au 3ème lancer, vous obtiendrez 6 points. Évidemment, dans le cas d’un cube, il y aura beaucoup plus de combinaisons (résultats) que si nous jetions une pièce de monnaie.

...Je comprends que les exemples analysés ne sont peut-être pas très intéressants, mais ce sont des choses que l'on rencontre souvent dans les problèmes et il n'y a pas moyen d'y échapper. En plus d'une pièce de monnaie, d'un cube et d'un jeu de cartes, des urnes avec des boules multicolores, plusieurs anonymes tirant sur une cible et un travailleur infatigable qui peaufine constamment certains détails vous attendent =)

Probabilité de l'événement

Probabilité de l'événement est le concept central de la théorie des probabilités. ...Une chose logique, mais il fallait bien commencer quelque part =) Il existe plusieurs approches pour sa définition :

;
Définition géométrique de la probabilité ;
Définition statistique de la probabilité .

Dans cet article, je me concentrerai sur la définition classique de la probabilité, la plus largement utilisée dans les tâches éducatives.

Désignations. La probabilité d'un certain événement est indiquée par une lettre latine majuscule et l'événement lui-même est pris entre parenthèses, agissant comme une sorte d'argument. Par exemple:


En outre, la lettre minuscule est largement utilisée pour désigner une probabilité. Vous pouvez notamment abandonner les désignations encombrantes des événements et de leurs probabilités en faveur du style suivant : :

– la probabilité qu'un tirage au sort aboutisse à face ;
– la probabilité qu’un lancer de dé donne 5 points ;
– la probabilité qu'une carte de la couleur du trèfle soit tirée du paquet.

Cette option est populaire pour résoudre des problèmes pratiques, car elle vous permet de réduire considérablement l'enregistrement de la solution. Comme dans le premier cas, il est pratique d’utiliser ici des indices/exposants « parlants ».

Tout le monde a longtemps deviné les chiffres que je viens d'écrire ci-dessus, et nous allons maintenant découvrir comment ils se sont avérés :

Définition classique de la probabilité:

La probabilité qu'un événement se produise dans un certain test est appelée le rapport , où :

– nombre total de tous tout aussi possible, élémentaire résultats de ce test, qui forment groupe complet d'événements;

- quantité élémentaire les résultats, favorable événement.

Lorsque vous lancez une pièce de monnaie, pile ou face peut tomber - ces événements se forment groupe complet, donc le nombre total de résultats ; en même temps, chacun d'eux élémentaire Et tout aussi possible. L'événement est favorisé par le résultat (faces). Selon la définition classique de la probabilité : .

De même, à la suite du lancer d'un dé, des résultats élémentaires également possibles peuvent apparaître, formant un groupe complet, et l'événement est favorisé par un seul résultat (lancer un cinq). C'est pourquoi : CECI N'EST PAS ACCEPTÉ DE FAIRE (bien qu'il ne soit pas interdit d'estimer des pourcentages dans sa tête).

Il est d'usage d'utiliser des fractions d'unité, et, évidemment, la probabilité peut varier dans les limites de . De plus, si , alors l’événement est impossible, Si - fiable, et si , alors nous parlons de aléatoireévénement.

! Si, en résolvant un problème, vous obtenez une autre valeur de probabilité, recherchez l’erreur !

Dans l'approche classique de détermination des probabilités, les valeurs extrêmes (zéro et un) sont obtenues exactement selon le même raisonnement. Tirons au hasard 1 boule dans une certaine urne contenant 10 boules rouges. Considérez les événements suivants :

dans un seul essai, aucun événement à faible probabilité ne se produira.

C'est pourquoi vous ne remporterez pas le jackpot à la loterie si la probabilité de cet événement est, disons, de 0,00000001. Oui, oui, c’est vous – avec le seul billet dans un tirage particulier. Cependant, un plus grand nombre de tickets et un plus grand nombre de dessins ne vous aideront pas beaucoup. ...Quand j'en parle aux autres, j'entends presque toujours en réponse : « mais quelqu'un gagne ». D'accord, faisons l'expérience suivante : s'il vous plaît, achetez un billet pour n'importe quelle loterie aujourd'hui ou demain (ne tardez pas !). Et si vous gagnez... eh bien, au moins plus de 10 kiloroubles, assurez-vous de vous inscrire - je vous expliquerai pourquoi cela s'est produit. Pour un pourcentage, bien sûr =) =)

Mais il n'y a pas lieu d'être triste, car il existe un principe opposé : si la probabilité d'un événement est très proche de un, alors en un seul essai, il se produira. presque certain va arriver. Alors avant de sauter en parachute, il ne faut pas avoir peur, au contraire, sourire ! Après tout, des circonstances totalement impensables et fantastiques doivent survenir pour que les deux parachutes tombent en panne.

Bien que tout cela soit du lyrisme, car selon le contenu de l'événement, le premier principe peut s'avérer joyeux, et le second – triste ; ou même les deux sont parallèles.

Peut-être que ça suffit pour l'instant, en classe Problèmes de probabilité classiques nous tirerons le meilleur parti de la formule. Dans la dernière partie de cet article, nous considérerons un théorème important :

La somme des probabilités des événements qui forment un groupe complet est égale à un. En gros, si les événements forment un groupe complet, alors avec une probabilité de 100 %, l'un d'entre eux se produira. Dans le cas le plus simple, un groupe complet est formé d'événements opposés, par exemple :

– à la suite d'un tirage au sort, des têtes apparaîtront ;
– le résultat d’un tirage au sort sera pile.

D'après le théorème :

Il est absolument clair que ces événements sont également possibles et que leurs probabilités sont les mêmes. .

En raison de l'égalité des probabilités, les événements également possibles sont souvent appelés tout aussi probable . Et voici un virelangue pour déterminer le degré d'intoxication =)

Exemple avec un cube : les événements sont opposés, donc .

Le théorème considéré est pratique dans la mesure où il vous permet de trouver rapidement la probabilité de l'événement opposé. Ainsi, si la probabilité qu’un cinq soit obtenu est connue, il est facile de calculer la probabilité qu’il ne soit pas obtenu :

C’est beaucoup plus simple que de résumer les probabilités de cinq résultats élémentaires. Soit dit en passant, pour les résultats élémentaires, ce théorème est également vrai :
. Par exemple, si est la probabilité que le tireur atteigne la cible, alors est la probabilité qu'il la rate.

! En théorie des probabilités, il n'est pas souhaitable d'utiliser des lettres à d'autres fins.

En l'honneur de la Journée du savoir, je ne vous donnerai pas de devoirs =), mais il est très important que vous puissiez répondre aux questions suivantes :

– Quels types d’événements existent ?
– Qu’est-ce que le hasard et l’égalité de possibilité d’un événement ?
– Comment comprenez-vous les termes compatibilité/incompatibilité des événements ?
– Qu'est-ce qu'un groupe complet d'événements, des événements opposés ?
– Que signifient l’addition et la multiplication d’événements ?
– Quelle est l’essence de la définition classique de la probabilité ?
– Pourquoi le théorème d'addition des probabilités d'événements qui forment un groupe complet est-il utile ?

Non, vous n'avez pas besoin de fourrer quoi que ce soit, ce ne sont que les bases de la théorie des probabilités - une sorte d'amorce qui s'intégrera rapidement dans votre tête. Et pour que cela se fasse au plus vite, je vous propose de vous familiariser avec les cours

pour les étudiants de 2ème année de toutes spécialités

Département de mathématiques supérieures

Partie introductive

Chers étudiants!

Nous attirons votre attention sur une conférence de révision (introduction) du professeur N.Sh Kremer sur la discipline « Théorie des probabilités et statistiques mathématiques » pour les étudiants de deuxième année du VZFEI.

La conférence discute tâchesétudier la théorie des probabilités et les statistiques mathématiques dans une université d'économie et sa place dans le système de formation d'un économiste moderne, est considéré organisation indépendant le travail des étudiants utilisant un système de formation informatisé (CTS) et des manuels traditionnels est donné aperçu des principales dispositions ce cours, ainsi que des recommandations méthodologiques pour son étude.

Parmi les disciplines mathématiques étudiées dans une université d’économie, la théorie des probabilités et les statistiques mathématiques occupent une place particulière. Premièrement, c'est la base théorique des disciplines statistiques. Deuxièmement, les méthodes de la théorie des probabilités et des statistiques mathématiques sont directement utilisées dans l'étude. agrégats de masse phénomènes observés, traiter les résultats d’observation et identifier des modèles de phénomènes aléatoires. Enfin, la théorie des probabilités et les statistiques mathématiques ont une importance méthodologique importante dans processus cognitif, lors de l'identification d'un modèle général recherché processus, sert de logique base raisonnement inductif-déductif.

Chaque étudiant de deuxième année doit avoir l'ensemble (cas) suivant dans la discipline « Théorie des probabilités et statistiques mathématiques » :

1. Cours d'orientation général dans cette discipline.

2. Manuel N.Sh. Kremer « Théorie des probabilités et statistiques mathématiques » - M. : UNITY - DANA, 2007 (ci-après nous l'appellerons simplement « manuel »).

3. Manuel pédagogique et méthodologique« Théorie des probabilités et statistiques mathématiques » / éd. N.Sh. Krémer. – M. : Manuel universitaire, 2005 (ci-après dénommé « manuel »).

4. Programme de formation en informatique COPR pour la discipline (ci-après dénommé « programme informatique »).

Sur le site Web de l'institut, sur la page « Ressources de l'entreprise », des versions en ligne du programme informatique KOPR2, une conférence d'orientation générale et une version électronique du manuel sont publiées. De plus, le programme informatique et le manuel sont présentés à CD - ROM ah pour les étudiants de deuxième année. Ainsi, sous « forme papier », l’étudiant n’a besoin que d’un manuel.

Expliquons le but de chacun des matériels pédagogiques inclus dans l'ensemble (cas) spécifié.

Dans le manuel les principales dispositions du matériel pédagogique de la discipline sont présentées, illustrées par un nombre suffisamment important de problèmes résolus.

DANS avantages Des recommandations méthodologiques pour une étude indépendante du matériel pédagogique sont données, les concepts les plus importants du cours et les tâches typiques sont mis en évidence, des questions de test pour l'auto-évaluation dans cette discipline sont données, des options pour les tests à domicile que l'étudiant doit effectuer, ainsi que des conseils méthodologiques. des instructions pour leur mise en œuvre sont données.

Programme informatique est conçu pour vous apporter une aide maximale dans la maîtrise du cours en mode dialogue programme avec un étudiant afin de compenser au maximum votre manque de formation en classe et de contact approprié avec l'enseignant.

Pour un étudiant qui étudie à distance, l'importance primordiale et décisive est organisation du travail indépendant.

Lorsque vous commencez à étudier cette discipline, lisez cette conférence de présentation (introduction) jusqu'à la fin. Cela vous permettra d'avoir une idée générale des concepts et méthodes de base utilisés dans le cours « Théorie des probabilités et statistiques mathématiques », et des exigences relatives au niveau de formation des étudiants du VZFEI.

Avant d'étudier chaque sujet Lisez les directives pour étudier ce sujet dans le manuel. Vous trouverez ici une liste de questions pédagogiques sur ce sujet que vous étudierez ; découvrez quels concepts, définitions, théorèmes, problèmes sont les plus importants et doivent être étudiés et maîtrisés en premier.

Ensuite, passez à l'étude matériel pédagogique de base selon le manuel conformément aux recommandations méthodologiques reçues. Nous vous conseillons de prendre des notes dans un cahier séparé sur les principales définitions, les énoncés des théorèmes, les schémas de leurs preuves, les formules et les solutions aux problèmes typiques. Il est conseillé d'écrire les formules dans des tableaux spéciaux pour chaque partie du cours : théorie des probabilités et statistiques mathématiques. L'utilisation régulière de notes, notamment de tableaux de formules, permet de les mémoriser.

Ce n'est qu'après avoir parcouru le matériel pédagogique de base de chaque sujet du manuel que vous pourrez passer à l'étude de ce sujet à l'aide d'un programme de formation informatique (KOPR2).

Faites attention à la structure du programme informatique pour chaque sujet. Après le nom du sujet, il y a une liste des principales questions pédagogiques du sujet dans le manuel, indiquant le nombre de paragraphes et de pages à étudier. (N'oubliez pas qu'une liste de ces questions pour chaque sujet est également donnée dans le manuel).

Ensuite, sous une forme brève, des documents de référence sont donnés sur ce sujet (ou sur des paragraphes individuels de ce sujet) - définitions de base, théorèmes, propriétés et caractéristiques, formules, etc. Pendant l'étude d'un sujet, vous pouvez également afficher à l'écran les fragments de documents de référence (sur ce sujet ou sur des sujets précédents) qui sont actuellement nécessaires.

Ensuite, du matériel de formation vous est proposé et, bien sûr, des tâches standards ( exemples), dont la solution est considérée dans le mode dialogue programmes avec un étudiant. Les fonctions d’un certain nombre d’exemples se limitent à afficher les étapes de la bonne solution à l’écran à la demande de l’étudiant. Dans le même temps, en examinant la plupart des exemples, des questions d'une nature ou d'une autre vous seront posées. Les réponses à certaines questions doivent être saisies à l'aide du clavier. réponse numérique, aux autres - choisissez la ou les bonnes réponses parmi plusieurs proposés.

En fonction de la réponse que vous avez saisie, le programme confirme son exactitude ou suggère, après avoir lu l'indice contenant les principes théoriques nécessaires, de réessayer pour donner la bonne solution et la bonne réponse. De nombreuses tâches ont une limite sur le nombre de tentatives de résolution (si cette limite est dépassée, la bonne progression de la solution est nécessairement affichée à l'écran). Il existe également des exemples dans lesquels la quantité d'informations contenues dans l'indice augmente à mesure que les tentatives de réponse infructueuses sont répétées.

Après vous être familiarisé avec les principes théoriques du matériel pédagogique et des exemples fournis avec une analyse détaillée de la solution, vous devez effectuer des exercices de maîtrise de soi afin de consolider vos compétences dans la résolution de problèmes typiques sur chaque sujet. Les tâches de maîtrise de soi contiennent également des éléments de dialogue avec l'élève. Après avoir terminé la solution, vous pouvez regarder la bonne réponse et la comparer avec celle que vous avez donnée.

À la fin du travail sur chaque sujet, vous devez effectuer des tâches de contrôle. Les réponses correctes ne vous sont pas affichées et vos réponses sont enregistrées sur le disque dur de l'ordinateur pour examen ultérieur par l'enseignant-consultant (tuteur).

Après avoir étudié les sujets 1 à 7, vous devez passer le test à domicile n° 3, et après avoir étudié les sujets 8 à 11, le test à domicile n° 4. Des variantes de ces tests sont données dans le manuel (sa version électronique). Le numéro de l'option en cours d'exécution doit correspondre au dernier chiffre de votre numéro de dossier personnel (carnet de notes, carte étudiant). Pour chaque test, vous devez passer un entretien, au cours duquel vous devez démontrer votre capacité à résoudre des problèmes et votre connaissance des concepts de base (définitions, théorèmes (sans preuve), formules, etc.) sur le thème du test. L'étude de la discipline se termine par un examen de cours.

La théorie des probabilités est une science mathématique qui étudie les modèles de phénomènes aléatoires.

La discipline proposée à l'étude se compose de deux sections « Théorie des probabilités » et « Statistiques mathématiques ».



LA CLOCHE

Il y a ceux qui ont lu cette nouvelle avant vous.
Abonnez-vous pour recevoir de nouveaux articles.
E-mail
Nom
Nom de famille
Comment voulez-vous lire La Cloche ?
Pas de spam