KLELL

On neid, kes loevad seda uudist enne sind.
Tellige värskete artiklite saamiseks.
Meil
Nimi
Perekonnanimi
Kuidas soovite kellukest lugeda?
Rämpsposti pole

Tõenäosusteooria ja matemaatiline statistika

  • Agekyan T.A. Veateooria alused astronoomidele ja füüsikutele (2. väljaanne). M.: Nauka, 1972 (djvu, 2,44 M)
  • Agekyan T.A. Tõenäosusteooria astronoomidele ja füüsikutele. M.: Nauka, 1974 (djvu, 2,59 M)
  • Anderson T. Aegridade statistiline analüüs. M.: Mir, 1976 (djvu, 14 M)
  • Bakelman I.Ya. Werner A.L. Kantor B.E. Sissejuhatus diferentsiaalgeomeetriasse "üldiselt". M.: Nauka, 1973 (djvu, 5,71 M)
  • Bernstein S.N. Tõenäosusteooria. M.-L.: GI, 1927 (djvu, 4,51 M)
  • Billingsley P. Tõenäosusmõõtude konvergents. M.: Nauka, 1977 (djvu, 3,96 M)
  • Kast J. Jenkins G. Aegridade analüüs: prognoos ja juhtimine. 1. number. M.: Mir, 1974 (djvu, 3,38 M)
  • Kast J. Jenkins G. Aegridade analüüs: prognoos ja juhtimine. 2. number. M.: Mir, 1974 (djvu, 1,72 M)
  • Borel E. Tõenäosus ja usaldusväärsus. M.: Nauka, 1969 (djvu, 1,19 M)
  • Van der Waerden B.L. Matemaatiline statistika. M.: IL, 1960 (djvu, 6,90 M)
  • Vapnik V.N. Sõltuvuste taastamine empiiriliste andmete põhjal. M.: Nauka, 1979 (djvu, 6,18 M)
  • Ventzel E.S. Sissejuhatus operatsiooniuuringutesse. M.: Nõukogude raadio, 1964 (djvu, 8.43M)
  • Ventzel E.S. Mänguteooria elemendid (2. väljaanne). Sari: Populaarsed loengud matemaatikast. 32. number M.: Nauka, 1961 (djvu, 648 K)
  • Ventstel E.S. Tõenäosusteooria (4. väljaanne). M.: Nauka, 1969 (djvu, 8,05 M)
  • Ventstel E.S., Ovcharov L.A. Tõenäosusteooria. Ülesanded ja harjutused. M.: Nauka, 1969 (djvu, 7,71 M)
  • Vilenkin N.Ya., Potapov V.G. Praktiline tõenäosusteooria töövihik kombinatoorika ja matemaatilise statistika elementidega. M.: Haridus, 1979 (djvu, 1,12M)
  • Gmurman V.E. Tõenäosusteooria ja matemaatilise statistika ülesannete lahendamise juhend (3. trükk). M.: Kõrgem. kool, 1979 (djvu, 4,24 M)
  • Gmurman V.E. Tõenäosusteooria ja matemaatiline statistika(4. väljaanne). M.: Kõrgkool, 1972 (djvu, 3,75M)
  • Gnedenko B.V., Kolmogorov A.N. Sõltumatute juhuslike muutujate summade piirjaotused. M.-L.: GITTL, 1949 (djvu, 6,26 M)
  • Gnedenko B.V., Khinchin A.Ya. Elementaarne sissejuhatus tõenäosusteooriasse (7. väljaanne). M.: Nauka, 1970 (djvu, 2,48 M)
  • Tamm J.L. Tõenäosuslikud protsessid. M.: IL, 1956 (djvu, 8,48M)
  • David G. Tavastatistika. M.: Nauka, 1979 (djvu, 2,87M)
  • Ibragimov I.A., Linnik Yu.V. Sõltumatud ja statsionaarsed seotud suurused. M.: Nauka, 1965 (djvu, 6,05 M)
  • Idier V., Dryard D., James F., Rus M., Sadoulet B. Statistilised meetodid eksperimentaalfüüsikas. M.: Atomizdat, 1976 (djvu, 5,95 M)
  • Kamalov M.K. Levitamine ruutvormid normaalse populatsiooni proovides. Taškent: UsSSRi Teaduste Akadeemia, 1958 (djvu, 6,29 M)
  • Kassandra O.N., Lebedev V.V. Vaatlustulemuste töötlemine. M.: Nauka, 1970 (djvu, 867 K)
  • Katz M. Tõenäosus ja sellega seotud küsimused füüsikas. M.: Mir, 1965 (djvu, 3,67M)
  • Katz M. Mitmed füüsika ja matemaatika tõenäosusprobleemid. M.: Nauka, 1967 (djvu, 1,50 M)
  • Katz M. Statistiline sõltumatus tõenäosusteoorias, analüüsis ja arvuteoorias. M.: IL, 1963 (djvu, 964 K)
  • Kendall M., Moran P. Geomeetrilised tõenäosused. M.: Nauka, 1972 (djvu, 1,40 M)
  • Kendall M., Stewart A. 2. köide. Statistilised järeldused ja seosed. M.: Nauka, 1973 (djvu, 10 M)
  • Kendall M., Stewart A. 3. köide. Mitmemõõtmeline statistiline analüüs ja aegread. M.: Nauka, 1976 (djvu, 7,96 M)
  • Kendall M., Stewart A. Vol. 1. Jaotuste teooria. M.: Nauka, 1965 (djvu, 6,02 M)
  • Kolmogorov A.N. Tõenäosusteooria põhimõisted (2. trükk) M.: Nauka, 1974 (djvu, 2,14 M)
  • Koltšin V.F., Sevastjanov B.A., Tšistjakov V.P. Juhuslikud paigutused. M.: Nauka, 1976 (djvu, 2,96 M)
  • Kramer G. Statistika matemaatilised meetodid (2. trükk). M.: Mir, 1976 (djvu, 9,63 M)
  • Leman E. Statistiliste hüpoteeside testimine. M.: Teadus. 1979. aastal (djvu, 5,18 M)
  • Linnik Yu.V., Ostrovski I.V. Juhuslike suuruste ja vektorite dekompositsioonid. M.: Nauka, 1972 (djvu, 4,86 ​​M)
  • Likholetov I.I., Matskevitš I.P. Juhend kõrgema matemaatika, tõenäosusteooria ja matemaatilise statistika ülesannete lahendamiseks (2. trükk). Mn.: Vysh. kool, 1969 (djvu, 4,99 miljonit)
  • Loev M. Tõenäosusteooria. M.: IL, 1962 (djvu, 7.38M)
  • Malakhov A.N. Juhuslike mitte-Gaussi protsesside ja nende teisenduste kumulantanalüüs. M.: Sov. raadio, 1978 (djvu, 6,72M)
  • Meshalkin L.D. Tõenäosusteooria ülesannete kogu. M.: MSU, 1963 (djvu, 1 004 K)
  • Mitropolsky A.K. Hetketeooria. M.-L.: GIKSL, 1933 (djvu, 4,49 M)
  • Mitropolsky A.K. Statistilise andmetöötluse tehnikad (2. väljaanne). M.: Nauka, 1971 (djvu, 8.35M)
  • Mosteller F., Rurke R., Thomas J. Tõenäosus. M.: Mir, 1969 (djvu, 4,82M)
  • Nalimov V.V. Matemaatilise statistika rakendamine aine analüüsimisel. M.: GIFML, 1960 (djvu, 4.11M)
  • Neveu J. Tõenäosusteooria matemaatilised alused. M.: Mir, 1969 (djvu, 3,62M)
  • Preston K. Matemaatika. Uus välisteaduses nr.7. Gibbsi olekud loendatavatel komplektidel. M.: Mir, 1977 (djvu, 2,15 M)
  • Saveljev L.Ya. Elementaarne tõenäosusteooria. 1. osa. Novosibirsk: NSU, 2005 (

Tõenäosusteooria ja matemaatiline statistika


1. TEOREETILINE OSA


1 Juhuslike muutujate jadade ja tõenäosusjaotuste konvergents


Tõenäosusteoorias peame tegelema erinevat tüüpi juhuslike suuruste konvergents. Vaatleme järgmisi peamisi konvergentsi liike: tõenäosuse järgi, tõenäosusega üks, järgu p järgi, jaotuse järgi.

Olgu,... mingis tõenäosusruumis (, Ф, P) defineeritud juhuslikud muutujad.

Definitsioon 1. Juhuslike muutujate jada ... koondub tõenäosusega juhuslikuks muutujaks (tähistus:), kui mõni > 0


Definitsioon 2. Juhuslike muutujate jada ... koondub tõenäosusega üks (peaaegu kindlasti, peaaegu kõikjal) juhuslikule muutujale, kui


need. kui tulemuste hulk, mille puhul () ei ühti ()-ga, on null tõenäosusega.

Seda tüüpi konvergentsi tähistatakse järgmiselt: , või, või.

Definitsioon 3. Juhuslike muutujate jada ... nimetatakse keskmiseks-konvergendiks järku p, 0< p < , если


Definitsioon 4. Juhuslike muutujate jada... koondub jaotuses juhuslikuks muutujaks (tähistus:), kui mis tahes piiratud pideva funktsiooni korral


Konvergentsi juhuslike suuruste jaotuses defineeritakse ainult nende jaotusfunktsioonide konvergentsi kaudu. Seetõttu on seda tüüpi konvergentsist otstarbekas rääkida ka siis, kui juhuslikud suurused on määratud erinevates tõenäosusruumides.

1. teoreem.

a) (P-a.s.) jaoks on vajalik ja piisav, et mis tahes > 0 korral

) Jada () on põhitõenäosusega üks siis ja ainult siis, kui mis tahes > 0 korral.

Tõestus.

a) Olgu A = (: |- | ), A = A. Siis



Seetõttu on väide a) järgmise implikatsioonide ahela tulemus:

P(: )= 0 P() = 0 = 0 P(A) = 0, m 1 P(A) = 0, > 0 P() 0, n 0, > 0 P( ) 0,

n 0, > 0.) Tähistame = (: ), = . Siis (: (()) ei ole põhiline ) = ja samamoodi nagu punktis a) näidatakse, et (: (()) ei ole põhiline ) = 0 P( ) 0, n.

Teoreem on tõestatud


Teoreem 2. (Kauchy kriteerium peaaegu kindla konvergentsi jaoks)

Selleks, et juhuslike muutujate jada () koonduks tõenäosusega üks (mingile juhuslikule muutujale), on vajalik ja piisav, et see oleks tõenäosusega üks fundamentaalne.

Tõestus.

Kui, siis +

millest järeldub teoreemi tingimuste vajalikkus.

Nüüd olgu jada () põhiline tõenäosusega üks. Tähistame L = (: (()) mitte fundamentaalne). Siis on arvujada () kõigi jaoks põhiline ja Cauchy kriteeriumi järgi arvujadade jaoks on () olemas. Paneme



See määratletud funktsioon on juhuslik suurus ja.

Teoreem on tõestatud.


2 Iseloomulike funktsioonide meetod


Karakterfunktsioonide meetod on tõenäosusteooria analüütilise aparaadi üks peamisi tööriistu. Koos juhuslike muutujatega (reaalväärtuste võtmine) nõuab iseloomulike funktsioonide teooria kompleksväärtuslike juhuslike muutujate kasutamist.

Paljud juhuslike muutujatega seotud definitsioonid ja omadused on hõlpsasti ülekantavad keerukale juhtumile. Niisiis, matemaatiline ootus M ?kompleksväärtusega juhuslik suurus ?=?+?? loetakse kindlaks määratud, kui see on kindlaks määratud matemaatilised ootused M ?ja M ?. Sel juhul eeldame definitsiooni järgi M ?= M ? + ?M ?. Juhuslike elementide sõltumatuse definitsioonist järeldub, et kompleksväärtuslikud suurused ?1 =?1+??1 , ?2=?2+??2on sõltumatud siis ja ainult siis, kui juhuslike muutujate paarid on sõltumatud ( ?1 , ?1) ja ( ?2 , ?2), või, mis on sama, sõltumatu ?-algebra F ?1, ?1 ja F ?2, ?2.

Koos tühikuga L 2reaalsed juhuslikud muutujad lõpliku teise hetkega, saame arvesse võtta kompleksväärtuslike juhuslike muutujate Hilberti ruumi ?=?+?? koos M | ?|2?|2= ?2+?2ja skalaarkorrutis ( ?1 , ?2)= M ?1?2¯ , Kus ?2¯ - kompleksne konjugeeritud juhuslik suurus.

Algebralistes operatsioonides käsitletakse vektoreid Rn algebraliste veergudena,



Reavektoritena a* - (a1,a2,…,an). Kui Rn , siis nende skalaarkorrutist (a,b) mõistetakse suurusena. Selge see

Kui aRn ja R=||rij|| on maatriks järjestusega nхn



Definitsioon 1. Olgu F = F(x1,....,xn) - n-mõõtmeline jaotusfunktsioon punktis (, ()). Selle iseloomulikku funktsiooni nimetatakse funktsiooniks


2. definitsioon . Kui? = (?1,…,?n) on juhuslik vektor, mis on defineeritud tõenäosusruumis väärtustega in, siis selle iseloomulikku funktsiooni nimetatakse funktsiooniks



kus on F? = F?(х1,….,хn) - vektori jaotusfunktsioon?=(?1,…, ?n).

Kui jaotusfunktsiooni F(x) tihedus on f = f(x), siis



Sel juhul pole iseloomulik funktsioon midagi muud kui funktsiooni f(x) Fourier' teisendus.

(3) järeldub, et juhusliku vektori tunnusfunktsiooni ??(t) saab defineerida ka võrdsusega



Karakterfunktsioonide põhiomadused (n=1 korral).

Lase? = ?(?) - juhuslik suurus, F? =F? (x) on selle jaotusfunktsioon ja iseloomulik funktsioon.

Tuleb märkida, et kui, siis.



Tegelikult

kus kasutasime ära asjaolu, et sõltumatute (piiratud) juhuslike muutujate korrutise matemaatiline ootus on võrdne nende matemaatiliste ootuste korrutisega.

Omadus (6) on võtmetähtsusega sõltumatute juhuslike suuruste summade piirteoreemide tõestamisel karakteristlike funktsioonide meetodil. Sellega seoses väljendatakse jaotusfunktsiooni üksikute terminite jaotusfunktsioonide kaudu palju keerulisemal viisil, nimelt kus * märk tähendab jaotuste keerdumist.

Iga jaotusfunktsiooni saab seostada juhusliku muutujaga, mille jaotusfunktsioon on see funktsioon. Seetõttu võime karakteristlike funktsioonide omaduste esitamisel piirduda juhuslike suuruste tunnusfunktsioonide arvestamisega.

1. teoreem. Lase? - juhuslik suurus jaotusfunktsiooniga F=F(x) ja - sellele iseloomulik funktsioon.

Toimuvad järgmised omadused:

) on ühtlaselt pidev sisse;

) on reaalväärtuslik funktsioon siis ja ainult siis, kui F jaotus on sümmeetriline


)kui mõne n? 1, siis on kõigi jaoks tuletised ja



)Kui on olemas ja on lõplik, siis

) Olgu kõigi n ? 1 ja


siis kõigile |t|

Järgnev teoreem näitab, et karakteristlik funktsioon määrab üheselt jaotusfunktsiooni.

Teoreem 2 (unikaalsus). Olgu F ja G kaks jaotusfunktsiooni, millel on sama tunnusfunktsioon, see tähendab kõigi jaoks



Teoreem ütleb, et jaotusfunktsiooni F = F(x) saab selle iseloomulikust funktsioonist üheselt taastada. Järgmine teoreem annab funktsiooni F selge esituse.

Teoreem 3 (üldistusvalem). Olgu F = F(x) jaotusfunktsioon ja sellele iseloomulik funktsioon.

a) Mis tahes kahe punkti a, b (a< b), где функция F = F(х) непрерывна,


) Kui jaotusfunktsiooni F(x) tihedus on f(x),



Teoreem 4. Selleks, et juhusliku vektori komponendid oleksid sõltumatud, on vajalik ja piisav, et selle tunnusfunktsioon oleks komponentide karakteristlike funktsioonide korrutis:


Bochneri-Khinchini teoreem . Olgu pidev funktsioon Et see oleks iseloomulik, on vajalik ja piisav, et see oleks mittenegatiivne kindel, see tähendab mis tahes reaalarvude t1, ... , tn ja mis tahes kompleksarvude korral.



Teoreem 5. Olgu juhusliku suuruse tunnusfunktsioon.

a) Kui mõnele, siis on juhuslik suurus sammuga võre, st


) Kui kahe erineva punkti korral on irratsionaalarv, siis kas see on juhuslik suurus? on degenereerunud:



kus a on mingi konstant.

c) Kui, siis kas see on juhuslik suurus? degenereerunud.


1.3 Keskpiirteoreem sõltumatute identse jaotusega juhuslike suuruste jaoks


Olgu () sõltumatute, identselt jaotatud juhuslike muutujate jada. Ootus M= a, dispersioon D= , S = ja Ф(х) on normaalseaduse jaotusfunktsioon parameetritega (0,1). Tutvustame teist juhuslike muutujate jada



Teoreem. Kui 0<<, то при n P(< x) Ф(х) равномерно относительно х ().

Sel juhul nimetatakse järjestust () asümptootiliselt normaalseks.

Sellest, et M = 1 ja pidevuse teoreemidest järeldub, et koos nõrga konvergentsiga FM f() Mf() mis tahes pideva piiriga f korral on konvergents M f() Mf() iga pideva f korral. , nii et |f(x)|< c(1+|x|) при каком-нибудь.

Tõestus.

Ühtlane lähenemine on siin nõrga konvergentsi ja Ф(x) pidevuse tagajärg. Lisaks võime üldistust kaotamata eeldada, et a = 0, kuna vastasel juhul võiksime arvestada jada () ja jada () ei muutuks. Seetõttu piisab nõutava konvergentsi tõestamiseks, kui näidata, et (t) e, kui a = 0. Meil ​​on

(t) = , kus =(t).


Kuna M on olemas, siis lagunemine on olemas ja kehtib



Seetõttu n

Teoreem on tõestatud.


1.4 Matemaatilise statistika põhiülesanded, nende lühikirjeldus


Massilisi juhuslikke nähtusi reguleerivate mustrite loomine põhineb statistiliste andmete - vaatluste tulemuste - uurimisel. Matemaatilise statistika esimene ülesanne on näidata statistilise teabe kogumise ja rühmitamise viise. Matemaatilise statistika teine ​​ülesanne on välja töötada meetodid statistiliste andmete analüüsimiseks, olenevalt uuringu eesmärkidest.

Mis tahes matemaatilise statistika ülesande lahendamisel on kaks teabeallikat. Esimene ja kõige kindlam (selgesõnaline) on vaatluste (katse) tulemus skalaarse või vektorjuhusliku muutuja mõne üldkogumi valimi kujul. Sel juhul saab valimi suurust n fikseerida või eksperimendi käigus suureneda (st saab kasutada nn järjestikuseid statistilise analüüsi protseduure).

Teiseks allikaks on kogu a priori informatsioon uuritava objekti huvipakkuvate omaduste kohta, mis on praeguse hetkeni kogunenud. Formaalselt kajastub aprioorse info hulk esialgses statistilises mudelis, mis ülesande lahendamisel valitakse. Siiski pole vaja rääkida umbkaudsest määramisest sündmuse toimumise tõenäosuse tavapärases tähenduses katsete tulemuste põhjal. Mis tahes suuruse ligikaudse määramise all mõeldakse tavaliselt seda, et on võimalik näidata veapiirid, mille piires viga ei teki. Üksikute katsete tulemuste juhuslikkuse tõttu on sündmuse sagedus suvalise arvu katsete puhul juhuslik. Üksikkatsete tulemuste juhuslikkuse tõttu võib sagedus sündmuse tõenäosusest oluliselt erineda. Seega, kui defineerime sündmuse tundmatu tõenäosuse selle sündmuse sagedusena suure hulga katsete jooksul, ei saa me näidata veapiire ja tagada, et viga ei ületa neid piire. Seetõttu räägime matemaatilises statistikas tavaliselt mitte tundmatute suuruste ligikaudsetest väärtustest, vaid nende sobivatest väärtustest, hinnangutest.

Tundmatute parameetrite hindamise probleem tekib juhtudel, kui üldkogumi jaotusfunktsioon on kuni parameetrini teada. Sel juhul on vaja leida statistika, mille valimi väärtust juhusliku valimi vaadeldava teostuse xn jaoks võiks pidada parameetri ligikaudseks väärtuseks. Statistikat, mille valimi väärtust mis tahes realisatsiooni xn jaoks võetakse tundmatu parameetri ligikaudse väärtusena, nimetatakse punkthinnanguks või lihtsalt hinnanguks ja see on punkthinnangu väärtus. Punkthinnang peab vastama väga spetsiifilistele nõuetele, et selle valimi väärtus vastaks parameetri tegelikule väärtusele.

Võimalik on ka teine ​​lähenemine vaadeldava probleemi lahendamisele: leida selline statistika ja kas tõenäosusega? kehtib järgmine ebavõrdsus:



Sel juhul räägime intervallide hindamisest. Intervall



nimetatakse usaldusvahemikuks koos usalduskoefitsiendiga?.

Olles katsete tulemuste põhjal hinnanud üht või teist statistilist tunnust, tekib küsimus: kui järjepidev on eeldus (hüpotees), et tundmatul tunnusel on täpselt sama väärtus, mis saadi selle hindamise tulemusena katseandmetega? Nii tekib matemaatilise statistika teine ​​oluline ülesannete klass - hüpoteeside kontrollimise probleemid.

Teatud mõttes on statistilise hüpoteesi kontrollimise probleem parameetrite hindamise probleemi pöördvõrdeline. Parameetrit hinnates ei tea me midagi selle tegelikust väärtusest. Statistilise hüpoteesi testimisel eeldatakse millegipärast selle väärtust teada ja eksperimendi tulemuste põhjal on vaja seda eeldust kontrollida.

Paljudes matemaatilise statistika probleemides vaadeldakse juhuslike muutujate jadasid, mis koonduvad ühes või teises mõttes mingi piirini (juhuslik muutuja või konstant), millal.

Seega on matemaatilise statistika põhiülesanneteks hinnangute leidmise ja hinnatavatele tunnustele nende lähendamise täpsuse uurimise meetodite väljatöötamine ning hüpoteeside kontrollimise meetodite väljatöötamine.


5 Statistiliste hüpoteeside kontrollimine: põhimõisted


Statistiliste hüpoteeside kontrollimise ratsionaalsete meetodite väljatöötamise ülesanne on üks matemaatilise statistika põhiülesandeid. Statistiline hüpotees (või lihtsalt hüpotees) on igasugune väide katses täheldatud juhuslike muutujate jaotuse tüübi või omaduste kohta.

Olgu valim, mis on üldkogumi juhusliku valimi realisatsioon, mille jaotustihedus sõltub tundmatust parameetrist.

Statistilisi hüpoteese parameetri tundmatu tegeliku väärtuse kohta nimetatakse parameetrilisteks hüpoteesideks. Veelgi enam, kui on skalaar, siis me räägime ühe parameetri hüpoteesidest ja kui see on vektor, siis me räägime mitme parameetri hüpoteesidest.

Statistilist hüpoteesi nimetatakse lihtsaks, kui sellel on vorm

kus on mingi määratud parameetri väärtus.

Statistilist hüpoteesi nimetatakse keeruliseks, kui sellel on vorm


kus on parameetrite väärtuste komplekt, mis koosneb rohkem kui ühest elemendist.

Vormi kahe lihtsa statistilise hüpoteesi testimise korral

kus on parameetri kaks antud (erinevat) väärtust, siis esimest hüpoteesi nimetatakse tavaliselt peamiseks ja teist alternatiivseks või konkureerivaks hüpoteesiks.

Kriteerium ehk statistiline kriteerium hüpoteeside kontrollimisel on reegel, mille järgi valimiandmete põhjal otsustatakse kas esimese või teise hüpoteesi paikapidavus.

Kriteerium määratakse kriitilise hulga abil, mis on juhusliku valimi valimiruumi alamhulk. Otsus tehakse järgmiselt:

) kui valim kuulub kriitilisse hulka, siis lükka põhihüpoteesi tagasi ja nõustu alternatiivse hüpoteesiga;

) kui valim ei kuulu kriitilisse hulka (s.t. kuulub valimiruumi hulga täiendisse), siis alternatiivne hüpotees lükatakse tagasi ja põhihüpotees aktsepteeritakse.

Mis tahes kriteeriumi kasutamisel on võimalikud järgmist tüüpi vead:

1) nõustuma hüpoteesiga, kui see on tõene - esimest tüüpi viga;

) hüpoteesi aktsepteerimine, kui see on tõene, on II tüüpi viga.

Esimest ja teist tüüpi vigade tegemise tõenäosust tähistatakse järgmiselt:

kus on sündmuse tõenäosus eeldusel, et hüpotees on tõene. Näidatud tõenäosused arvutatakse juhusliku valimi jaotustiheduse funktsiooni abil:

I tüüpi vea sooritamise tõenäosust nimetatakse ka kriteeriumi olulisuse tasemeks.

Väärtust, mis võrdub põhihüpoteesi tagasilükkamise tõenäosusega, kui see on tõene, nimetatakse testi võimsuseks.


1.6 Sõltumatuse kriteerium


Kahemõõtmelisest jaotusest on valim ((XY), ..., (XY)).

L tundmatu jaotusfunktsiooniga, mille puhul on vaja testida hüpoteesi H: , kus on mõned ühemõõtmelised jaotusfunktsioonid.

Metoodika põhjal saab koostada lihtsa sobivuse testi hüpoteesi H jaoks. Seda tehnikat kasutatakse diskreetsete mudelite jaoks, millel on piiratud arv tulemusi, seega nõustume, et juhuslik muutuja võtab teatud väärtustest lõpliku arvu s, mida tähistame tähtedega, ja teine ​​komponent - k väärtused. Kui algsel mudelil on erinev struktuur, siis rühmitatakse juhuslike suuruste võimalikud väärtused eelnevalt eraldi esimeseks ja teiseks komponendiks. Sel juhul jagatakse hulk s intervallideks, seatud väärtus k intervalliks ja väärtuste komplekt ise N=sk ristkülikuteks.

Tähistagem paari vaatluste arvuga (ristkülikusse kuuluvate valimielementide arvuga, kui andmed on rühmitatud), nii et. Vaatlustulemusi on mugav järjestada kahe märgi kontingentsitabeli kujul (tabel 1.1). Rakendustes tähendab see tavaliselt kahte kriteeriumi, mille järgi vaatlustulemusi klassifitseeritakse.

Olgu P, i=1,…,s, j=1,…,k. Siis iseseisvuse hüpotees tähendab, et on olemas s+k konstandid sellised, et ja, s.t.


Tabel 1.1

Summa . . .. . .. . . . . .. . .. . . . . . . . . . . . . . .Summa . . .n

Seega taandub hüpotees H väitele, et sagedused (nende arv on N = sk) jaotuvad polünoomiseaduse järgi, mille tulemuste tõenäosus on kindlaksmääratud spetsiifiline struktuur (tulemite p tõenäosuse vektor määratakse väärtustega r = tundmatute parameetrite s + k-2.

Selle hüpoteesi kontrollimiseks leiame maksimaalse tõenäosuse hinnangud tundmatute parameetrite jaoks, mis määravad vaadeldava skeemi. Kui nullhüpotees on tõene, siis on tõenäosusfunktsioonil L(p)=, kus kordaja c ei sõltu tundmatutest parameetritest. Siit, kasutades määramata kordajate Lagrange'i meetodit, saame, et nõutavad hinnangud on kujul

Seetõttu statistika

L() at, kuna piirjaotuse vabadusastmete arv on võrdne N-1-r=sk-1-(s+k-2)=(s-1)(k-1).

Seega saab piisavalt suure n korral kasutada järgmist hüpoteesi testimise reeglit: hüpotees H lükatakse tagasi siis ja ainult siis, kui tegelikest andmetest arvutatud t statistiline väärtus rahuldab ebavõrdsust.

Sellel kriteeriumil on asümptootiliselt (at) antud olulisuse tase ja seda nimetatakse sõltumatuse kriteeriumiks.

2. PRAKTILINE OSA


1 Lahendused konvergentsi tüüpide probleemidele


1. Tõesta, et konvergents tähendab peaaegu kindlasti tõenäosuse lähenemist. Tooge näide, mis näitab, et vastupidine pole tõsi.

Lahendus. Laske juhuslike muutujate jada peaaegu kindlasti läheneda juhuslikule suurusele x. Nii et kellelegi? > 0

Sellest ajast peale

ja xn konvergentsist x-le järeldub peaaegu kindlasti, et xn koondub tõenäoliselt x-le, kuna sel juhul

Kuid vastupidine väide ei vasta tõele. Olgu sõltumatute juhuslike muutujate jada, millel on sama jaotusfunktsioon F(x), mis võrdub nulliga punktis x? 0 ja võrdne x > 0 korral. Vaatleme jada


See jada läheneb tõenäosusega nullile, kuna

kipub nulli iga fikseeritud? Ja. Nullile lähenemist aga peaaegu kindlasti ei toimu. Tõesti

kaldub ühtsusele, st tõenäosusega 1 mis tahes ja n korral on jadas realisatsioone, mis ületavad ?.

Pange tähele, et teatud lisatingimuste olemasolul suurustele xn tähendab tõenäosuse konvergents peaaegu kindlasti lähenemist.

Olgu xn monotoonne jada. Tõesta, et sel juhul tähendab xn-i tõenäosuse lähenemine x-le xn-i konvergentsi tõenäosusega 1.

Lahendus. Olgu xn monotoonselt kahanev jada, st. Arutluskäigu lihtsustamiseks eeldame, et x º 0, xn ³ 0 kõigi n puhul. Las xn koondub tõenäosusega x-le, kuid konvergentsi peaaegu kindlasti ei toimu. Kas see on siis olemas? > 0, nii et kõigi n


Kuid öeldu tähendab ka seda, et kõigi n

mis on vastuolus xn konvergentsiga x tõenäosusega. Seega koondub monotoonse jada xn puhul, mis tõenäosusega koondub x-le, ka tõenäosusega 1 (peaaegu kindlasti).

Jada xn koondub tõenäosusega x-le. Tõesta, et sellest jadast on võimalik eraldada jada, mis koondub x-le tõenäosusega 1 at.

Lahendus. Laskma olla mõned positiivsete arvude jada ja lasta ja olla positiivsed arvud, nii et seeria. Koostame indeksite jada n1

Siis sari


Kuna seeria läheneb, siis mis tahes? > 0, ülejäänud seeria kipub nulli. Siis aga kipub nulli ja



Tõesta, et mis tahes positiivse järgu keskmine konvergents tähendab tõenäosuse lähenemist. Tooge näide, mis näitab, et vastupidine pole tõsi.

Lahendus. Laske jada xn koonduda väärtusele x keskmiselt suurusjärgus p > 0, see tähendab



Kasutame üldistatud Tšebõševi ebavõrdsust: meelevaldseks? > 0 ja p > 0



Seda suunates ja arvesse võttes saame selle



see tähendab, et xn koondub tõenäosusega x-le.

Tõenäosuse konvergents ei too aga kaasa konvergentsi keskmises järjekorras p > 0. Seda illustreerib järgmine näide. Vaatleme tõenäosusruumi áW, F, Rñ, kus F = B on Boreli s-algebra, R on Lebesgue'i mõõt.

Määratleme juhuslike muutujate jada järgmiselt:

Jada xn läheneb tõenäosusega 0-le, kuna



aga iga p > 0 korral



see tähendab, et see ei lähe keskmiselt kokku.

Olgu, mis kõigile n . Tõesta, et sel juhul koondub xn keskmises ruudus x-le.

Lahendus. Pange tähele, et... Teeme hinnangu. Vaatleme juhuslikku muutujat. Lase? - suvaline positiivne arv. Siis kell ja kell.



Kui, siis ja. Seega,. Ja sellepärast? suvaliselt väike ja siis at, st keskmises ruudus.

Tõesta, et kui xn koondub tõenäosusega x-le, siis tekib nõrk konvergents. Tooge näide, mis näitab, et vastupidine pole tõsi.

Lahendus. Tõestame, et kui igas punktis x, mis on pidevuspunkt (see on nõrga konvergentsi vajalik ja piisav tingimus), on väärtuse xn jaotusfunktsioon ja - x väärtus.

Olgu x funktsiooni F pidevuspunkt. Kui, siis vähemalt üks võrratustest või on tõene. Siis



Samamoodi vähemalt ühe võrratuse või ja puhul






Kui, siis nii väikeseks kui soovitakse? > 0 on olemas N, nii et kõigi n > N korral



Teisest küljest, kui x on pidevuspunkt, kas on võimalik midagi sellist leida? > 0, mis suvaliselt väikeseks



Niisiis, nii väikeseks kui soovite? ja on olemas N nii, et n puhul >N




või mis on sama,



See tähendab, et lähenemine ja toimub kõigis järjepidevuse punktides. Järelikult tuleneb tõenäosuse konvergentsist nõrk konvergents.

Vastupidine väide üldiselt ei kehti. Selle kontrollimiseks võtame juhuslike muutujate jada, mis ei võrdu tõenäosusega 1 ja millel on sama jaotusfunktsioon F(x). Eeldame, et kõigi n suuruste ja on sõltumatud. Ilmselgelt toimub nõrk konvergents, kuna jada kõigil liikmetel on sama jaotusfunktsioon. Kaaluge:

|Väärtuste sõltumatusest ja identsest jaotusest järeldub, et




Valime kõigi mittedegenereerunud juhuslike muutujate jaotusfunktsioonide hulgast sellise F(x), mis on nullist erinev kõigi piisavalt väikeste ? korral. Siis ei kipu see n piiramatu kasvuga nulli ja tõenäosuse lähenemist ei toimu.

7. Olgu nõrk konvergents, kus tõenäosusega 1 on konstant. Tõesta, et sel juhul koondub see tõenäosusega.

Lahendus. Olgu tõenäosus 1 võrdne a. Siis tähendab nõrk konvergents mis tahes konvergentsi. Alates, siis kell ja kell. See tähendab kell ja kell. Sellest järeldub see kellegi jaoks? > 0 tõenäosus



kipuvad nulli. See tähendab, et

kipub nulli, st läheneb tõenäosusele.

2.2 Keskküttekeskuse probleemide lahendamine


Gammafunktsiooni Г(x) väärtus x= juures arvutatakse Monte Carlo meetodil. Leiame minimaalne vajalik arv teste, et tõenäosusega 0,95 võiksime eeldada, et arvutuste suhteline viga on alla ühe protsendi.

Kuni meie käsutuses oleva täpsuseni



On teada, et



Olles teinud muudatuse punktis (1), jõuame lõpliku intervalli integraalini:



Meiega seega


Nagu näha, saab seda esitada kujul, kus ja jaotub ühtlaselt edasi. Laske läbi viia statistilised testid. Siis on statistiline analoog kogus



kus on sõltumatud juhuslikud muutujad ühtlase jaotusega. Samal ajal



CLT-st järeldub, et see on parameetritega asümptootiliselt normaalne.






See tähendab, et arvutuse suhtelise vea tõenäosusega tagavate testide minimaalne arv ei ole suurem kui võrdne.


Vaatleme 2000 sõltumatut identselt jaotatud juhuslikku muutujat, mille matemaatiline ootus on 4 ja dispersioon 1,8. Nende suuruste aritmeetiline keskmine on juhuslik suurus. Määrake tõenäosus, et juhuslik muutuja saab väärtuse vahemikus (3,94; 4,12).

Olgu …,… sõltumatute juhuslike muutujate jada, millel on sama jaotus M=a=4 ja D==1,8. Seejärel on CLT rakendatav järjestusele (). Juhuslik muutuja

Tõenäosus, et see võtab väärtuse vahemikus ():



Kui n = 2000, saame 3,94 ja 4,12



3 Hüpoteeside kontrollimine sõltumatuse kriteeriumi abil


Uuringu tulemusena selgus, et 782 heledasilmsel isal on ka heledasilmsed pojad ning 89 heledasilmsel isal on tumedasilmsed pojad. 50 tumedasilmsel isal on ka tumedasilmsed pojad ja 79 tumedasilmsel isal on heledasilmsed pojad. Kas isade silmavärvi ja nende poegade silmavärvi vahel on seos? Võtke usaldustasemeks 0,99.


Tabel 2.1

LapsedIsadSum HelesilmsedTumedasilmsed Helesilmsed78279861Tumedasilmsed8950139Sum8711291000

H: Laste ja isade silmavärvi vahel pole mingit seost.

H: Laste ja isade silmavärvi vahel on seos.



s=k=2 =90,6052 1 vabadusastmega

Arvutused tehti Mathematica 6-s.

Kuna > , siis tuleks hüpotees H, mis käsitleb isade ja laste silmavärvi vahelise seose puudumist olulisuse tasemel, tagasi lükata ja nõustuda alternatiivse hüpoteesiga H.


Märgitakse, et ravimi toime sõltub kasutusviisist. Kontrollige seda väidet tabelis esitatud andmete abil. 2.2 Võtke usaldustasemeks 0,95.


Tabel 2.2

Tulemus Kasutusmeetod ABC Ebasoodne 111716 Soodne 202319

Lahendus.

Selle probleemi lahendamiseks kasutame kahe tunnuse situatsioonitabelit.


Tabel 2.3

Tulemus Taotlusmeetod Summa ABC Ebasoodne 11171644 Soodne 20231962 Summa 314035106

H: ravimite toime ei sõltu manustamisviisist

H: ravimite toime sõltub kasutusviisist

Statistika arvutatakse järgmise valemi abil



s=2, k=3, =0,734626 2 vabadusastmega.


Mathematica 6-s tehtud arvutused

Jaotustabelitest leiame selle.

Sest< , то гипотезу H, про отсутствия зависимости действия лекарств от способа применения, при уровне значимости, следует принять.


Järeldus


Käesolevas artiklis esitatakse teoreetilised arvutused jaotisest „Sõltumatuse kriteerium“, samuti „Tõenäosusteooria piirteoreemid“, kursusest „Tõenäosusteooria ja matemaatiline statistika“. Töö käigus testiti praktikas sõltumatuse kriteeriumi; Samuti kontrolliti antud sõltumatute juhuslike muutujate jadade puhul keskse piiri teoreemi täitumist.

See töö aitas parandada minu teadmisi nende tõenäosusteooria osade kohta, töötada kirjanduslike allikatega ja omandada kindlalt sõltumatuse kriteeriumi kontrollimise tehnikat.

tõenäosusliku statistilise hüpoteesi teoreem

Linkide loend


1. Tõenäosusteooria ülesannete kogumine koos lahendustega. Uh. toetus / Toim. V.V. Semenets. - Harkov: KhTURE, 2000. - 320 lk.

Gikhman I.I., Skorokhod A.V., Yadrenko M.I. Tõenäosusteooria ja matemaatiline statistika. - K.: Vištša kool, 1979. - 408 lk.

Ivchenko G.I., Medvedev Yu.I., Matemaatiline statistika: õpik. toetus kolledžitele. - M.: Kõrgem. kool, 1984. - 248 lk., .

Matemaatiline statistika: Õpik. ülikoolidele / V.B. Gorjainov, I.V. Pavlov, G.M. Tsvetkova ja teised; Ed. V.S. Zarubina, A.P. Krischenko. - M.: MSTU kirjastus im. N.E. Bauman, 2001. - 424 lk.


Õpetamine

Vajad abi teema uurimisel?

Meie spetsialistid nõustavad või pakuvad juhendamisteenust teid huvitavatel teemadel.
Esitage oma taotlus märkides teema kohe ära, et saada teada konsultatsiooni saamise võimalusest.

Tõenäosusteooria ja matemaatilise statistika alused

Tõenäosusteooria ja matemaatilise statistika alused Tõenäosusteooria põhimõisted Tõenäosusteooria uurimisobjektiks on massilise iseloomuga homogeensete juhuslike nähtuste kvantitatiivsed mustrid. Definitsioon 1. Sündmus on mis tahes võimalik fakt, mille kohta võib öelda, et see juhtub või ei juhtu antud tingimustel. Näide. Konveierilt maha tulevad valmisampullid võivad olla kas standardsed või mittestandardsed. Ühte (mis tahes) tulemust nendest kahest võimalikust nimetatakse sündmuseks. Sündmusi on kolme tüüpi: usaldusväärsed, võimatud ja juhuslikud. Definitsioon 2. Usaldusväärne on sündmus, mis teatud tingimuste täitmisel ei saa juhtumata jääda, s.t. kindlasti juhtub. Näide. Kui urnis on ainult valged pallid, siis juhuslikult urnist võetud pall on alati valge. Nendel tingimustel on valge palli ilmumine usaldusväärne sündmus. Definitsioon 3. Võimatu on sündmus, mis teatud tingimuste täitmisel toimuda ei saa. Näide. Ainult musti palle sisaldavast urnist ei saa valget palli eemaldada. Nendes tingimustes on valge palli ilmumine võimatu sündmus. Definitsioon 4. Juhuslik on sündmus, mis samadel tingimustel võib toimuda, kuid ei pruugi toimuda. Näide. Üles visatud münt võib kukkuda nii, et selle ülemisele küljele ilmub kas vapp või number. Siin on mündi ühe või teise poole ilmumine peal juhuslik sündmus. Definitsioon 5. Test on tingimuste või toimingute kogum, mida saab korrata lõpmatu arv kordi. Näide. Mündi ülesviskamine on proovikivi ning võimalik tulemus, s.o. kas vapi või numbri ilmumine mündi ülemisele küljele on sündmus. Definitsioon 6. Kui sündmused A i on sellised, et antud testi käigus saab toimuda ainult üks neist ja mitte ühtegi teist, mis ei kuulu kogusummasse, siis nimetatakse neid sündmusi ainuvõimalikeks. Näide. Urnis on valged ja mustad pallid ja mitte ühtegi muud. Üks juhuslikult võetud pall võib osutuda valgeks või mustaks. Need sündmused on ainsad võimalikud, sest Erinevat värvi palli ilmumine selle katse ajal on välistatud. Definitsioon 7. Kaht sündmust A ja B nimetatakse kokkusobimatuteks, kui need ei saa antud testi ajal koos esineda. Näide. Vapp ja number on ainsad võimalikud ja kokkusobimatud sündmused ühe mündiviske ajal. Definitsioon 8. Kaht sündmust A ja B nimetatakse antud katse ajal ühisteks (ühilduvateks), kui neist ühe esinemine ei välista teise sündmuse toimumise võimalust sama testi ajal. Näide. Ühes kahe mündiviskega on võimalik, et pea ja number ilmuvad koos. Definitsioon 9. Sündmusi A i nimetatakse antud testis võrdselt võimalikeks, kui sümmeetria tõttu on alust arvata, et ükski neist sündmustest pole teistest võimalikum. Näide. Sama võimalik sündmus on mis tahes näo ilmumine ühe stantsi viskamise ajal (eeldusel, et matriit on valmistatud homogeensest materjalist ja sellel on korrapärase kuusnurga kuju). Definitsioon 10. Sündmusi nimetatakse teatud sündmuse jaoks soodsateks (soodsateks), kui ühe sündmuse toimumine toob kaasa selle sündmuse toimumise. Juhtumeid, mis välistavad sündmuse toimumise, nimetatakse selle sündmuse jaoks ebasoodsaks. Näide. Urnis on 5 valget ja 7 musta palli. Kui võtate juhuslikult ühe palli, võib teie käes olla kas valge või must pall. Sel juhul soosib valge palli välimust 5 ja musta palli ilmumist 7 juhtumit kokku 12 võimalikust juhtumist. Definitsioon 11. Kahte ainult võimalikku ja kokkusobimatut sündmust nimetatakse vastandlikuks. Kui üks neist sündmustest on tähistatud tähega A, siis vastupidine sündmus tähistatakse sümboliga Ā. Näide. Löö ja miss; loteriipileti võit ja kaotus on kõik näited vastupidisetest sündmustest. Definitsioon 12. Kui n-st sarnasest üksikkatsest või vaatlusest (testist) koosneva massioperatsiooni tulemusena ilmneb mõni juhuslik sündmus m korda, siis nimetatakse arvu m juhusliku sündmuse sageduseks ja suhteks m / n nimetatakse selle sageduseks. Näide. Esimese 20 toote hulgas, mis koosteliinilt maha tulid, oli 3 mittestandardset toodet (defekti). Siin on katsete arv n = 20, defektide sagedus m = 3, defektide sagedus m / n = 3/20 = 0,15. Igal juhuslikul sündmusel antud tingimustes on oma objektiivne toimumisvõimalus ja mõne sündmuse puhul on see toimumisvõimalus suurem, teiste puhul väiksem. Sündmuste kvantitatiivseks võrdlemiseks nende toimumise võimalikkuse astme osas seostatakse iga juhusliku sündmusega teatud reaalarv, mis väljendab kvantitatiivset hinnangut selle sündmuse toimumise objektiivse võimalikkuse astmele. Seda arvu nimetatakse sündmuse tõenäosuseks. Definitsioon 13. Teatud sündmuse tõenäosus on selle sündmuse toimumise objektiivse võimalikkuse arvuline mõõde. Definitsioon 14. (Tõenäosuse klassikaline definitsioon). Sündmuse A tõenäosus on selle sündmuse toimumiseks soodsate juhtumite m arvu suhe kõigi võimalike juhtumite arvu n, s.o. P(A) = m/n. Näide. Urnis on 5 valget ja 7 musta palli, mis on põhjalikult segatud. Kui suur on tõenäosus, et üks urnist juhuslikult tõmmatud pall on valge? Lahendus. Selles testis on ainult 12 võimalikku juhtumit, millest 5 pooldavad valge palli välimust. Seetõttu on valge palli ilmumise tõenäosus P = 5/12. Definitsioon 15. (Tõenäosuse statistiline definitsioon). Kui piisavalt suure arvu korduvate katsete korral mõne sündmuse A suhtes on märgata, et sündmuse sagedus kõigub mingi konstantse arvu ümber, siis on sündmusel A tõenäosus P(A), ligikaudu võrdne sagedusega, s.t. P(A)~ m/n. Sündmuse sagedust piiramatul arvul katsetel nimetatakse statistiliseks tõenäosuseks. Tõenäosuse põhiomadused. 1 0 Kui sündmusega A kaasneb sündmus B (A  B), siis sündmuse A tõenäosus ei ületa sündmuse B tõenäosust. P(A)≤P(B) 2 0 Kui sündmused A ja B on samaväärsed (A  B) B, B  A, B=A), siis on nende tõenäosused võrdsed P(A)=P(B). 3 0 Ühegi sündmuse A tõenäosus ei saa olla negatiivne arv, s.t. Р(А)≥0 4 0 Usaldusväärse sündmuse  tõenäosus on võrdne 1-ga. Р()=1. 5 0 Võimatu sündmuse  tõenäosus on 0. Р(  )=0. 6 0 Iga juhusliku sündmuse A tõenäosus jääb nulli ja ühe 0 vahele<Р(А)<1 Основные формулы комбинаторики Определение 1 . Различные группы по m предметов, составленные из n однородных предметов ( m , n ), называются соединениями. Предметы, из которых составляют различные соединения, называют элементами. Существует 3 вида соединений: размещения, перестановки, сочетания. Определение 2. Размещениями по m элементов из данных n элементов ( m ≤ n ) называют такие соединения, которые отличаются друг от друга либо самими элементами, либо их порядком. Например, размещениями из трех предметов a , b и c по два будут следующие соединения: ab , ac , bc , ca , cb , ba . Число размещений из данных n элементов по m обозначают символом А n m = n ( n -1)( n -2)·....·( n - m +1). Пример. А 10 4 =10·9·8·7=5040. Определение 3. Перестановками из n элементов называют такие соединения, которые отличаются друг от друга только порядком элементов. Р n =А n n = n ( n -1)( n -2)...·3·2·1= n ! По определению 0!=1. Пример. Р 5 =5!=1·2·3·4·5=120. Определение 4. Сочетаниями из n элементов по m называются также соединения, которые отличаются друг от друга, по меньшей мере, одним элементом и каждое из которых содержит m различных элементов: C n m === Пример. Найти число сочетаний из 10 элементов по четыре. Решение. C 10 4 ==210. Пример. Найти число сочетаний из 20 элементов по 17. Решение. ==1040. Теоремы теории вероятностей Теорема сложения вероятностей Теорема 1 . Вероятность наступления одного какого-либо события из двух несовместимых событий А и В равно сумме вероятностей этих событий Р(А+В)=Р(А)+Р(В ). Пример. В урне 5 красных, 7 синих и 8 белых шаров, перемешанных между собой. Какова вероятность того, что взятый наугад один шар окажется не красным? Решение. Не красный шар - это или белый или синий шары. Вероятность появления белого шара (событие А) равна Р(А)= 8/20 = 2/5. Вероятность появления синего шара (событие В) равна Р(В)= 7/20. Событие, состоящее в появлении не красного шара, означает появление или А или В, т.к. события А и В несовместимы, то применима теорема 1. Искомая вероятность будет равна Р(А+В)=Р(А)+Р(В)=2/5+ +7/20=3/4. Теорема 2. Вероятность наступления одного из двух событий A или B равно сумме вероятностей этих событий минус вероятность их совместного появления P ( A + B )= P ( A )+ P ( B )+ P ( AB ). Теорема умножения вероятностей Определение 1. Два события A и B называются независимыми друг от друга, если вероятность одного из них не зависит от наступления или ненаступления другого. Пример. Пусть A - событие, состоящее в появлении герба при первом бросании монеты, а B - событие, состоящее в появлении герба при втором бросании монеты, то события A и B не зависят друг от друга, т.е. результат первого бросания монеты не может изменить вероятность появления герба при втором бросании монеты. Определение 2. Два события A и B называются зависящими друг от друга, если вероятность одного из них зависит от наступления или ненаступления другого. Пример. В урне 8 белых и 7 красных шаров, перемешанных между собой. Событие A - появление белого шара, а событие B - появление красного шара. Будем брать из урны наугад два раза по одному шару, не возвращая их обратно. До начала испытания вероятность появления события A равна P ( A )=8/15, и вероятность события B равна P ( B )=7/15. Если предположить, что в первый раз был взят белый шар (событие A ), то вероятность появления события B при втором испытании будет P ( B )=7/14=1/2. Если в первый раз был взят красный шар, то вероятность появления красного шара при втором извлечении равна P ( B )=6/14=3/7. Определение 3. Вероятность события B , вычисленная в предположении, что перед этим наступило связанное с ним событие A , называется условной вероятностью события B и обозначается PA ( B ). Теорема 3 . Вероятность совместного наступления двух зависимых событий ( A и B ) равна произведению вероятности одного из них на условную вероятность другого, вычисленную в предположении, что первое событие произошло, т.е. P ( AB )= P ( A )· P A ( B )= P ( B )· P B ( A ). Теорема 4. Вероятность совместного наступления нескольких зависимых событий равно произведению вероятности одного из них на условные вероятности всех остальных событий, вычисленные в предположении, что все предыдущие события уже наступили: P(A 1 A 2 A 3 ...A k )=P(A 1 )·P A1 (A 2 )·P A1A2 ·P(A 3 )...·P A1A2…A k-1 (A k ) Теорема 5 . Вероятность совместного наступления двух независимых событий A и B равна произведению вероятностей этих событий P ( AB )= P ( A )· P ( B ). Теорема 6 . Вероятность совместного наступления нескольких независимых событий A 1 , A 2 , ... A k равна произведению их вероятностей, т.е. P ( A 1 A 2 ... A k )= P ( A 1 )· P ( A 2 )·...· P ( A k ). Пример. Два стрелка делают одновременно по одному выстрелу в одну цель. Какова вероятность того, что оба попадут, если известно, что первый стрелок в среднем дает 7 попаданий, а второй 8 попаданий на каждые 10 выстрелов? Какова вероятность поражения мишени? Решение. Вероятность попадания первого стрелка (событие A ) равна P ( A )=0,8, вероятность попадания второго стрелка (событие B ) равна P ( B )=0,7. События A и B независимы друг от друга, поэтому вероятность совместного наступления этих событий (совместное попадание в цель) найдем по теореме умножения для независимых событий: P ( AB )= P ( A ) P ( B )=0,8·0,7=0,56. Вероятность поражения мишени означает попадание в мишень хотя бы одного стрелка. Так как попадание в мишень первого и второго стрелков являются событиями совместными, то применение теоремы сложения вероятностей для совместных событий дает следующий результат: P(A+B)=P(A)+P(B)-P(AB)=P(A)+P(B)-P(A)·P(B)=0,8+0,7- 0,8·0,7=0,94. 5.3.3. Формула полной вероятности Определение 4. Если при некотором испытании может произойти одно какое-либо событие из нескольких несовместных A 1 , A 2 ,..., A k , и при этом никаких других событий быть не может, но одно из указанных событий обязательно произойдет, то группу событий A 1 , A 2 ,..., A k называют полной группой событий. Теорема 7. Сумма вероятностей событий, образующих полную группу, равна единице: P ( A 1 )+ P ( A 2 )+...+ P ( A k )=1. Следствие. Сумма вероятностей двух противоположных событий равна единице: P ( A )+ P ( A )=1. Если вероятность одного события обозначим через p , вероятность противоположного ему события обозначим через q , тогда p + q =1. Пример. Вероятность попадания в цель равна 0,94. Найти вероятность непопадания. Решение . Попадание в цель и непопадание являются противоположными событиями, поэтому, если p =0,94, то q =1- p =1-0,94=0,06. Теорема 8 . Если случайные события A 1 , A 2 ... A n образуют полную систему, и если событие B может осуществляться только совместно с каким-нибудь одним из этих событий, то вероятность наступления события B можно определить по формуле: P(B)=P(A 1 )P A1 (B)+P(A 2 )P A2 (B)+...+P(A n )P A n (B) Это равенство называется формулой полной вероятности . Пример. На склад готовой продукции поступили изделия из трех цехов, в том числе: 30% из I -го цеха, 45% из II цеха и 25% из III цеха. Среди изделий I цеха брак составляет 0,6%, по II цеху 0,4% и по III цеху-0,16%. Какова вероятность того, что взятое наугад для контроля одно изделие окажется с браком? Решение. Одно изделие может быть взято или из продукции I цеха (событие A 1 ), или из продукции II цеха (событие A 2 ), или из продукции III цеха (событие A 3 ). Вероятности этих событий будут: P ( A 1 )=0,30; P ( A 2 )=0,45; P ( A 3 )=0,25. Вероятность того, что изделие с браком (событие B ) будет взято из продукции I цеха, есть условная вероятность P A 1 ( B ). Она равна P A 1 ( B )=0,006. Вероятность того, что изделие с браком будет взято из продукции II цеха P A 2 ( B )=0,004 и из продукции III цеха P A 3 ( B )=0,0016. Теперь по формуле полной вероятности найдем вероятность того, что взятое наугад одно изделие будет с браком: P(B)=P(A 1 )P A1 (B)+P(A 2 )P A2 (B)+...+P(A 3 )P A3 (B) = 0,3·0,006+0,45·0,004+0,25·0,0016=0,004. Формула Бернулли Теорема 9. Пусть производится n независимых повторных испытаний по отношению к некоторому событию A . Пусть вероятность появления этого события в каждом отдельном испытании остается неизменно равной p , а вероятность появления противоположного события Ā, есть q . Тогда вероятность появления интересующего нас события A равно m раз при указанных n испытаниях рассчитывается по формуле Бернулли: P m , n = p m q n - m , так как, то P m , n = · p m · q n - m Пример. Коэффициент использования станка в среднем равен 0,8. В цехе имеется 5 станков. Какова вероятность того, что в некоторый момент времени окажутся работоспособными только 3 станка? Решение. Задача подходит под схему повторных испытаний и решается по формуле Бернулли: n =5, m =3, p =0,8 и q =1-0,8=0,2: P 3,5 = (0,8) 3 ·(0,2) 2 =0,2084. Асимптотическая формула Пуассона В статистической практике нередко встречаются такие примеры независимых испытаний, когда при большом числе n независимых испытаний вероятность Р появления события в каждом отдельном испытании оказывается сравнительно малой величиной, стремящейся к нулю с увеличением числа испытаний . При этих условиях для вычисления вероятности Р m , n появление события m раз в n испытаниях пользуются асимптотической формулой Пуассона : Р m,n ≈e -a , где a=np Пример. Доля брака всей продукции завода составляет 0,5%. Какова вероятность того, что в партии, состоящей из 400 изделий, окажется три изделия бракованных? Решение. В условии примера дано p =0,005, n =400, m =3, следовательно, a = np =400·0,005=2. Вероятность данного события найдем по формуле Пуассона Р m , n (3,400) = 0,1804. Случайные величины и их числовые характеристики Определение 1. Случайной величиной называется переменная величина, которая в результате опыта принимает одно значение, причем неизвестно заранее, какое именно. Определение 2. Дискретной называется случайная величина, которая может принимать лишь отдельные, изолированные друг от друга значения. Случайная дискретная величина задается законом распределения, связывающим принимаемые ею значения x i и вероятности их принятия p i . Закон распределения чаще всего задается в табличной форме. Графическое представление закона распределения случайной дискретной величины – многоугольник распределения . Числовые характеристики дискретной случайной величины. 1) Математическое ожидание. Определение 3. Математическое ожидание случайной дискретной величины X с конечным числом значений называется сумма произведений возможных ее значений на их вероятности: M ( X ) = μ = x 1 p 1 + x 2 p 2 +...+ x n p n = . Вероятности всех значений случайной дискретной величины удовлетворяют условию нормировки: Свойства математического ожидания. 1 0 Математическое ожидание постоянной (неслучайной) величины С равно самой постоянной M ( C )= C . 2 0 Математическое ожидание алгебраической суммы нескольких случайных величин равно алгебраической сумме математических ожиданий слагаемых M ( X 1 ± X 2 ±...± X n ) = M ( X 1 ) ± M ( X 2 ) ±…± M ( X n ). 3 0 Константу можно вынести за знак математического ожидания M ( CX )= CM ( X ). 4 0 Математическое ожидание произведения нескольких независимых случайных величин равно произведению математических ожиданий этих величин: M ( X 1 X 2 ... X n ) = M ( X 1 ) M ( X 2 )... M ( X ) n . 2) Дисперсия дискретной случайной величины. Определение 4. Дисперсией случайной дискретной величины X называется математическое ожидание квадрата отклонения этой величины от ее математического ожидания. D ( X ) = M {[ X - M ( X )] 2 } = , где M ( X ) = μ Для вычисления дисперсии более удобна формула: D ( X )= M ( X 2 )-[ M ( X )] 2 , т.е. дисперсия случайной величины равна разности между математическим ожиданием квадрата этой величины и квадратом ее математического ожидания. Свойства дисперсии. 1 0 Дисперсия постоянной величины равна нулю D (С) = 0. 2 0 Постоянный множитель можно выносить за знак дисперсии, предварительно возведя его в квадрат: D ( CX ) = C 2 D ( X ). 3 0 Дисперсия суммы нескольких независимых случайных величин равна сумме дисперсий этих величин: D ( X 1 +...+ X n ) = D ( X 1 )+...+ D ( X n ). 4 0 Дисперсия разности двух независимых случайных величин равна сумме дисперсий этих величин D ( X - Y )= D ( X )+ D ( Y ). 3). Среднее квадратическое отклонение Определение 5 . Средним квадратическим отклонением случайной величины называется квадратный корень из дисперсии σ ( X )=. Пример. Найти математическое ожидание и дисперсию случайной величины X , которая задана следующим законом распределения: Решение. Найдем математическое ожидание: M ( x )=1·0,3+2·0,5+5·0,2=2,3. Найдем все возможные значения квадрата отклонения. [ x 1 - M ( x )] 2 =(1-2,3) 2 =1,69 [ x 2 - M ( x )] 2 =(2-2,3) 2 =0,09 [ x 3 - M ( x )] 2 =(5-2,3) 2 =7,29 Напишем закон распределения квадрата отклонения Найдем дисперсию: D ( x )=1,69·0,3+0,09·0,5+7,29·0,2=2,01. Числовые характеристики непрерывной случайной величины. Определение 6. Непрерывной называют случайную величину, которая может принимать все значения из некоторого конечного или бесконечного промежутка. Определение 7. Интегральной функцией распределения называют функцию F ( x ), определяющую для каждого значения x вероятность того, что случайная величина X примет значение меньше x , т.е. F ( x )= P ( X < x ). Свойства интегральной функции распределения 1 0 Значения интегральной функции распределения принадлежат отрезку 0≤ F ( x ) ≤1. 2 0 Функция распределения есть неубывающая функция. Следствие 1. Вероятность того, что случайная величина X попадет в интервал ( a , b ), равна приращению ее интегральной функции распределения на этом интервале P ( a < x < b )= F ( b )- F ( a ). Следствие 2. Вероятность того, что случайная непрерывная величина X примет одно определенное значение равна нулю P ( X = x 1 )=0. 3 0 Если возможные значения случайной величины X принадлежат интервалу ( a , b ), то F ( x )=0 при x ≤ a и F ( x )=1 при x ≥ a . Определение 8. Дифференциальной функцией распределения f ( x ) (или плотностью вероятности) называется производная от интегральной функции f ( x )= F "( x ). Интегральная функция является первообразной для дифференциальной функции, поэтому вероятность того, что случайная непрерывная величина x примет значение, принадлежащее интервалу ( a , b ), определяется равенством: P ( a < x < b )== F ( b )- F ( a )Зная дифференциальную функцию, можно найти функцию распределения: F ( x )= Свойства дифференциальной функции распределения 1 0 Дифференциальная функция распределения есть функция неотрицательная f ( x ) ≥0 2 0 Несобственный интеграл от дифференциальной функции распределения равен единице (условие нормировки): . 1) Математическое ожидание. Математическим ожиданием случайной непрерывной величины X , возможные значения которой прина д лежат отрезку ( a , b ), называется опр е деленный интеграл: M ( X ) = , где f ( x )-плотность вероятности случайной величины X . 2) Дисперсия. Дисперсия непрерывной случайной величины X есть математическое ожидание квадрата отклонения зтой величины от ее математического жидания D(X) = M{ 2 }.Следовательно, если возможные значения случайной величины X принадлежат отрезку ( a ; b ), то D ( x )= или D ( x )= 3) Среднее квадратическое отклонение определяется так: σ ( x ) = Пример. Найти дисперсию случайной величины X , заданной интегральной функцией F ( x )= Решение. Найдем дифференциальную функцию: f ( x )= F ’ ( x )= Выислим математическое ожидание M ( x ) = . Найдем искомую дисперсию D ( x ) = = = 2/4=4/3. Вероятность попадания нормально распределенной случайной величины X в заданный интервал Определение 9. Распределение вероятностей случайной непрерывной величины X называется нормальным, если плотность вероятности описывается формулой: , где μ - математическое ожидание, σ - среднее квадратическое отклонение. Определение 10. Нормальное распределение с параметрами μ = 0, σ = 1 называется нормированным или стандартным. Плотность вероятности нормированного нормального распределения описывается следующей формулой: . Значения данной функции для неотрицательных значений затабулированы. В силу четности функции φ ( x ) значения для отрицательных чисел легко определить φ (- x )= φ ( x ). Пример. Математическое ожидание нормального распределенной случайной величины X равно μ =3 и среднее квадратическое отклонение σ =2. Написать дифференциальную функцию X . Решение. f ( x )= Если случайная величина X распределена по нормальному закону, то вероятность ее попадания в интервал ( a , b ) определяется следующим о б разом: P(aS2=DB= = , mis on üldise dispersiooni DG erapooletu hinnang. Populatsiooni standardhälbe hindamiseks kasutatakse “parandatud” standardhälvet, mis võrdub “parandatud” dispersiooni ruutjuurega. S= Definitsioon 14. Usaldusvahemikku nimetatakse (θ*-δ;θ*+δ), mis katab tundmatu parameetri etteantud usaldusväärsusega γ. Usaldusvahemikku teadaoleva standardhälbega σ normaaljaotuse matemaatilise ootuse hindamiseks väljendatakse valemiga: =2Ф(t)=γ kus ε=tδ/ on hinnangu täpsus. Arv t määratakse võrrandist: 2Ф(t)=γ vastavalt Laplace'i funktsiooni tabelitele. Näide. Juhuslikul suurusel X on normaaljaotus teadaoleva standardhälbega σ=3. Leida usaldusvahemikud tundmatu matemaatilise ootuse μ hindamiseks valimi keskmiste X abil, kui valimi suurus on n = 36 ja hinnangu usaldusväärsus on antud γ = 0,95. Lahendus. Leiame t seosest 2Ф(t)=0,95; Ф(t)=0,475. Tabelitest leiame t = 1,96. Leiame hinnangu täpsuse σ =tδ/=1,96·3/= 0,98. Usaldusvahemik (x -0,98; x +0,98). Usaldusvahemikud tundmatu σ-ga normaaljaotuse matemaatilise ootuse hindamiseks määratakse Studenti jaotuse abil k=n-1 vabadusastmega: T= , kus S on “parandatud” standardhälve, n valimi suurus. Studenti jaotusest katab usaldusvahemik tundmatu parameetri μ usaldusväärsusega γ: või kus tγ on Studenti koefitsient, mis on leitud tabelitest γ (usaldusväärsus) ja k (vabadusastmete arv) väärtustest. Näide. Üldkogumi kvantitatiivne tunnus X on normaalselt jaotunud. Valimi suuruse n=16 põhjal leiti valimi keskmine xB=20,2 ja “korrigeeritud keskmine” ruuthälve S=0,8. Hinda tundmatu matemaatiline ootus m, kasutades usaldusvahemikku usaldusväärsusega γ = 0,95. Lahendus. Tabelist leiame: tγ = 2,13. Leiame usalduspiirid: =20,2-2,13·0,8=19,774 ja =20,2+ +2,13·0,8/=20,626. Seega, usaldusväärsusega 0,95, on tundmatu parameeter μ vahemikus 19,774<μ <20,626. .Элементы теории корреляции Определение 1. Статистической называют зависимость, при которой изменение одной из величин влечет изменение распределения другой. Определение 2. Если при изменении одной из величин изменяетсясреднее значение другой величины, то такая статистическая зависимость называется корреляционной. Пример. ПустьY-урожай зерна,X-количество удобрений. С одинаковых по площади участков земли при равных количествах внесенных удобрений снимают различный урожай, т.е.Y не является функциейX. Это объясняется влиянием случайных факторов (осадки, температура воздуха и т.д.) Вместе с тем средний урожай является функцией от количества удобрений, т.е.Y связан сX корреляционной зависимостью. Определение 3. Среднее арифметическое значение величиныY, вычисленное при условии, чтоX принимает фиксированное значение, называется условным средним и обозначается. Определение 4. Условным средним называют среднее арифметическое наблюдавшихся значенийx, соответствующихY=y. Можно составить таблицу, определяющую соответствие между значениямиxi и условными среднимиyxi, а затем в декартовой системе координат строят точкиM(xi;yxi) и соединяют их отрезками прямых. Полученная линия называется эмпирической линией регрессииY наX. Аналогично строится эмпирическая линия регрессииX наY. Если точкиMi(xi;yxi) иNi(xy;y) располагаются вдоль прямой, то линия регрессии называется линией прямой регрессии и операция "сглаживания" ломаной сводится к нахождению параметровa иb функцииy=ax+b. Из двух нормальных уравнений: находят коэффициентыa иb. ρxy=a== выборочный коэффициент регрессии признакаY наX. b== Уравнение прямой линии регрессии признакаY наX имеет вид: - =ρyx(x-). Проведя аналогичные расчеты, можно получить следующие математические выражения, характеризующие прямую регрессию признакаX наY:x=cy+d. ρyx=c= = - выборочный коэффициент регрессии признакаX наY. d= - свободный член уравнения. = - уравнение прямой линии регрессии признакаX наY. Показателем тесноты связи являетсякоэффициент корреляции, используемый только при линейной корреляции:r = =. Для решения задач удобна следующая формула: r == . В формуле для коэффициента корреляцииr = числитель дроби всегда меньше знаменателя, следовательно, коэффициент корреляции - всегда правильная дробь между нулем и единицей -1≤r≤+1. Положительное значениеr указывает на прямую связь между признаками; отрицательное - на обратную связь между ними. Данные для корреляционного анализа могут быть сгруппированы в виде корреляционной таблицы. Рассмотрим пример. Пусть проведено наблюдение двух признаков (X иY) у 15 объектов. Составлена следующая таблица первичных данных: Упорядочим первичные данные, поместив их в таблицу: В первом столбце запишем в порядке возрастания значенияxi: 8,9,10,11, а во второй строке - в том же порядке значенияyi: 18,20,24,27,30. На пересечении строк и столбцов запишем число повторений одинаковых пар (xi;yi) в ряду наблюдений. Требуется установить и оценить зависимость случайной величиныY от величиныX, используя данные корреляционной таблицы. n = 15 - объем выборки Используем формулы для корреляционных расчетов. Уравнение регрессииX наY: xy=cy +d =ρxyy+d, где ρxy=. Величина коэффициента корреляцииr=± С учетом частотnx иny формулы регрессионного анализа несколько видоизменяется: ρxy=, где; ; ; ; . .Проверка статистических гипотез. Определение 1. Статистической называют гипотезу о виде неизвестного распределения или о параметрах известных распределений. Определение 2. Нулевой (основной) называют выдвинутую гипотезуH0. Определение 3. Конкурирующей (альтернативной) называют гипотезуH1, которая противоречит нулевой. Определение 4. Статистическим критерием называют специально подобранную величину, распределение которой известно (хотя бы приближенно), которая используется для проверки статистической гипотезы. Определение 5. Критической областью называют совокупность значений критерия, при которых нулевую гипотезу отвергают. Определение 6. Областью принятия гипотезы (областью допустимых значений) называют совокупность значений критерия, при которых нулевую гипотезу принимают. Основной принцип проверки статистических гипотез: если наблюдаемое значение критерия принадлежит критической области, то нулевую гипотезу отвергают; если наблюдаемое значение критерия принадлежит области принятия гипотезы, то гипотезу принимают. Определение 7. Критическими точками (границами)kkp называют точки, отделяющие критическую область от области принятия гипотезы. Определение 8. Правосторонней называют критическую область, определяемую неравенствомK>kkp, kus kkp>0. Definitsioon 9. Vasakukäeline on ebavõrdsusega K määratletud kriitiline piirkond k2 kus k2>k1. Kriitilise piirkonna leidmiseks seadke olulisuse tase α ja otsige kriitilisi punkte järgmiste seoste alusel: a) parempoolse kriitilise piirkonna jaoks P(K>kkp)=α; b) vasakpoolse kriitilise piirkonna P (K<-kkp)=α; в) для двусторонней критической областиP(K>kkp)=α/2 ja P(K<-kkp)=α/2. Пример. По двум независимым выборкам, объемы которыхn1=11 иn2=14, извлеченным из нормальных генеральных совокупностейX иY, найдены исправленные выборочные дисперсииSx2=0,76;Sy2=0,38. При уровне зависимостиα=0,05 проверить нулевую гипотезуH0:Д(x)=Д(y) о равенстве генеральных дисперсий, при конкурирующей гипотезе:H1:Д(x)>D(y) Lahendus. Leiame suure korrigeeritud dispersiooni suhte väiksemasse: Fobs = =2. Kuna H1: D(x)>D(y), siis kriitiline piirkond on parempoolne. Kasutades tabelit, kasutades α = 0,05 ja vabadusastmete numbreid k1 = n1-1 = 10, leiame kriitilise punkti Fcr (0,05; 10,13) = 2,67; Alates Fobsist. Ema pesi raami ära


Pika suvepuhkuse lõpus on aeg aeglaselt naasta kõrgema matemaatika juurde ja avada pidulikult tühi Verdovi fail, et alustada uue jaotise loomist - . Tunnistan, et esimesed read pole lihtsad, kuid esimene samm on poolel teel, seega soovitan kõigil tutvuda hoolikalt sissejuhatava artikliga, pärast mida on teema valdamine 2 korda lihtsam! Ma ei liialda üldse. …Järgmise 1. septembri eel meenub mulle esimene klass ja aabits…. Tähed moodustavad silpe, silbid moodustavad sõnu, sõnad moodustavad lühikesi lauseid - Ema pesi raami. Pöörde- ja matemaatikastatistika valdamine on sama lihtne kui lugema õppimine! Kuid selleks peate teadma põhitermineid, mõisteid ja nimetusi ning mõningaid konkreetseid reegleid, mida selles õppetunnis käsitletakse.

Aga kõigepealt palun võtke vastu minu õnnitlused kooliaasta alguse puhul (jätkamine, lõpetamine, märkige sobiv) ja võtke vastu kingitus. Parim kingitus on raamat ja iseseisvaks tööks soovitan järgmist kirjandust:

1) Gmurman V.E. Tõenäosusteooria ja matemaatiline statistika

Legendaarne õpik, mis on läbinud üle kümne kordustrükki. Seda eristab arusaadavus ja ülilihtne materjali esitus ning esimesed peatükid on täiesti kättesaadavad, ma arvan, et juba 6.-7.klassi õpilastele.

2) Gmurman V.E. Juhend tõenäosusteooria ja matemaatilise statistika probleemide lahendamiseks

Sellesama Vladimir Efimovitši lahendusraamat koos üksikasjalike näidete ja probleemidega.

VAJALIKULT laadige mõlemad raamatud alla Internetist või hankige nende paberkandjal originaalid! Töötab ka 60ndate ja 70ndate versioon, mis on mannekeenide jaoks veelgi parem. Ehkki fraas "mannekeenide tõenäosusteooria" kõlab üsna naeruväärselt, kuna peaaegu kõik piirdub elementaarsete aritmeetiliste tehetega. Kohati jätavad nad siiski vahele derivaadid Ja integraalid, kuid seda ainult kohati.

Püüan saavutada sama esitusselguse, kuid pean hoiatama, et minu kursus on suunatud probleemide lahendamine ja teoreetilised arvutused on viidud miinimumini. Seega, kui vajate üksikasjalikku teooriat, teoreemide tõestusi (teoreemid-teoreemid!), siis vaadake õpikut. No kes tahab õppida probleeme lahendama tõenäosusteoorias ja matemaatilises statistikas võimalikult lühikese aja jooksul, jälgi mind!

Alustuseks piisab =)

Artikleid lugedes on soovitatav tutvuda (vähemalt põgusalt) vaadeldavate tüüpide lisaülesannetega. Lehel Valmislahendused kõrgema matemaatika jaoks Postitatakse vastavad pdf-id koos lahendusnäidetega. Samuti osutatakse olulist abi IDZ 18.1 Ryabushko(lihtsam) ja lahendas IDZ Tšudesenko kogu järgi(raskem).

1) Summa kaks sündmust ja sündmust nimetatakse, mis tähendab, et see juhtub või sündmus või sündmus või mõlemad sündmused korraga. Juhul, kui sündmused kokkusobimatu, viimane valik kaob, see tähendab, et see võib tekkida või sündmus või sündmus .

Reegel kehtib ka suurema hulga terminite, näiteks sündmuse kohta on see, mis juhtub vähemalt üks sündmustest , A kui sündmused ei sobi kokkusiis üks asi ja ainult üks asi sündmus sellest summast: või sündmus, või sündmus, või sündmus, või sündmus, või sündmus .

Näiteid on palju:

Sündmused (täringu viskamisel 5 punkti ei ilmu) on see, mis välja tuleb või 1, või 2, või 3, või 4, või 6 punkti.

Sündmus (langeb enam mitte kaks punkti) on see, et kuvatakse 1 või 2punktid.

Sündmus (punkte on paarisarv) on see, mis ilmub või 2 või 4 või 6 punkti.

Sündmus seisneb selles, et kaardipakist tõmmatakse punane kaart (süda). või tamburiin) ja sündmus – et "pilt" ekstraheeritakse (jack või daam või kuningas võiäss).

Veidi huvitavam on lugu ühisüritustega:

Sündmus seisneb selles, et tekilt loositakse välja klubi või seitse või seitse klubi Vastavalt ülaltoodud määratlusele, vähemalt midagi- või mis tahes klubi või mis tahes seitse või nende "ristmik" - seitse klubi. Lihtne on arvutada, et see sündmus vastab 12 põhitulemusele (9 klubikaarti + 3 ülejäänud seitset).

Sündmus on see, et homme kell 12.00 tuleb VÄHEMALT ÜKS kokkuvõttev ühisüritus, nimelt:

– või on ainult vihm / ainult äike / ainult päike;
– või toimub ainult mõni sündmustepaar (vihm + äike / vihm + päike / äike + päike);
– või kõik kolm sündmust ilmuvad korraga.

See tähendab, et sündmus sisaldab 7 võimalikku tulemust.

Sündmuste algebra teine ​​sammas:

2) Töö kaks sündmust ja nimetada sündmuseks, mis seisneb nende sündmuste ühises esinemises, teisisõnu tähendab korrutamine, et teatud asjaoludel Ja sündmus, Ja sündmus . Sarnane väide kehtib ka suurema hulga sündmuste kohta, näiteks annab teos mõista, et teatud tingimustel see juhtub Ja sündmus, Ja sündmus, Ja sündmus, …, Ja sündmus .

Mõelge testile, mille käigus visatakse kaks münti ja järgmised sündmused:

– 1. mündile ilmuvad pead;
– 1. münt maandab päid;
– 2. mündile ilmuvad pead;
– 2. münt maandab pead.

Seejärel:
Ja 2.) ilmuvad pead;
– sündmus on see, et mõlemal mündil (1 Ja 2.) see on pead;
– sündmus on see, et 1. münt maandub päid Ja 2. münt on sabad;
– sündmus on see, et 1. münt maandub päid Ja 2. mündil on kotkas.

Neid sündmusi on lihtne näha kokkusobimatu (sest näiteks ei saa korraga kukkuda 2 pead ja 2 saba) ja vorm täisgrupp (alates arvesse võetud Kõik kahe mündi viskamise võimalikud tagajärjed). Võtame need sündmused kokku: . Kuidas seda kirjet tõlgendada? Väga lihtne – korrutamine tähendab loogilist sidet JA ja lisaks – VÕI. Seega on summa arusaadavas inimkeeles hästi loetav: “tekkib kaks pead või kaks pead või 1. münt maandub päid Ja 2. saba peal või 1. münt maandub päid Ja 2. mündil on kotkas"

See oli näide, kui ühes testis kaasatud on mitu eset, antud juhul kaks münti. Teine levinud skeem praktilistes probleemides on uuesti testimine , kui näiteks sama täringut veeretatakse 3 korda järjest. Näitena kaaluge järgmisi sündmusi:

– 1. viskega saad 4 punkti;
– 2. viskega saad 5 punkti;
– 3. viskega saad 6 punkti.

Siis üritus on see, et 1. viskega saad 4 punkti Ja 2. viskega saad 5 punkti Ja 3. veeretamisel saad 6 punkti. Ilmselgelt tuleb kuubiku puhul kombinatsioone (tulemusi) oluliselt rohkem kui mündi viskamisel.

...Ma saan aru, et võib-olla pole analüüsitavad näited väga huvitavad, aga need on asjad, millega probleemides sageli kokku puututakse ja millest pääsu pole. Lisaks mündile, kuubik ja kaardipakk, ootavad Sind mitmevärviliste kuulidega urnid, mitmed anonüümsed märklauda tulistavad ja väsimatu töömees, kes pidevalt mingeid detaile välja lihvib =)

Sündmuse tõenäosus

Sündmuse tõenäosus on tõenäosusteooria keskne mõiste. ...Tapjalik loogiline asi, aga kuskilt tuli alustada =) Selle definitsioonile on mitu lähenemist:

;
Tõenäosuse geomeetriline määratlus ;
Tõenäosuse statistiline määratlus .

Käesolevas artiklis keskendun tõenäosuse klassikalisele definitsioonile, mida kasutatakse õppeülesannetes kõige laiemalt.

Nimetused. Teatud sündmuse tõenäosust tähistatakse suure ladina tähega ja sündmus ise on võetud sulgudes, toimides omamoodi argumendina. Näiteks:


Samuti kasutatakse väikest tähte laialdaselt tõenäosuse tähistamiseks. Eelkõige võite loobuda sündmuste ja nende tõenäosuste tülikatest määratlustest järgmise stiili kasuks::

– tõenäosus, et mündiviske tulemuseks on pead;
– tõenäosus, et täringuvise annab 5 punkti;
– tõenäosus, et kaardipakist tõmmatakse klubi masti kaart.

See valik on praktiliste probleemide lahendamisel populaarne, kuna võimaldab oluliselt vähendada lahenduse salvestamist. Nagu esimesel juhul, on siingi mugav kasutada “rääkivaid” ala-/üleindekseid.

Kõik on juba ammu arvanud numbreid, mille ma just ülal kirjutasin, ja nüüd saame teada, kuidas need välja kukkusid:

Klassikaline tõenäosuse määratlus:

Teatud testis sündmuse toimumise tõenäosust nimetatakse suhteks, kus:

– kõigi koguarv võrdselt võimalik, elementaarne selle testi tulemused kogu ürituste grupp;

- kogus elementaarne tulemused, soodne sündmus.

Mündi viskamisel võivad välja kukkuda kas pead või sabad – need sündmused kujunevad täisgrupp, seega tulemuste koguarv; samal ajal igaüks neist elementaarne Ja võrdselt võimalik. Sündmust soosib tulemus (pead). Klassikalise tõenäosuse määratluse kohaselt: .

Samamoodi võivad täringu viskamise tulemusena ilmneda elementaarsed võrdselt võimalikud tulemused, mis moodustavad tervikliku rühma ja sündmust soosib üks tulemus (viie viskamine). Sellepärast: SEDA EI OLE AKTSEPTEERITUD TEHA (kuigi protsente oma peas hinnata pole keelatud).

Tavapärane on kasutada ühiku murde, ja ilmselgelt võib tõenäosus piires varieeruda. Pealegi, kui , siis sündmus on võimatu, kui - usaldusväärne, ja kui , siis me räägime juhuslik sündmus.

! Kui saate mõne probleemi lahendamisel mõne muu tõenäosuse väärtuse, otsige viga!

Tõenäosuse määramise klassikalises lähenemisviisis saadakse äärmuslikud väärtused (null ja üks) täpselt sama arutluskäigu kaudu. Teatud urnist, milles on 10 punast palli, tõmmatakse juhuslikult 1 pall. Mõelge järgmistele sündmustele:

ühe katsega ei juhtu vähese tõenäosusega sündmust.

Seetõttu ei võida sa loteriis jackpotti, kui selle sündmuse tõenäosus on näiteks 0,00000001. Jah, jah, see oled sina – ainsa piletiga konkreetses tiraažis. Suurem arv pileteid ja suurem arv joonistusi teid aga palju ei aita. ...Kui ma sellest teistele räägin, kuulen peaaegu alati vastuseks: "aga keegi võidab." Olgu, teeme siis järgmise katse: palun ostke täna või homme suvalise loterii pilet (ärge viivitage!). Ja kui võidad... noh, vähemalt üle 10 kilorublase, siis pane kindlasti kirja – ma selgitan, miks see juhtus. Protsendi eest muidugi =) =)

Aga kurvastada pole vaja, sest on vastupidine põhimõte: kui mõne sündmuse tõenäosus on väga lähedane ühele, siis ühel katsel peaaegu kindel juhtub. Seetõttu pole enne langevarjuga hüppamist vaja karta, vastupidi, naerata! Mõlema langevarju ebaõnnestumiseks peavad ju tekkima täiesti mõeldamatud ja fantastilised asjaolud.

Kuigi see kõik on luule, võib olenevalt sündmuse sisust esimene põhimõte osutuda rõõmsaks, teine ​​aga kurvaks; või isegi mõlemad paralleelsed.

Võib-olla sellest praegu klassis piisab Klassikalised tõenäosusprobleemid saame valemist maksimumi. Selle artikli viimases osas käsitleme ühte olulist teoreemi:

Täieliku rühma moodustavate sündmuste tõenäosuste summa on võrdne ühega. Jämedalt öeldes, kui sündmused moodustavad tervikliku rühma, siis 100% tõenäosusega juhtub üks neist. Lihtsamal juhul moodustavad täieliku rühma vastupidised sündmused, näiteks:

– mündiviske tulemusena tekivad pead;
– mündiviske tulemuseks on pead.

Vastavalt teoreemile:

On täiesti selge, et need sündmused on võrdselt võimalikud ja nende tõenäosus on sama .

Tõenäosuste võrdsuse tõttu nimetatakse sageli võrdselt võimalikke sündmusi sama tõenäoline . Ja siin on keeleväänaja joobeastme määramiseks =)

Näide kuubikuga: sündmused on seega vastupidised .

Vaadeldav teoreem on mugav selle poolest, et võimaldab kiiresti leida vastupidise sündmuse tõenäosuse. Seega, kui viie veeremise tõenäosus on teada, on lihtne arvutada tõenäosus, et seda ei veereta:

See on palju lihtsam kui viie elementaarse tulemuse tõenäosuste kokkuvõtmine. Muide, elementaarsete tulemuste puhul kehtib ka see teoreem:
. Näiteks kui on tõenäosus, et laskur tabab sihtmärki, siis on tõenäosus, et ta tabab märki.

! Tõenäosusteoorias on tähtede kasutamine muudel eesmärkidel ebasoovitav.

Teadmiste päeva auks ma kodutöid ei anna =), kuid on väga oluline, et saaksite vastata järgmistele küsimustele:

- Mis tüüpi üritusi eksisteerib?
– Mis on sündmuse juhus ja võrdne võimalus?
– Kuidas te mõistate mõisteid sündmuste ühilduvus/ühildumatus?
– Mis on täielik sündmuste rühm, vastandlikud sündmused?
– Mida tähendab sündmuste liitmine ja korrutamine?
– Mis on tõenäosuse klassikalise definitsiooni olemus?
– Miks on tervikliku rühma moodustavate sündmuste tõenäosuste liitmise teoreem kasulik?

Ei, te ei pea midagi kokku toppima, need on lihtsalt tõenäosusteooria põhitõed - omamoodi aabits, mis mahub kiiresti teie pähe. Ja et see juhtuks võimalikult kiiresti, soovitan teil tundidega tutvuda

kõikide erialade 2. kursuse üliõpilastele

Kõrgema matemaatika osakond

Sissejuhatav osa

Kallid õpilased!

Juhime teie tähelepanu professor N. Sh Kremeri ülevaate (sissejuhatavale) loengule distsipliinist "Tõenäosusteooria ja matemaatiline statistika" VZFEI teise kursuse üliõpilastele.

Loengus arutletakse ülesandeidõppides majandusülikoolis tõenäosusteooriat ja matemaatilist statistikat ning tema koht kaasaegse majandusteadlase koolitamise süsteemis peetakse silmas organisatsioon sõltumatu antakse õpilaste tööd arvutipõhise koolitussüsteemi (CTS) ja traditsiooniliste õpikute abil ülevaade peamistest sätetest see kursus, samuti metoodilised soovitused selle õppimiseks.

Majandusülikoolis õpitud matemaatikadistsipliinidest on erilisel positsioonil tõenäosusteooria ja matemaatiline statistika. Esiteks on see statistiliste distsipliinide teoreetiline alus. Teiseks kasutatakse uuringus otseselt tõenäosusteooria ja matemaatilise statistika meetodeid massiagregaadid vaadeldud nähtusi, vaatlustulemuste töötlemist ja juhuslike nähtuste mustrite tuvastamist. Lõpuks on tõenäosusteoorial ja matemaatilisel statistikal oluline metodoloogiline tähtsus kognitiivne protsess, kui tuvastada üldine muster uurinud toimib loogilisena alusel induktiiv-deduktiivne arutluskäik.

Igal teise kursuse üliõpilasel peab distsipliinis "Tõenäosusteooria ja matemaatiline statistika" olema järgmine komplekt (juhtum):

1. Ülevaade orienteerumisloeng selles distsipliinis.

2. Õpik N.Sh. Kremer “Tõenäosusteooria ja matemaatiline statistika” - M.: UNITY - DANA, 2007 (edaspidi nimetame seda lihtsalt “õpikuks”).

3. Õppe- ja metoodiline käsiraamat“Tõenäosusteooria ja matemaatiline statistika” / toim. N.Sh. Kremer. – M.: Ülikooli õpik, 2005 (edaspidi “käsiraamat”).

4. Arvuti koolitusprogramm distsipliini COPR (edaspidi "arvutiprogramm").

Instituudi veebilehel "Ettevõtte ressursid" on üles pandud arvutiprogrammi KOPR2 veebiversioonid, ülevaateloeng ja juhendi elektrooniline versioon. Lisaks esitletakse arvutiprogrammi ja juhendit aadressil CD - ROM ah teise kursuse õpilastele. Seetõttu peab “paberkujul” õpilasel olema vaid õpik.

Selgitagem iga kindlaksmääratud komplektis (juhtumis) sisalduva õppematerjali eesmärki.

Õpikus on välja toodud distsipliini õppematerjali põhisätted, mida illustreerib piisavalt suur hulk lahendatud probleeme.

IN kasu Antakse metoodilised soovitused õppematerjali iseseisvaks õppimiseks, tõstetakse esile kursuse olulisemad mõisted ja tüüpilised ülesanded, antakse selle distsipliini enesetestimise testiküsimused, kodutestide võimalused, mida õpilane peab täitma, samuti metoodilised. antakse juhised nende rakendamiseks.

Arvutiprogramm on loodud selleks, et pakkuda teile maksimaalset abi kursuse valdamisel režiimis dialoogi programmi koos õpilasega, et võimalikult suurel määral kompenseerida teie puudulikku klassiruumi koolitust ja sobivat kontakti õpetajaga.

Kaugõppesüsteemis õppiva üliõpilase jaoks on esmane ja määrav tähtsus iseseisva töö korraldamine.

Selle distsipliiniga õppima asudes lugege see ülevaatlik (sissejuhatav) loeng lõpuni. See võimaldab teil saada üldise ettekujutuse kursusel "Tõenäosusteooria ja matemaatiline statistika" kasutatavatest põhikontseptsioonidest ja meetoditest ning VZFEI üliõpilaste koolitustaseme nõuetest.

Enne iga teema uurimist Lugege juhendist selle teema õppimise juhiseid. Siit leiate selleteemaliste haridusküsimuste loendi, mida uurite; saate teada, millised mõisted, definitsioonid, teoreemid, probleemid on kõige olulisemad, mida tuleb kõigepealt uurida ja omandada.

Seejärel jätkake õppimist põhiline õppematerjalõpiku järgi vastavalt saadud metoodilistele soovitustele. Peamiste definitsioonide, teoreemide väidete, nende tõestuste skeemide, valemite ja tüüpiliste probleemide lahenduste kohta soovitame teha eraldi märkmikusse märkmed. Valemid on soovitav kirjutada iga kursuse osa jaoks spetsiaalsetesse tabelitesse: tõenäosusteooria ja matemaatiline statistika. Märkmete, eriti valemitabelite regulaarne kasutamine aitab neid meelde jätta.

Alles pärast õpikus iga teema põhiõppematerjali läbitöötamist saab liikuda selle teema õppimise juurde arvutikoolitusprogrammi (KOPR2) abil.

Pöörake iga teema puhul tähelepanu arvutiprogrammi ülesehitusele. Teema nimetuse järel on õpiku teema põhiliste haridusküsimuste loetelu, mis näitab läbimist vajavate lõikude ja lehekülgede arvu. (Pidage meeles, et juhendis on ka nende küsimuste loend iga teema kohta).

Seejärel antakse lühidalt selle teema (või selle teema üksikute lõikude) viitematerjal - põhidefinitsioonid, teoreemid, omadused ja omadused, valemid jne. Teemat õppides saab ekraanile kuvada ka need teatmematerjali killud (selle või varasemate teemade kohta), mida parasjagu vaja läheb.

Seejärel pakutakse teile koolitusmaterjali ja loomulikult standardülesandeid ( näited), mille lahendust vaadeldakse režiimis dialoogi programmid koos õpilasega. Paljude näidete funktsioonid piirduvad õpilase soovil õige lahenduse etappide kuvamisega ekraanil. Samal ajal esitatakse teile enamiku näidete kaalumise käigus üht või teist laadi küsimusi. Mõne küsimuse vastused tuleks sisestada klaviatuuri abil. numbriline vastus, teistele - vali õige vastus (või vastused) mitmest pakutud.

Sõltuvalt teie sisestatud vastusest kinnitab programm selle õigsust või soovitab pärast vajalikke teoreetilisi põhimõtteid sisaldava vihje lugemist uuesti proovida õige lahenduse ja vastuse andmiseks. Paljudel ülesannetel on lahenduskatsete arv piiratud (kui see piir on ületatud, kuvatakse ekraanil tingimata õige lahenduskäik). On ka näiteid, kus ebaõnnestunud vastamiskatsete kordumisel suureneb vihjes sisalduva info hulk.

Olles tutvunud õppematerjali teoreetiliste põhimõtetega ja näidetega, mis on varustatud lahenduse üksikasjaliku analüüsiga, tuleb sooritada enesekontrolliharjutused, et kinnistada oma oskusi iga teema tüüpprobleemide lahendamisel. Enesekontrolliülesanded sisaldavad ka õpilasega dialoogi elemente. Pärast lahenduse täitmist saad vaadata õiget vastust ja võrrelda seda enda antud vastusega.

Iga teema töö lõpus peaksite täitma kontrollülesandeid. Nende õigeid vastuseid teile ei kuvata ja teie vastused salvestatakse arvuti kõvakettale, et õpetaja-konsultant (juhendaja) neid hiljem üle vaadata.

Pärast teemade 1–7 läbimist tuleb sooritada kodutest nr 3 ja pärast teemade 8–11 läbimist kodutest nr 4. Nende testide variandid on toodud juhendis (selle elektrooniline versioon). Täitatava valiku number peab ühtima teie isikliku toimiku numbri (hinneraamat, õpilaspilt) viimase numbriga. Iga testi jaoks tuleb läbida intervjuu, mille käigus tuleb demonstreerida oma ülesannete lahendamise oskust ja põhimõistete (definitsioonid, teoreemid (ilma tõestuseta), valemid jne) tundmist testi teemal. Distsipliini õpe lõpeb kursuseeksamiga.

Tõenäosusteooria on matemaatikateadus, mis uurib juhuslike nähtuste mustreid.

Õppimiseks pakutav distsipliin koosneb kahest osast “Tõenäosusteooria” ja “Matemaatiline statistika”.



KLELL

On neid, kes loevad seda uudist enne sind.
Tellige värskete artiklite saamiseks.
Meil
Nimi
Perekonnanimi
Kuidas soovite kellukest lugeda?
Rämpsposti pole