زنگ

کسانی هستند که قبل از شما این خبر را می خوانند.
برای دریافت مقالات جدید مشترک شوید.
ایمیل
نام
نام خانوادگی
چگونه می خواهید زنگ را بخوانید؟
بدون هرزنامه

نظریه احتمالات و آمار ریاضی

  • Agekyan T.A. مبانی نظریه خطا برای ستاره شناسان و فیزیکدانان (ویرایش دوم). M.: Nauka، 1972 (djvu, 2.44 M)
  • Agekyan T.A. نظریه احتمال برای ستاره شناسان و فیزیکدانان. M.: Nauka، 1974 (djvu, 2.59 M)
  • اندرسون تی. تحلیل آماری سری های زمانی. م.: میر، 1976 (djvu, 14 M)
  • باکلمن آی.یا. ورنر A.L. Kantor B.E. مقدمه ای بر هندسه دیفرانسیل "به طور کلی". M.: Nauka، 1973 (djvu, 5.71 M)
  • برنشتاین اس.ن. نظریه احتمال. M.-L.: GI، 1927 (djvu، 4.51M)
  • Billingsley P. همگرایی معیارهای احتمال. M.: Nauka، 1977 (djvu, 3.96 M)
  • جعبه J. Jenkins G. تجزیه و تحلیل سری زمانی: پیش بینی و مدیریت. شماره 1. م.: میر، 1353 (djvu، 3.38M)
  • جعبه J. Jenkins G. تجزیه و تحلیل سری های زمانی: پیش بینی و مدیریت. شماره 2. م.: میر، 1353ش (djvu, 1.72 M)
  • Borel E. احتمال و قابلیت اطمینان. M.: Nauka، 1969 (djvu، 1.19 M)
  • ون در واردن بی.ال. آمار ریاضی. M.: IL، 1960 (djvu, 6.90 M)
  • Vapnik V.N. بازیابی وابستگی ها بر اساس داده های تجربی. M.: Nauka، 1979 (djvu, 6.18 M)
  • ونتزل E.S. مقدمه ای بر تحقیق در عملیات. M.: رادیو شوروی، 1964 (djvu, 8.43 M)
  • ونتزل E.S. عناصر نظریه بازی ها (ویرایش دوم). سری: سخنرانی های محبوب در مورد ریاضیات. شماره 32. م.: ناوکا، 1961 (djvu, 648 K)
  • Ventstel E.S. نظریه احتمال (ویرایش چهارم). M.: Nauka، 1969 (djvu، 8.05M)
  • Ventstel E.S., Ovcharov L.A. نظریه احتمال. وظایف و تمرینات. M.: Nauka، 1969 (djvu, 7.71 M)
  • Vilenkin N.Ya.، Potapov V.G. کتاب کار عملی نظریه احتمال با عناصر ترکیبیات و آمار ریاضی. م.: آموزش و پرورش، 1979 (djvu، 1.12M)
  • Gmurman V.E. راهنمای حل مسائل در نظریه احتمالات و آمار ریاضی (ویرایش سوم). م.: بالاتر. مدرسه، 1979 (djvu، 4.24 M)
  • Gmurman V.E. نظریه احتمال و آمار ریاضی(ویرایش چهارم). م.: دبیرستان، 1972 (djvu, 3.75 M)
  • Gnedenko B.V.، Kolmogorov A.N. توزیع محدود برای مجموع متغیرهای تصادفی مستقل. M.-L.: GITTL، 1949 (djvu, 6.26 M)
  • Gnedenko B.V.، Khinchin A.Ya. مقدمه ای مقدماتی بر نظریه احتمال (ویرایش هفتم). M.: Nauka، 1970 (djvu, 2.48 M)
  • اوک جی.ال. فرآیندهای احتمالی M.: IL، 1956 (djvu, 8.48 M)
  • آمار ترتیبی دیوید جی. M.: Nauka، 1979 (djvu، 2.87M)
  • ابراگیموف I.A., Linnik Yu.V. مقادیر مرتبط مستقل و ثابت. M.: Nauka، 1965 (djvu، 6.05 M)
  • Idier V., Dryard D., James F., Rus M., Sadoulet B. روش های آماری در فیزیک تجربی. م.: اتمیزدات، 1355 (djvu، 5.95M)
  • کمالوف M.K. توزیع فرم های درجه دومدر نمونه های یک جمعیت عادی تاشکند: آکادمی علوم UzSSR، 1958 (djvu, 6.29M)
  • Kassandra O.N., Lebedev V.V. پردازش نتایج مشاهدات M.: Nauka، 1970 (djvu, 867 K)
  • کاتز ام. احتمال و مسائل مرتبط در فیزیک. م.: میر، 1965 (djvu، 3.67M)
  • Katz M. چندین مسئله احتمالی فیزیک و ریاضیات. M.: Nauka، 1967 (djvu، 1.50 M)
  • کاتز ام. استقلال آماری در نظریه احتمال، تحلیل و نظریه اعداد. M.: IL، 1963 (djvu, 964 K)
  • کندال ام.، موران پی. احتمالات هندسی. M.: Nauka، 1972 (djvu، 1.40 M)
  • کندال ام.، استوارت ای. جلد 2. استنتاج آماری و ارتباطات. M.: Nauka، 1973 (djvu، 10 M)
  • کندال ام.، استوارت آ. جلد 3. تحلیل آماری چند متغیره و سری های زمانی. M.: Nauka، 1976 (djvu, 7.96 M)
  • کندال ام.، استوارت ای. جلد. 1. نظریه توزیع ها. M.: Nauka، 1965 (djvu، 6.02 M)
  • کولموگروف A.N. مفاهیم اساسی نظریه احتمال (ویرایش دوم) M.: Nauka، 1974 (djvu, 2.14 M)
  • کولچین V.F.، سواستیانوف B.A.، Chistyakov V.P. قرارگیری تصادفی M.: Nauka، 1976 (djvu, 2.96 M)
  • Kramer G. روشهای ریاضی آمار (ویرایش دوم). م.: میر، 1976 (djvu, 9.63 M)
  • Leman E. آزمون فرضیه های آماری. م.: علم. 1979 (djvu، 5.18 M)
  • Linnik Yu.V.، Ostrovsky I.V. تجزیه متغیرها و بردارهای تصادفی M.: Nauka، 1972 (djvu, 4.86 M)
  • لیخولتوف I.I.، Matskevich I.P. راهنمای حل مسائل در ریاضیات عالی، نظریه احتمالات و آمار ریاضی (ویرایش دوم). من.: ویش. مدرسه، 1969 (djvu، 4.99 M)
  • Loev M. نظریه احتمال. M.: IL، 1962 (djvu, 7.38 M)
  • مالاخوف A.N. تجزیه و تحلیل تجمعی فرآیندهای غیر گاوسی تصادفی و تبدیل آنها. M.: Sov. رادیو، 1978 (djvu, 6.72 M)
  • مشالکین ال.دی. مجموعه مسائل مربوط به نظریه احتمال. M.: MSU، 1963 (djvu, 1 004 K)
  • Mitropolsky A.K. تئوری لحظه ها. M.-L.: GIKSL، 1933 (djvu, 4.49 M)
  • Mitropolsky A.K. تکنیک های محاسبات آماری (ویرایش دوم). M.: Nauka، 1971 (djvu، 8.35M)
  • Mosteller F., Rurke R., Thomas J. Probability. م.: میر، 1969 (djvu, 4.82 M)
  • نالیموف V.V. کاربرد آمار ریاضی در تجزیه و تحلیل ماده. M.: GIFML، 1960 (djvu, 4.11M)
  • Neveu J. مبانی ریاضی نظریه احتمال. م.: میر، 1969 (djvu، 3.62M)
  • پرستون کی. ریاضیات. جدید در علوم خارجی شماره 7. گیبس در مجموعه های قابل شمارش بیان می کند. م.: میر، 1977 (djvu, 2.15 M)
  • ساولیف ال.یا. نظریه احتمال اولیه قسمت 1. نووسیبیرسک: NSU، 2005 (

نظریه احتمالات و آمار ریاضی


1. بخش نظری


1 همگرایی دنباله ای از متغیرهای تصادفی و توزیع احتمال


در تئوری احتمال باید به آن بپردازیم انواع مختلفهمگرایی متغیرهای تصادفی بیایید انواع اصلی همگرایی زیر را در نظر بگیریم: با احتمال، با احتمال یک، با ترتیب p، با توزیع.

اجازه دهید،... متغیرهای تصادفی تعریف شده در فضای احتمالی (, Ф, P) باشند.

تعریف 1. به دنباله ای از متغیرهای تصادفی، ... گفته می شود که به احتمال زیاد به یک متغیر تصادفی همگرا می شوند (نشان:)، اگر برای هر یک > 0 باشد.


تعریف 2. به دنباله ای از متغیرهای تصادفی، ... گفته می شود که با احتمال یک (تقریباً به طور قطع، تقریباً در همه جا) به یک متغیر تصادفی همگرا می شود اگر


آن ها اگر مجموعه نتایجی که برای آنها () به () همگرا نمی شود، احتمال صفر داشته باشد.

این نوع همگرایی به صورت زیر نشان داده می شود: یا، یا.

تعریف 3. دنباله ای از متغیرهای تصادفی ... میانگین همگرای مرتبه p، 0 نامیده می شود.< p < , если


تعریف 4. به دنباله ای از متغیرهای تصادفی... گفته می شود که در توزیع به یک متغیر تصادفی همگرا می شوند (نشان:) اگر برای هر تابع پیوسته محدودی باشد.


همگرایی در توزیع متغیرهای تصادفی تنها بر حسب همگرایی توابع توزیع آنها تعریف می شود. بنابراین، منطقی است که در مورد این نوع همگرایی صحبت کنیم، حتی زمانی که متغیرهای تصادفی در فضاهای احتمال مختلف مشخص شده باشند.

قضیه 1.

الف) برای (P-a.s.) لازم و کافی است که برای هر > 0

) دنباله () با احتمال یک اگر و فقط اگر برای هر > 0 بنیادی است.

اثبات

الف) اجازه دهید A = (: |- | )، A = A. سپس



بنابراین، عبارت الف) نتیجه زنجیره مفاهیم زیر است:

P(:)= 0 P() = 0 = 0 P(A) = 0، m 1 P(A) = 0، > 0 P() 0، n 0، > 0 P() 0،

n 0، > 0.) = (:)، = را نشان می دهیم. سپس (: (()) اساسی نیست ) = و به همان ترتیبی که در a) نشان داده می شود که (: (()) اساسی نیست ) = 0 P( ) 0, n.

قضیه ثابت می شود


قضیه 2. (معیار کوشی برای همگرایی تقریباً قطعی)

برای اینکه دنباله ای از متغیرهای تصادفی () با احتمال یک (به برخی از متغیرهای تصادفی) همگرا باشد، لازم و کافی است که با احتمال یک بنیادی باشد.

اثبات

اگر، پس +

که از آن وجوب شرایط قضیه ناشی می شود.

حالا اجازه دهید دنباله () با احتمال یک اساسی باشد. اجازه دهید L = (: (()) را نشان دهیم نه اساسی). سپس برای همه، دنباله اعداد () اساسی است و با توجه به معیار کوشی برای دنباله اعداد، () وجود دارد. بگذاریم



این تابع تعریف شده یک متغیر تصادفی و.

قضیه ثابت شده است.


2 روش توابع مشخصه


روش توابع مشخصه یکی از ابزارهای اصلی دستگاه تحلیلی نظریه احتمال است. در کنار متغیرهای تصادفی (با گرفتن مقادیر واقعی)، تئوری توابع مشخصه مستلزم استفاده از متغیرهای تصادفی با ارزش مختلط است.

بسیاری از تعاریف و ویژگی های مربوط به متغیرهای تصادفی به راحتی به حالت پیچیده منتقل می شوند. بنابراین، انتظار ریاضی M ?متغیر تصادفی با ارزش مختلط ?=?+?? در صورت تعیین قطعی تلقی می شود انتظارات ریاضیم ?و م ?. در این مورد، طبق تعریف ما M را فرض می کنیم ?= م ? + ?م ?. از تعریف استقلال عناصر تصادفی به این نتیجه می رسد که کمیت های با ارزش مختلط ?1 =?1+??1 , ?2=?2+??2مستقل هستند اگر و فقط اگر جفت متغیرهای تصادفی مستقل باشند ( ?1 , ?1) و ( ?2 , ?2) یا، که همان چیز مستقل است ?-جبر F ?1، ?1 و F ?2, ?2.

همراه با فضای L 2متغیرهای تصادفی واقعی با لحظه ثانیه محدود، می‌توانیم فضای هیلبرت متغیرهای تصادفی با مقادیر مختلط را در نظر بگیریم. ?=?+?? با M | ?|2?|2= ?2+?2و محصول اسکالر ( ?1 , ?2)= م ?1?2¯ ، کجا ?2¯ - متغیر تصادفی مزدوج پیچیده.

در عملیات جبری، بردارهای Rn به عنوان ستون های جبری در نظر گرفته می شوند.



به عنوان بردارهای ردیف، a* - (a1,a2,…,an). اگر Rn باشد، محصول اسکالر آنها (a,b) به عنوان یک کمیت درک می شود. واضح است که

اگر aRn و R=||rij|| پس ماتریسی از مرتبه nхn است



تعریف 1. اجازه دهید F = F(x1,....,xn) - تابع توزیع n بعدی در (, ()). تابع مشخصه آن تابع نامیده می شود


تعریف 2 . اگر؟ = (?1,…,?n) یک بردار تصادفی است که بر روی یک فضای احتمال با مقادیر در تعریف شده است، سپس تابع مشخصه آن تابع نامیده می شود.



F کجاست؟ = F?(х1,….,хn) - تابع توزیع برداری؟=(?1,…, ?n).

اگر تابع توزیع F(x) دارای چگالی f=f(x) باشد، پس



در این حالت تابع مشخصه چیزی جز تبدیل فوریه تابع f(x) نیست.

از (3) نتیجه می شود که تابع مشخصه ??(t) یک بردار تصادفی را نیز می توان با برابری تعریف کرد.



خصوصیات اساسی توابع مشخصه (در مورد n=1).

بگذار؟ = ?(?) - متغیر تصادفی، F? =F؟ (x) تابع توزیع آن و تابع مشخصه است.

لازم به ذکر است که اگر، پس.



در واقع،

که در آن از این واقعیت استفاده کردیم که انتظار ریاضی حاصلضرب متغیرهای تصادفی مستقل (محدود) با حاصلضرب انتظارات ریاضی آنها برابر است.

خاصیت (6) هنگام اثبات قضایای حدی برای مجموع متغیرهای تصادفی مستقل با روش توابع مشخصه کلیدی است. در این راستا، تابع توزیع از طریق توابع توزیع عبارات جداگانه به روشی بسیار پیچیده‌تر بیان می‌شود، یعنی در جایی که علامت * به معنای پیچیدگی توزیع‌ها است.

هر تابع توزیع در می تواند با یک متغیر تصادفی مرتبط باشد که این تابع را به عنوان تابع توزیع خود دارد. بنابراین، هنگام ارائه ویژگی های توابع مشخصه، می توانیم خود را به در نظر گرفتن توابع مشخصه متغیرهای تصادفی محدود کنیم.

قضیه 1.اجازه بده؟ - یک متغیر تصادفی با تابع توزیع F=F(x) و - تابع مشخصه آن.

خواص زیر انجام می شود:

) یکنواخت پیوسته در;

) یک تابع با ارزش واقعی است اگر و فقط اگر توزیع F متقارن باشد


)اگر برای برخی n؟ 1، سپس برای همه مشتقات و وجود دارد



)اگر وجود دارد و متناهی است، پس

) اجازه دهید برای همه n؟ 1 و


سپس برای همه |t|

قضیه زیر نشان می دهد که تابع مشخصه به طور یکتا تابع توزیع را تعیین می کند.

قضیه 2 (یکتا بودن). فرض کنید F و G دو تابع توزیع باشند که تابع مشخصه یکسانی دارند، یعنی برای همه



این قضیه می گوید که تابع توزیع F = F(x) را می توان به طور یکتا از تابع مشخصه خود بازیابی کرد. قضیه زیر یک نمایش صریح از تابع F بر حسب نشان می دهد.

قضیه 3 (فرمول تعمیم). فرض کنید F = F(x) تابع توزیع و تابع مشخصه آن باشد.

الف) برای هر دو نقطه a، b (a< b), где функция F = F(х) непрерывна,


اگر تابع توزیع F(x) دارای چگالی f(x) باشد،



قضیه 4. برای اینکه اجزای یک بردار تصادفی مستقل باشند لازم و کافی است که تابع مشخصه آن حاصلضرب توابع مشخصه اجزاء باشد:


قضیه بوشنر-خینچین . اجازه دهید یک تابع پیوسته باشد برای اینکه مشخصه باشد، لازم است و کافی است که غیرمنفی باشد، یعنی برای هر t1، ...، tn و هر عدد مختلط.



قضیه 5. تابع مشخصه یک متغیر تصادفی باشد.

الف) اگر برای برخی، متغیر تصادفی شبکه ای با پله است، یعنی


) اگر برای دو نقطه مختلف، یک عدد غیر منطقی کجاست، آیا آن یک متغیر تصادفی است؟ منحط است:



جایی که a مقداری ثابت است.

ج) اگر، پس آیا یک متغیر تصادفی است؟ منحط


1.3 قضیه حد مرکزی برای متغیرهای تصادفی مستقل با توزیع یکسان


فرض کنید () دنباله ای از متغیرهای تصادفی مستقل و با توزیع یکسان باشد. انتظار M= a، واریانس D=، S =، و Ф(х) تابع توزیع قانون نرمال با پارامترهای (0،1) است. اجازه دهید توالی دیگری از متغیرهای تصادفی را معرفی کنیم



قضیه. اگر 0<<, то при n P(< x) Ф(х) равномерно относительно х ().

در این مورد، دنباله () به طور مجانبی نرمال نامیده می شود.

از این واقعیت که M = 1 و از قضایای پیوستگی چنین استنباط می شود که همراه با همگرایی ضعیف، FM f() Mf() برای هر f کران پیوسته، همگرایی Mf() Mf() برای هر f پیوسته نیز وجود دارد. ، به گونه ای که |f(x)|< c(1+|x|) при каком-нибудь.

اثبات

همگرایی یکنواخت در اینجا نتیجه همگرایی ضعیف و تداوم Ф(x) است. علاوه بر این، بدون از دست دادن کلیت، می توانیم a = 0 را فرض کنیم، زیرا در غیر این صورت می توانیم دنباله () را در نظر بگیریم و دنباله () تغییر نخواهد کرد. بنابراین، برای اثبات همگرایی لازم کافی است نشان دهیم که (t) e وقتی a = 0 است.

(t) = ، جایی که =(t).


از آنجایی که M وجود دارد، تجزیه وجود دارد و معتبر است



بنابراین، برای n

قضیه ثابت شده است.


1.4 وظایف اصلی آمار ریاضی، شرح مختصر آنها


ایجاد الگوهایی که بر پدیده های تصادفی انبوه حاکم هستند، بر اساس مطالعه داده های آماری - نتایج مشاهدات است. اولین وظیفه آمار ریاضی نشان دادن راه های جمع آوری و گروه بندی اطلاعات آماری است. وظیفه دوم آمار ریاضی، توسعه روش هایی برای تجزیه و تحلیل داده های آماری، بسته به اهداف مطالعه است.

هنگام حل هر مسئله ای از آمار ریاضی، دو منبع اطلاعاتی وجود دارد. اولین و قطعی ترین (صریح) نتیجه مشاهدات (آزمایش) در قالب نمونه ای از برخی از جمعیت عمومی یک متغیر تصادفی اسکالر یا برداری است. در این مورد، اندازه نمونه n را می توان ثابت کرد، یا می تواند در طول آزمایش افزایش یابد (به عنوان مثال، می توان از روش های تحلیل آماری متوالی استفاده کرد).

منبع دوم همه اطلاعات پیشینی در مورد ویژگی های مورد مطالعه شی مورد مطالعه است که تا لحظه کنونی انباشته شده است. به طور رسمی، مقدار اطلاعات پیشینی در مدل آماری اولیه که هنگام حل مسئله انتخاب می شود، منعکس می شود. با این حال، نیازی به صحبت در مورد تعیین تقریبی به معنای معمول احتمال یک رویداد بر اساس نتایج آزمایش‌ها نیست. معمولاً منظور از تعیین تقریبی هر کمیت این است که می توان محدوده های خطا را نشان داد که در آن خطایی رخ نمی دهد. فراوانی رویداد برای هر تعداد آزمایش به دلیل تصادفی بودن نتایج آزمایش های فردی تصادفی است. به دلیل تصادفی بودن نتایج آزمایش های فردی، فرکانس ممکن است به طور قابل توجهی از احتمال رویداد منحرف شود. بنابراین، با تعریف احتمال مجهول یک رویداد به عنوان فراوانی این رویداد در تعداد زیادی آزمایش، نمی‌توانیم حدود خطا را مشخص کنیم و تضمین کنیم که خطا از این محدودیت‌ها فراتر نخواهد رفت. بنابراین، در آمارهای ریاضی معمولاً در مورد مقادیر تقریبی مقادیر مجهول صحبت نمی کنیم، بلکه در مورد مقادیر مناسب آنها، تخمین ها صحبت می کنیم.

مشکل تخمین پارامترهای مجهول در مواردی ایجاد می شود که تابع توزیع جمعیت تا یک پارامتر شناخته شده باشد. در این مورد، لازم است آماری یافت شود که مقدار نمونه آن برای اجرای در نظر گرفته شده xn از یک نمونه تصادفی، بتواند مقدار تقریبی پارامتر در نظر گرفته شود. آماری که مقدار نمونه آن برای هر تحقق xn به عنوان مقدار تقریبی یک پارامتر مجهول در نظر گرفته می شود، تخمین نقطه ای یا به سادگی تخمین نامیده می شود و مقدار یک برآورد نقطه ای است. یک تخمین نقطه ای باید الزامات بسیار خاصی را برآورده کند تا مقدار نمونه آن با مقدار واقعی پارامتر مطابقت داشته باشد.

روش دیگری برای حل مسئله مورد بررسی نیز امکان پذیر است: چنین آماری را بیابید و به طوری که با احتمال؟ نابرابری زیر برقرار است:



در این مورد ما در مورد تخمین بازه برای صحبت می کنیم. فاصله



فاصله اطمینان برای با ضریب اطمینان نامیده می شود؟

پس از ارزیابی یک یا دیگر ویژگی های آماری بر اساس نتایج آزمایش ها، این سوال مطرح می شود: این فرضیه (فرضیه) که مشخصه مجهول دقیقاً مقداری را دارد که در نتیجه ارزیابی آن با داده های تجربی به دست آمده است، چقدر سازگار است؟ اینگونه است که دومین کلاس مهم از مسائل در آمار ریاضی بوجود می آید - مشکلات آزمون فرضیه ها.

به یک معنا، مسئله آزمایش یک فرضیه آماری معکوس مسئله تخمین پارامتر است. هنگام تخمین یک پارامتر، چیزی در مورد مقدار واقعی آن نمی دانیم. هنگام آزمایش یک فرضیه آماری، بنا به دلایلی ارزش آن معلوم است و لازم است این فرض بر اساس نتایج آزمایش تأیید شود.

در بسیاری از مسائل آمار ریاضی، دنباله‌ای از متغیرهای تصادفی در نظر گرفته می‌شوند که به یک معنا به حدی (متغیر تصادفی یا ثابت)، همگرا می‌شوند.

بنابراین، وظایف اصلی آمار ریاضی، توسعه روش‌هایی برای یافتن تخمین‌ها و مطالعه دقت تقریب آنها با ویژگی‌های مورد ارزیابی و توسعه روش‌هایی برای آزمایش فرضیه‌ها است.


5 آزمون فرضیه های آماری: مفاهیم اساسی


وظیفه توسعه روش های منطقی برای آزمون فرضیه های آماری یکی از وظایف اصلی آمار ریاضی است. فرضیه آماری (یا به سادگی یک فرضیه) عبارت است از هر جمله ای در مورد نوع یا ویژگی های توزیع متغیرهای تصادفی مشاهده شده در یک آزمایش.

اجازه دهید نمونه ای وجود داشته باشد که تحقق یک نمونه تصادفی از یک جمعیت عمومی است که چگالی توزیع آن به یک پارامتر ناشناخته بستگی دارد.

فرضیه های آماری در مورد مقدار واقعی ناشناخته یک پارامتر، فرضیه های پارامتریک نامیده می شوند. علاوه بر این، اگر یک اسکالر است، در این صورت در مورد فرضیه های یک پارامتری صحبت می کنیم و اگر بردار است، در مورد فرضیه های چند پارامتری صحبت می کنیم.

فرضیه آماری در صورتی ساده نامیده می شود که دارای شکل باشد

جایی که مقداری پارامتر مشخص شده است.

فرضیه آماری در صورتی پیچیده نامیده می شود که دارای شکل باشد


که در آن مجموعه ای از مقادیر پارامتر متشکل از بیش از یک عنصر است.

در صورت آزمون دو فرضیه آماری ساده از فرم

در جایی که دو مقدار داده شده (متفاوت) از پارامتر وجود دارد، فرضیه اول معمولاً اصلی و فرضیه دوم فرضیه جایگزین یا رقیب نامیده می شود.

معیار یا معیار آماری برای آزمون فرضیه ها قاعده ای است که بر اساس داده های نمونه، درباره اعتبار فرضیه اول یا دوم تصمیم گیری می شود.

این معیار با استفاده از یک مجموعه بحرانی که زیرمجموعه ای از فضای نمونه یک نمونه تصادفی است، مشخص می شود. تصمیم به شرح زیر اتخاذ می شود:

اگر نمونه متعلق به مجموعه بحرانی است، فرضیه اصلی را رد کرده و فرضیه جایگزین را بپذیرید.

اگر نمونه به مجموعه بحرانی تعلق نداشته باشد (یعنی متعلق به مکمل مجموعه به فضای نمونه باشد)، فرضیه جایگزین رد شده و فرضیه اصلی پذیرفته می شود.

هنگام استفاده از هر معیار، انواع خطاهای زیر ممکن است:

1) یک فرضیه را زمانی بپذیرید که درست باشد - یک اشتباه از نوع اول.

)پذیرفتن یک فرضیه در صورت صحت آن یک خطای نوع دوم است.

احتمال ارتکاب خطاهای نوع اول و دوم با موارد زیر مشخص می شود:

احتمال وقوع یک رویداد کجاست، مشروط بر اینکه این فرضیه درست باشد.

احتمال ارتکاب خطای نوع I را سطح اهمیت معیار نیز می‌گویند.

مقداری که برابر با احتمال رد فرضیه اصلی در صحت آن است، توان آزمون نامیده می شود.


1.6 معیار استقلال


یک نمونه ((XY)، ...، (XY)) از یک توزیع دو بعدی وجود دارد

L با یک تابع توزیع مجهول که برای آن لازم است فرضیه H: را آزمایش کنیم، که در آن برخی از توابع توزیع یک بعدی وجود دارد.

یک آزمون ساده برازش برای فرضیه H می تواند بر اساس روش شناسی ساخته شود. این تکنیک برای مدل‌های گسسته با تعداد نتایج محدود استفاده می‌شود، بنابراین ما توافق می‌کنیم که متغیر تصادفی یک عدد محدود s از برخی مقادیر را بگیرد که آن‌ها را با حروف نشان می‌دهیم و جزء دوم - مقادیر k. اگر مدل اصلی ساختار متفاوتی داشته باشد، مقادیر احتمالی متغیرهای تصادفی در ابتدا به طور جداگانه در مؤلفه های اول و دوم گروه بندی می شوند. در این حالت مجموعه به بازه های s، مقدار به k بازه و مقدار خود به مستطیل های N=sk تقسیم می شود.

اجازه دهید با تعداد مشاهدات جفت (تعداد عناصر نمونه متعلق به مستطیل در صورت گروه بندی داده ها) نشان دهیم، به طوری که. به راحتی می توان نتایج مشاهدات را در قالب یک جدول احتمالی از دو علامت مرتب کرد (جدول 1.1). در کاربردها و معمولاً به معنای دو معیار است که بر اساس آنها نتایج مشاهدات طبقه بندی می شوند.

فرض کنید P, i=1,…,s, j=1,…,k. سپس فرضیه استقلال به این معنی است که ثابت‌های s+k وجود دارد که و، i.e.


جدول 1.1

مجموع . . .. . .. . . . . .. . .. . . . . . . . . . . . . . مجموع . . .n

بنابراین، فرضیه H به این بیانیه می رسد که فرکانس ها (تعداد آنها N = sk است) بر اساس یک قانون چند جمله ای با احتمالات نتایج دارای ساختار خاص مشخص شده توزیع می شوند (بردار احتمالات نتایج p توسط مقادیر تعیین می شود. r = s + k-2 از پارامترهای ناشناخته.

برای آزمایش این فرضیه، تخمین‌های حداکثر احتمال را برای پارامترهای ناشناخته‌ای که طرح مورد بررسی را تعیین می‌کنند، خواهیم یافت. اگر فرضیه صفر درست باشد، تابع درستنمایی به شکل L(p)= است که در آن ضریب c به پارامترهای مجهول وابسته نیست. از اینجا با استفاده از روش لاگرانژ از ضرایب نامشخص، به این نتیجه می رسیم که تخمین های مورد نیاز دارای شکل هستند.

بنابراین، آمار

L() at، زیرا تعداد درجات آزادی در توزیع حد برابر است با N-1-r=sk-1-(s+k-2)=(s-1)(k-1).

بنابراین، برای n به اندازه کافی بزرگ، می توان از قانون آزمون فرضیه زیر استفاده کرد: فرضیه H رد می شود اگر و تنها در صورتی که مقدار آماری t محاسبه شده از داده های واقعی نابرابری را برآورده کند.

این معیار دارای سطح معنی داری مجانبی (در) است و معیار استقلال نامیده می شود.

2. بخش عملی


1 راه حل مسائل مربوط به انواع همگرایی


1. ثابت کنید که همگرایی تقریباً به طور قطع دلالت بر همگرایی در احتمال دارد. یک مثال آزمایشی ارائه دهید تا نشان دهید که عکس آن درست نیست.

راه حل. اجازه دهید یک دنباله از متغیرهای تصادفی به یک متغیر تصادفی x تقریباً مطمئناً همگرا شوند. بنابراین، برای هر کسی؟ > 0

از آن زمان

و از همگرایی xn به x تقریباً به طور قطع نتیجه می شود که xn به احتمال زیاد به x همگرا می شود، زیرا در این مورد

اما گفته مخالف درست نیست. فرض کنید دنباله ای از متغیرهای تصادفی مستقل با تابع توزیع یکسان F(x)، برابر با صفر در x باشد؟ 0 و برابر x > 0. دنباله را در نظر بگیرید


این دنباله به احتمال زیاد به صفر همگرا می شود، زیرا

تمایل به صفر برای هر ثابت؟ و. با این حال، همگرایی به صفر تقریباً به طور قطع انجام نخواهد شد. واقعا

به وحدت گرایش دارد، یعنی با احتمال 1 برای هر و n تحققهایی در دنباله ای بیشتر از ? وجود خواهد داشت.

توجه داشته باشید که در حضور برخی شرایط اضافی که بر کمیت‌های xn تحمیل شده‌اند، همگرایی در احتمال تقریباً به طور قطع دلالت بر همگرایی دارد.

بگذارید xn یک دنباله یکنواخت باشد. ثابت کنید که در این حالت همگرایی xn به x در احتمال مستلزم همگرایی xn به x با احتمال 1 است.

راه حل. اجازه دهید xn دنباله ای یکنواخت کاهشی باشد، یعنی. برای ساده کردن استدلال خود، x º 0، xn ³ 0 برای همه n فرض می کنیم. اجازه دهید xn در احتمال به x همگرا شود، اما تقریباً به طور قطع همگرایی صورت نمی گیرد. اونوقت وجود داره؟ > 0، به طوری که برای همه n


اما آنچه گفته شد به این معناست که برای همه n

که در تضاد با همگرایی xn به x در احتمال است. بنابراین، برای یک دنباله یکنواخت xn، که در احتمال به x همگرا می شود، با احتمال 1 نیز همگرا می شود (تقریباً به طور قطع).

اجازه دهید دنباله xn در احتمال به x همگرا شود. ثابت کنید که از این دنباله می توان دنباله ای را جدا کرد که به x با احتمال 1 at همگرا می شود.

راه حل. اجازه دهید تعدادی دنباله از اعداد مثبت باشد، و اجازه دهید و اعداد مثبت به طوری که سری. بیایید دنباله ای از شاخص های n1 بسازیم

بعد سریال


از آنجایی که سریال همگرا می شود، پس برای هر کدام؟ > 0 باقیمانده سری به صفر میل می کند. اما سپس به سمت صفر و



ثابت کنید که همگرایی در میانگین هر مرتبه مثبت دلالت بر همگرایی در احتمال دارد. مثالی بزنید تا نشان دهید که عکس آن درست نیست.

راه حل. اجازه دهید دنباله xn با مرتبه p > 0 به مقدار x همگرا شود



اجازه دهید از نابرابری تعمیم یافته چبیشف استفاده کنیم: برای دلخواه؟ > 0 و p > 0



با کارگردانی و در نظر گرفتن آن، آن را به دست می آوریم



یعنی xn در احتمال به x همگرا می شود.

با این حال، همگرایی در احتمال مستلزم همگرایی در میانگین مرتبه p > 0 نیست. این با مثال زیر نشان داده شده است. فضای احتمال áW, F, Rñ را در نظر بگیرید، جایی که F = B جبر بورل است، R اندازه گیری Lebesgue است.

بیایید دنباله ای از متغیرهای تصادفی را به صورت زیر تعریف کنیم:

دنباله xn به احتمال زیاد به 0 همگرا می شود، زیرا



اما برای هر p > 0



یعنی به طور متوسط ​​همگرا نخواهد شد.

اجازه دهید، چه برای همه n. ثابت کنید که در این حالت xn در مربع میانگین به x همگرا می شود.

راه حل. توجه داشته باشید که ... بیایید یک برآورد برای. بیایید یک متغیر تصادفی را در نظر بگیریم. اجازه بده؟ - یک عدد مثبت دلخواه سپس در و در.



اگر، پس و. از این رو، . و چون؟ به طور دلخواه کوچک و سپس at، یعنی در ریشه میانگین مربع.

ثابت کنید که اگر xn به احتمال زیاد به x همگرا شود، همگرایی ضعیف رخ می دهد. یک مثال آزمایشی ارائه دهید تا نشان دهید که عکس آن درست نیست.

راه حل. اجازه دهید ثابت کنیم که اگر، پس در هر نقطه x، که یک نقطه تداوم است (این شرط لازم و کافی برای همگرایی ضعیف است)، تابع توزیع مقدار xn است، و - مقدار x است.

فرض کنید x نقطه تداوم تابع F باشد. اگر، حداقل یکی از نامساوی یا درست است. سپس



به طور مشابه، حداقل برای یکی از نابرابری ها یا و






اگر، پس برای کوچکترین اندازه دلخواه؟ > 0 N وجود دارد به طوری که برای همه n > N وجود دارد



از طرف دیگر، اگر x یک نقطه تداوم باشد، آیا می توان چنین چیزی را پیدا کرد؟ > 0، که برای خودسرانه کوچک است



بنابراین، برای کوچکی که دوست دارید؟ و N وجود دارد به طوری که برای n >N




یا همان چیست



این بدان معنی است که همگرایی و در تمام نقاط تداوم صورت می گیرد. در نتیجه، همگرایی ضعیف ناشی از همگرایی در احتمال است.

گزاره معکوس، به طور کلی، صادق نیست. برای تأیید این موضوع، اجازه دهید دنباله ای از متغیرهای تصادفی را انتخاب کنیم که با ثابت های با احتمال 1 برابر نیستند و تابع توزیع F(x) یکسانی دارند. ما فرض می کنیم که برای همه n کمیت ها و مستقل هستند. بدیهی است که همگرایی ضعیف رخ می دهد، زیرا همه اعضای دنباله تابع توزیع یکسانی دارند. در نظر بگیرید:

|از استقلال و توزیع یکسان ارزش ها چنین برمی آید که




اجازه دهید از میان همه توابع توزیع متغیرهای تصادفی غیر منحط مانند F(x) را انتخاب کنیم که برای همه ?های به اندازه کافی کوچک غیر صفر باشد. سپس با رشد نامحدود n به صفر تمایل ندارد و همگرایی در احتمال انجام نخواهد شد.

7. اجازه دهید همگرایی ضعیف وجود داشته باشد، جایی که با احتمال 1 یک ثابت وجود دارد. ثابت کنید که در این صورت به احتمال همگرا خواهد شد.

راه حل. فرض کنید احتمال 1 برابر با a باشد. سپس همگرایی ضعیف به معنای همگرایی برای هر کسی است. از آن زمان، پس از آن در و در. یعنی در و در. آن را به دنبال دارد که برای هر کسی؟ > 0 احتمال



تمایل به صفر در این به این معنی است که

به سمت صفر در میل می کند، یعنی به احتمال همگرا می شود.

2.2 حل مشکلات مرکز حرارت مرکزی


مقدار تابع گاما Г(x) در x= با روش مونت کارلو محاسبه می شود. اجازه دهید حداقل تعداد تست های لازم را پیدا کنیم تا با احتمال 0.95 بتوانیم انتظار داشته باشیم که خطای نسبی محاسبات کمتر از یک درصد باشد.

تا دقتی که داریم



معلوم است که



با ایجاد تغییر در (1)، در یک بازه محدود به انتگرال می رسیم:



با ما، بنابراین


همانطور که مشاهده می شود، می توان آن را به شکل Where نمایش داد و به طور یکنواخت روی آن توزیع می شود. اجازه دهید تست های آماری انجام شود. سپس آنالوگ آماری کمیت است



که در آن، متغیرهای تصادفی مستقل با توزیع یکنواخت هستند. در عین حال



از CLT چنین استنباط می شود که با پارامترها به طور مجانبی نرمال است.






این بدان معناست که حداقل تعداد آزمون هایی که به احتمال زیاد خطای نسبی محاسبات را تضمین می کند بیش از برابر نباشد.


ما دنباله ای از 2000 متغیر تصادفی مستقل با توزیع یکسان با انتظار ریاضی 4 و واریانس 1.8 را در نظر می گیریم. میانگین حسابی این کمیت ها یک متغیر تصادفی است. احتمال اینکه متغیر تصادفی مقداری در بازه (3.94؛ 4.12) بگیرد را تعیین کنید.

بگذارید، …،… دنباله ای از متغیرهای تصادفی مستقل با توزیع یکسان با M=a=4 و D==1.8 باشد. سپس CLT برای دنباله () قابل اعمال است. متغیر تصادفی

احتمال اینکه مقداری در بازه ():



برای n=2000، 3.94 و 4.12 دریافت می کنیم



3 آزمون فرضیه ها با استفاده از معیار استقلال


در نتیجه این مطالعه مشخص شد که 782 پدر با چشم روشن دارای پسرانی با چشم روشن و 89 پدر چشم روشن دارای پسرانی با چشمان تیره هستند. 50 پدر چشم تیره نیز پسرانی با چشم تیره دارند و 79 پدر چشم تیره نیز پسرانی با چشم روشن دارند. آیا بین رنگ چشم پدران و پسرانشان رابطه ای وجود دارد؟ سطح اطمینان را 0.99 در نظر بگیرید.


جدول 2.1

فرزندان پدران مجموع چشم روشن با چشم تیره با چشم روشن78279861چشم تیره8950139مجموع8711291000

ح: بین رنگ چشم فرزندان و پدر ارتباطی وجود ندارد.

ح: بین رنگ چشم فرزندان و پدر رابطه وجود دارد.



s=k=2 =90.6052 با 1 درجه آزادی

محاسبات در Mathematica 6 انجام شده است.

از آنجایی که >، پس فرضیه H در مورد عدم وجود رابطه بین رنگ چشم پدر و فرزند در سطح معناداری باید رد شود و فرضیه جایگزین H نیز پذیرفته شود.


بیان شده است که اثر دارو به روش مصرف بستگی دارد. این عبارت را با استفاده از داده های ارائه شده در جدول بررسی کنید. 2.2 سطح اطمینان را 0.95 در نظر بگیرید.


جدول 2.2

نتیجه روش کاربرد ABC نامطلوب 111716 مطلوب 202319

راه حل.

برای حل این مشکل از جدول احتمالی دو مشخصه استفاده می کنیم.


جدول 2.3

نتیجه روش کاربرد مقدار ABC نامطلوب 11171644 مطلوب 20231962 مبلغ 314035106

ح: اثر داروها به روش مصرف بستگی ندارد

ح: تأثیر داروها به روش مصرف بستگی دارد

آمار با استفاده از فرمول زیر محاسبه می شود



s=2، k=3، =0.734626 با 2 درجه آزادی.


محاسبات انجام شده در Mathematica 6

از جداول توزیع متوجه می شویم که.

از آنجایی که< , то гипотезу H, про отсутствия зависимости действия лекарств от способа применения, при уровне значимости, следует принять.


نتیجه گیری


در این مقاله محاسبات نظری از بخش "معیار استقلال" و همچنین "قضیه های حدی نظریه احتمال"، درس "نظریه احتمالات و آمار ریاضی" ارائه شده است. در طول کار، معیار استقلال در عمل مورد آزمایش قرار گرفت. همچنین، برای دنباله های داده شده از متغیرهای تصادفی مستقل، تحقق قضیه حد مرکزی بررسی شد.

این کار به بهبود دانش من در مورد این بخش‌های نظریه احتمال، کار با منابع ادبی و تسلط کامل بر تکنیک بررسی معیار استقلال کمک کرد.

قضیه فرضیه آماری احتمالی

لیست پیوندها


1. مجموعه مسائل از نظریه احتمال با راه حل. اوخ کمک هزینه / اد. V.V. سمنتس. - Kharkov: KhTURE, 2000. - 320 p.

Gikhman I.I.، Skorokhod A.V.، Yadrenko M.I. نظریه احتمالات و آمار ریاضی. - ک.: مدرسه ویشچا، 1979. - 408 ص.

Ivchenko G.I.، Medvedev Yu.I.، آمار ریاضی: کتاب درسی. کمک هزینه برای کالج ها - م.: بالاتر. مدرسه، 1984. - 248 ص.

آمار ریاضی: کتاب درسی. برای دانشگاه ها / V.B. گوریانوف، I.V. پاولوف، G.M. Tsvetkova و دیگران؛ اد. V.S. زاروبینا، A.P. کریشنکو - M.: انتشارات MSTU im. N.E. باومن، 2001. - 424 ص.


تدریس خصوصی

برای مطالعه یک موضوع به کمک نیاز دارید؟

متخصصان ما در مورد موضوعات مورد علاقه شما مشاوره یا خدمات آموزشی ارائه خواهند داد.
درخواست خود را ارسال کنیدنشان دادن موضوع در حال حاضر برای اطلاع از امکان اخذ مشاوره.

مبانی نظریه احتمالات و آمار ریاضی

مبانی نظریه احتمال و آمار ریاضی مفاهیم اساسی نظریه احتمال موضوع مطالعه نظریه احتمال الگوهای کمی پدیده های تصادفی همگن با ماهیت توده ای است. تعریف 1. رویداد هر واقعیت احتمالی است که می توان گفت در شرایط معین اتفاق می افتد یا نمی افتد. مثال. آمپول های آماده ای که از خط مونتاژ خارج می شوند می توانند استاندارد یا غیر استاندارد باشند. یک (هر) نتیجه از این دو مورد ممکن، رویداد نامیده می شود. سه نوع رویداد وجود دارد: قابل اعتماد، غیرممکن و تصادفی. تعریف 2. قابل اعتماد رویدادی است که اگر شرایط خاصی برآورده شود، نمی تواند اتفاق نیفتد، i.e. قطعا اتفاق خواهد افتاد مثال. اگر کوزه فقط حاوی گوی های سفید باشد، توپی که به طور تصادفی از کوزه گرفته می شود همیشه سفید خواهد بود. در این شرایط، واقعیت ظاهر شدن یک توپ سفید یک رویداد قابل اعتماد خواهد بود. تعریف 3. غیرممکن رویدادی است که در صورت احراز شرایط خاص، امکان وقوع آن وجود ندارد. مثال. شما نمی توانید یک توپ سفید را از یک کوزه حاوی تنها توپ های سیاه بردارید. در این شرایط ظاهر شدن یک توپ سفید یک اتفاق غیرممکن خواهد بود. تعریف 4. تصادفی رویدادی است که در شرایط یکسان ممکن است رخ دهد، اما ممکن است رخ ندهد. مثال. سکه‌ای که به سمت بالا پرتاب می‌شود ممکن است به‌گونه‌ای بیفتد که یک نشان یا یک عدد در بالای آن ظاهر شود. در اینجا، ظاهر شدن یک یا آن روی سکه در بالای آن یک رویداد تصادفی است. تعریف 5. آزمون مجموعه ای از شرایط یا اعمالی است که می توان آنها را بی نهایت بار تکرار کرد. مثال. پرتاب کردن یک سکه به بالا یک آزمایش است و نتیجه ممکن، یعنی. ظاهر شدن یک نشان یا یک عدد در سمت بالای سکه یک اتفاق است. تعریف 6. اگر رویدادهای A i به گونه‌ای باشند که در طول یک آزمون معین فقط یکی از آنها و هیچ رویداد دیگری که در کل گنجانده نشده است رخ دهد، آنگاه این رویدادها تنها رویدادهای ممکن نامیده می‌شوند. مثال. کوزه حاوی توپ های سفید و سیاه است و هیچ توپ دیگری وجود ندارد. یک توپ به صورت تصادفی ممکن است سفید یا سیاه شود. این رویدادها تنها موارد ممکن هستند، زیرا ظاهر یک توپ با رنگ متفاوت در طول این آزمایش مستثنی است. تعریف 7. دو رویداد A و B در صورتی ناسازگار نامیده می شوند که نتوانند در طول یک آزمون معین با هم رخ دهند. مثال. نشان و شماره تنها رویدادهای ممکن و ناسازگار در حین پرتاب یک سکه هستند. تعریف 8. دو رویداد A و B برای یک آزمون معین مشترک (سازگار) نامیده می شوند که وقوع یکی از آنها امکان وقوع رویداد دیگری را در همان آزمون منتفی نکند. مثال. ممکن است هنگام پرتاب دو سکه در یک پرتاب، یک سر و یک عدد با هم ظاهر شوند. تعریف 9. رویدادهای A i در یک آزمون داده شده به همان اندازه ممکن نامیده می شوند که به دلیل تقارن، دلیلی وجود داشته باشد که باور کنیم هیچ یک از این رویدادها بیشتر از بقیه ممکن نیست. مثال. ظاهر شدن هر صورت در حین پرتاب یک قالب یک رویداد به همان اندازه ممکن است (به شرطی که قالب از یک ماده همگن ساخته شده باشد و شکل یک شش ضلعی منظم داشته باشد). تعریف 10. وقایع را برای یک واقعه مساعد (مطلوب) می نامند که وقوع یکی از این رویدادها مستلزم وقوع آن واقعه باشد. مواردی که وقوع یک رویداد را منتفی می کند، برای این رویداد نامطلوب نامیده می شود. مثال. کوزه شامل 5 توپ سفید و 7 توپ سیاه است. وقتی یک توپ را به صورت تصادفی می گیرید، ممکن است یک توپ سفید یا سیاه در دستان خود داشته باشید. در این حالت از مجموع 12 حالت ممکن، 5 مورد ظاهر یک توپ سفید و در 7 مورد از مجموع 12 مورد ممکن، ظاهر یک توپ سیاه را ترجیح می دهند. تعریف 11. تنها دو رویداد ممکن و ناسازگار را در مقابل یکدیگر می نامند. اگر یکی از این رویدادها A مشخص شود، رویداد مقابل با علامت Ā مشخص می شود. مثال. بزن و از دست بده برد و باخت در یک بلیط بخت آزمایی همگی نمونه هایی از رویدادهای متضاد هستند. تعریف 12. اگر در نتیجه هر عملیات جرمی متشکل از n آزمایش یا مشاهده (آزمایش) منفرد مشابه، یک رویداد تصادفی m بار ظاهر شود، آنگاه عدد m را بسامد رویداد تصادفی و نسبت m/n می نامند. فرکانس آن نامیده می شود. مثال. در بین 20 محصول اول که از خط مونتاژ خارج شدند، 3 محصول غیر استاندارد (عیب) وجود داشت. در اینجا تعداد آزمایش n = 20، فراوانی نقص m = 3، فراوانی نقص m / n = 3/20 = 0.15. هر رویداد تصادفی در شرایط معین امکان وقوع عینی خاص خود را دارد و برای برخی رویدادها این احتمال وقوع بیشتر و برای برخی دیگر کمتر است. برای مقایسه کمی رویدادها با یکدیگر از نظر درجه امکان وقوع آنها، یک عدد واقعی معین با هر رویداد تصادفی مرتبط می شود که بیانگر ارزیابی کمی از درجه امکان عینی وقوع این رویداد است. به این عدد احتمال وقوع می گویند. تعریف 13. احتمال وقوع یک رویداد معین، معیار عددی امکان عینی وقوع این رویداد است. تعریف 14. (تعریف کلاسیک احتمال). احتمال رویداد A نسبت تعداد m موارد مطلوب برای وقوع این رویداد به تعداد n از همه موارد ممکن است، یعنی. P(A) = m/n. مثال. کوزه حاوی 5 توپ سفید و 7 توپ سیاه است که کاملاً مخلوط شده اند. احتمال اینکه توپی که به طور تصادفی از یک کوزه کشیده می شود سفید باشد چقدر است؟ راه حل. در این آزمایش تنها 12 مورد ممکن وجود دارد که 5 مورد آن به نفع ظاهر شدن یک توپ سفید است. بنابراین، احتمال ظاهر شدن یک توپ سفید P = 5/12 است. تعریف 15. (تعریف آماری احتمال). اگر با تعداد کافی آزمایش‌های تکراری در رابطه با رویداد A، مشاهده شود که بسامد رویداد حول یک عدد ثابت نوسان می‌کند، رویداد A احتمال P(A) تقریباً برابر با فرکانس دارد. P(A)~ m/n. فراوانی یک رویداد در تعداد نامحدودی از آزمایش‌ها را احتمال آماری می‌گویند. ویژگی های اساسی احتمال 1 0 اگر رویداد A مستلزم رویداد B (A  B) باشد، احتمال رویداد A از احتمال رویداد B تجاوز نمی کند. P(A)≤P(B) 2 0 اگر رویدادهای A و B معادل باشند (A  B, B  A, B=A) سپس احتمالات آنها برابر است با P(A)=P(B). 3 0 احتمال هر رویداد A نمی تواند یک عدد منفی باشد، یعنی. Р(А)≥0 4 0 احتمال یک رویداد قابل اعتماد  برابر با 1 است. Р()=1. 5 0 احتمال یک رویداد غیرممکن  0 است. Р(  )=0. 6 0 احتمال هر رویداد تصادفی A بین صفر تا یک 0 است<Р(А)<1 Основные формулы комбинаторики Определение 1 . Различные группы по m предметов, составленные из n однородных предметов ( m , n ), называются соединениями. Предметы, из которых составляют различные соединения, называют элементами. Существует 3 вида соединений: размещения, перестановки, сочетания. Определение 2. Размещениями по m элементов из данных n элементов ( m ≤ n ) называют такие соединения, которые отличаются друг от друга либо самими элементами, либо их порядком. Например, размещениями из трех предметов a , b и c по два будут следующие соединения: ab , ac , bc , ca , cb , ba . Число размещений из данных n элементов по m обозначают символом А n m = n ( n -1)( n -2)·....·( n - m +1). Пример. А 10 4 =10·9·8·7=5040. Определение 3. Перестановками из n элементов называют такие соединения, которые отличаются друг от друга только порядком элементов. Р n =А n n = n ( n -1)( n -2)...·3·2·1= n ! По определению 0!=1. Пример. Р 5 =5!=1·2·3·4·5=120. Определение 4. Сочетаниями из n элементов по m называются также соединения, которые отличаются друг от друга, по меньшей мере, одним элементом и каждое из которых содержит m различных элементов: C n m === Пример. Найти число сочетаний из 10 элементов по четыре. Решение. C 10 4 ==210. Пример. Найти число сочетаний из 20 элементов по 17. Решение. ==1040. Теоремы теории вероятностей Теорема сложения вероятностей Теорема 1 . Вероятность наступления одного какого-либо события из двух несовместимых событий А и В равно сумме вероятностей этих событий Р(А+В)=Р(А)+Р(В ). Пример. В урне 5 красных, 7 синих и 8 белых шаров, перемешанных между собой. Какова вероятность того, что взятый наугад один шар окажется не красным? Решение. Не красный шар - это или белый или синий шары. Вероятность появления белого шара (событие А) равна Р(А)= 8/20 = 2/5. Вероятность появления синего шара (событие В) равна Р(В)= 7/20. Событие, состоящее в появлении не красного шара, означает появление или А или В, т.к. события А и В несовместимы, то применима теорема 1. Искомая вероятность будет равна Р(А+В)=Р(А)+Р(В)=2/5+ +7/20=3/4. Теорема 2. Вероятность наступления одного из двух событий A или B равно сумме вероятностей этих событий минус вероятность их совместного появления P ( A + B )= P ( A )+ P ( B )+ P ( AB ). Теорема умножения вероятностей Определение 1. Два события A и B называются независимыми друг от друга, если вероятность одного из них не зависит от наступления или ненаступления другого. Пример. Пусть A - событие, состоящее в появлении герба при первом бросании монеты, а B - событие, состоящее в появлении герба при втором бросании монеты, то события A и B не зависят друг от друга, т.е. результат первого бросания монеты не может изменить вероятность появления герба при втором бросании монеты. Определение 2. Два события A и B называются зависящими друг от друга, если вероятность одного из них зависит от наступления или ненаступления другого. Пример. В урне 8 белых и 7 красных шаров, перемешанных между собой. Событие A - появление белого шара, а событие B - появление красного шара. Будем брать из урны наугад два раза по одному шару, не возвращая их обратно. До начала испытания вероятность появления события A равна P ( A )=8/15, и вероятность события B равна P ( B )=7/15. Если предположить, что в первый раз был взят белый шар (событие A ), то вероятность появления события B при втором испытании будет P ( B )=7/14=1/2. Если в первый раз был взят красный шар, то вероятность появления красного шара при втором извлечении равна P ( B )=6/14=3/7. Определение 3. Вероятность события B , вычисленная в предположении, что перед этим наступило связанное с ним событие A , называется условной вероятностью события B и обозначается PA ( B ). Теорема 3 . Вероятность совместного наступления двух зависимых событий ( A и B ) равна произведению вероятности одного из них на условную вероятность другого, вычисленную в предположении, что первое событие произошло, т.е. P ( AB )= P ( A )· P A ( B )= P ( B )· P B ( A ). Теорема 4. Вероятность совместного наступления нескольких зависимых событий равно произведению вероятности одного из них на условные вероятности всех остальных событий, вычисленные в предположении, что все предыдущие события уже наступили: P(A 1 A 2 A 3 ...A k )=P(A 1 )·P A1 (A 2 )·P A1A2 ·P(A 3 )...·P A1A2…A k-1 (A k ) Теорема 5 . Вероятность совместного наступления двух независимых событий A и B равна произведению вероятностей этих событий P ( AB )= P ( A )· P ( B ). Теорема 6 . Вероятность совместного наступления нескольких независимых событий A 1 , A 2 , ... A k равна произведению их вероятностей, т.е. P ( A 1 A 2 ... A k )= P ( A 1 )· P ( A 2 )·...· P ( A k ). Пример. Два стрелка делают одновременно по одному выстрелу в одну цель. Какова вероятность того, что оба попадут, если известно, что первый стрелок в среднем дает 7 попаданий, а второй 8 попаданий на каждые 10 выстрелов? Какова вероятность поражения мишени? Решение. Вероятность попадания первого стрелка (событие A ) равна P ( A )=0,8, вероятность попадания второго стрелка (событие B ) равна P ( B )=0,7. События A и B независимы друг от друга, поэтому вероятность совместного наступления этих событий (совместное попадание в цель) найдем по теореме умножения для независимых событий: P ( AB )= P ( A ) P ( B )=0,8·0,7=0,56. Вероятность поражения мишени означает попадание в мишень хотя бы одного стрелка. Так как попадание в мишень первого и второго стрелков являются событиями совместными, то применение теоремы сложения вероятностей для совместных событий дает следующий результат: P(A+B)=P(A)+P(B)-P(AB)=P(A)+P(B)-P(A)·P(B)=0,8+0,7- 0,8·0,7=0,94. 5.3.3. Формула полной вероятности Определение 4. Если при некотором испытании может произойти одно какое-либо событие из нескольких несовместных A 1 , A 2 ,..., A k , и при этом никаких других событий быть не может, но одно из указанных событий обязательно произойдет, то группу событий A 1 , A 2 ,..., A k называют полной группой событий. Теорема 7. Сумма вероятностей событий, образующих полную группу, равна единице: P ( A 1 )+ P ( A 2 )+...+ P ( A k )=1. Следствие. Сумма вероятностей двух противоположных событий равна единице: P ( A )+ P ( A )=1. Если вероятность одного события обозначим через p , вероятность противоположного ему события обозначим через q , тогда p + q =1. Пример. Вероятность попадания в цель равна 0,94. Найти вероятность непопадания. Решение . Попадание в цель и непопадание являются противоположными событиями, поэтому, если p =0,94, то q =1- p =1-0,94=0,06. Теорема 8 . Если случайные события A 1 , A 2 ... A n образуют полную систему, и если событие B может осуществляться только совместно с каким-нибудь одним из этих событий, то вероятность наступления события B можно определить по формуле: P(B)=P(A 1 )P A1 (B)+P(A 2 )P A2 (B)+...+P(A n )P A n (B) Это равенство называется формулой полной вероятности . Пример. На склад готовой продукции поступили изделия из трех цехов, в том числе: 30% из I -го цеха, 45% из II цеха и 25% из III цеха. Среди изделий I цеха брак составляет 0,6%, по II цеху 0,4% и по III цеху-0,16%. Какова вероятность того, что взятое наугад для контроля одно изделие окажется с браком? Решение. Одно изделие может быть взято или из продукции I цеха (событие A 1 ), или из продукции II цеха (событие A 2 ), или из продукции III цеха (событие A 3 ). Вероятности этих событий будут: P ( A 1 )=0,30; P ( A 2 )=0,45; P ( A 3 )=0,25. Вероятность того, что изделие с браком (событие B ) будет взято из продукции I цеха, есть условная вероятность P A 1 ( B ). Она равна P A 1 ( B )=0,006. Вероятность того, что изделие с браком будет взято из продукции II цеха P A 2 ( B )=0,004 и из продукции III цеха P A 3 ( B )=0,0016. Теперь по формуле полной вероятности найдем вероятность того, что взятое наугад одно изделие будет с браком: P(B)=P(A 1 )P A1 (B)+P(A 2 )P A2 (B)+...+P(A 3 )P A3 (B) = 0,3·0,006+0,45·0,004+0,25·0,0016=0,004. Формула Бернулли Теорема 9. Пусть производится n независимых повторных испытаний по отношению к некоторому событию A . Пусть вероятность появления этого события в каждом отдельном испытании остается неизменно равной p , а вероятность появления противоположного события Ā, есть q . Тогда вероятность появления интересующего нас события A равно m раз при указанных n испытаниях рассчитывается по формуле Бернулли: P m , n = p m q n - m , так как, то P m , n = · p m · q n - m Пример. Коэффициент использования станка в среднем равен 0,8. В цехе имеется 5 станков. Какова вероятность того, что в некоторый момент времени окажутся работоспособными только 3 станка? Решение. Задача подходит под схему повторных испытаний и решается по формуле Бернулли: n =5, m =3, p =0,8 и q =1-0,8=0,2: P 3,5 = (0,8) 3 ·(0,2) 2 =0,2084. Асимптотическая формула Пуассона В статистической практике нередко встречаются такие примеры независимых испытаний, когда при большом числе n независимых испытаний вероятность Р появления события в каждом отдельном испытании оказывается сравнительно малой величиной, стремящейся к нулю с увеличением числа испытаний . При этих условиях для вычисления вероятности Р m , n появление события m раз в n испытаниях пользуются асимптотической формулой Пуассона : Р m,n ≈e -a , где a=np Пример. Доля брака всей продукции завода составляет 0,5%. Какова вероятность того, что в партии, состоящей из 400 изделий, окажется три изделия бракованных? Решение. В условии примера дано p =0,005, n =400, m =3, следовательно, a = np =400·0,005=2. Вероятность данного события найдем по формуле Пуассона Р m , n (3,400) = 0,1804. Случайные величины и их числовые характеристики Определение 1. Случайной величиной называется переменная величина, которая в результате опыта принимает одно значение, причем неизвестно заранее, какое именно. Определение 2. Дискретной называется случайная величина, которая может принимать лишь отдельные, изолированные друг от друга значения. Случайная дискретная величина задается законом распределения, связывающим принимаемые ею значения x i и вероятности их принятия p i . Закон распределения чаще всего задается в табличной форме. Графическое представление закона распределения случайной дискретной величины – многоугольник распределения . Числовые характеристики дискретной случайной величины. 1) Математическое ожидание. Определение 3. Математическое ожидание случайной дискретной величины X с конечным числом значений называется сумма произведений возможных ее значений на их вероятности: M ( X ) = μ = x 1 p 1 + x 2 p 2 +...+ x n p n = . Вероятности всех значений случайной дискретной величины удовлетворяют условию нормировки: Свойства математического ожидания. 1 0 Математическое ожидание постоянной (неслучайной) величины С равно самой постоянной M ( C )= C . 2 0 Математическое ожидание алгебраической суммы нескольких случайных величин равно алгебраической сумме математических ожиданий слагаемых M ( X 1 ± X 2 ±...± X n ) = M ( X 1 ) ± M ( X 2 ) ±…± M ( X n ). 3 0 Константу можно вынести за знак математического ожидания M ( CX )= CM ( X ). 4 0 Математическое ожидание произведения нескольких независимых случайных величин равно произведению математических ожиданий этих величин: M ( X 1 X 2 ... X n ) = M ( X 1 ) M ( X 2 )... M ( X ) n . 2) Дисперсия дискретной случайной величины. Определение 4. Дисперсией случайной дискретной величины X называется математическое ожидание квадрата отклонения этой величины от ее математического ожидания. D ( X ) = M {[ X - M ( X )] 2 } = , где M ( X ) = μ Для вычисления дисперсии более удобна формула: D ( X )= M ( X 2 )-[ M ( X )] 2 , т.е. дисперсия случайной величины равна разности между математическим ожиданием квадрата этой величины и квадратом ее математического ожидания. Свойства дисперсии. 1 0 Дисперсия постоянной величины равна нулю D (С) = 0. 2 0 Постоянный множитель можно выносить за знак дисперсии, предварительно возведя его в квадрат: D ( CX ) = C 2 D ( X ). 3 0 Дисперсия суммы нескольких независимых случайных величин равна сумме дисперсий этих величин: D ( X 1 +...+ X n ) = D ( X 1 )+...+ D ( X n ). 4 0 Дисперсия разности двух независимых случайных величин равна сумме дисперсий этих величин D ( X - Y )= D ( X )+ D ( Y ). 3). Среднее квадратическое отклонение Определение 5 . Средним квадратическим отклонением случайной величины называется квадратный корень из дисперсии σ ( X )=. Пример. Найти математическое ожидание и дисперсию случайной величины X , которая задана следующим законом распределения: Решение. Найдем математическое ожидание: M ( x )=1·0,3+2·0,5+5·0,2=2,3. Найдем все возможные значения квадрата отклонения. [ x 1 - M ( x )] 2 =(1-2,3) 2 =1,69 [ x 2 - M ( x )] 2 =(2-2,3) 2 =0,09 [ x 3 - M ( x )] 2 =(5-2,3) 2 =7,29 Напишем закон распределения квадрата отклонения Найдем дисперсию: D ( x )=1,69·0,3+0,09·0,5+7,29·0,2=2,01. Числовые характеристики непрерывной случайной величины. Определение 6. Непрерывной называют случайную величину, которая может принимать все значения из некоторого конечного или бесконечного промежутка. Определение 7. Интегральной функцией распределения называют функцию F ( x ), определяющую для каждого значения x вероятность того, что случайная величина X примет значение меньше x , т.е. F ( x )= P ( X < x ). Свойства интегральной функции распределения 1 0 Значения интегральной функции распределения принадлежат отрезку 0≤ F ( x ) ≤1. 2 0 Функция распределения есть неубывающая функция. Следствие 1. Вероятность того, что случайная величина X попадет в интервал ( a , b ), равна приращению ее интегральной функции распределения на этом интервале P ( a < x < b )= F ( b )- F ( a ). Следствие 2. Вероятность того, что случайная непрерывная величина X примет одно определенное значение равна нулю P ( X = x 1 )=0. 3 0 Если возможные значения случайной величины X принадлежат интервалу ( a , b ), то F ( x )=0 при x ≤ a и F ( x )=1 при x ≥ a . Определение 8. Дифференциальной функцией распределения f ( x ) (или плотностью вероятности) называется производная от интегральной функции f ( x )= F "( x ). Интегральная функция является первообразной для дифференциальной функции, поэтому вероятность того, что случайная непрерывная величина x примет значение, принадлежащее интервалу ( a , b ), определяется равенством: P ( a < x < b )== F ( b )- F ( a )Зная дифференциальную функцию, можно найти функцию распределения: F ( x )= Свойства дифференциальной функции распределения 1 0 Дифференциальная функция распределения есть функция неотрицательная f ( x ) ≥0 2 0 Несобственный интеграл от дифференциальной функции распределения равен единице (условие нормировки): . 1) Математическое ожидание. Математическим ожиданием случайной непрерывной величины X , возможные значения которой прина д лежат отрезку ( a , b ), называется опр е деленный интеграл: M ( X ) = , где f ( x )-плотность вероятности случайной величины X . 2) Дисперсия. Дисперсия непрерывной случайной величины X есть математическое ожидание квадрата отклонения зтой величины от ее математического жидания D(X) = M{ 2 }.Следовательно, если возможные значения случайной величины X принадлежат отрезку ( a ; b ), то D ( x )= или D ( x )= 3) Среднее квадратическое отклонение определяется так: σ ( x ) = Пример. Найти дисперсию случайной величины X , заданной интегральной функцией F ( x )= Решение. Найдем дифференциальную функцию: f ( x )= F ’ ( x )= Выислим математическое ожидание M ( x ) = . Найдем искомую дисперсию D ( x ) = = = 2/4=4/3. Вероятность попадания нормально распределенной случайной величины X в заданный интервал Определение 9. Распределение вероятностей случайной непрерывной величины X называется нормальным, если плотность вероятности описывается формулой: , где μ - математическое ожидание, σ - среднее квадратическое отклонение. Определение 10. Нормальное распределение с параметрами μ = 0, σ = 1 называется нормированным или стандартным. Плотность вероятности нормированного нормального распределения описывается следующей формулой: . Значения данной функции для неотрицательных значений затабулированы. В силу четности функции φ ( x ) значения для отрицательных чисел легко определить φ (- x )= φ ( x ). Пример. Математическое ожидание нормального распределенной случайной величины X равно μ =3 и среднее квадратическое отклонение σ =2. Написать дифференциальную функцию X . Решение. f ( x )= Если случайная величина X распределена по нормальному закону, то вероятность ее попадания в интервал ( a , b ) определяется следующим о б разом: P(aS2=DB= =، که یک تخمین بی طرفانه از واریانس عمومی DГ است. برای تخمین انحراف معیار جمعیت، از انحراف استاندارد «تصحیح شده» استفاده می شود که برابر با جذر واریانس «تصحیح» است. S= تعریف 14. یک بازه اطمینان (θ*-δ;θ*+δ) نامیده می شود که یک پارامتر ناشناخته با قابلیت اطمینان داده شده γ را پوشش می دهد. فاصله اطمینان برای تخمین انتظار ریاضی یک توزیع نرمال با انحراف معیار شناخته شده σ با فرمول: =2Φ(t)=γ که ε=tδ/ دقت برآورد است بیان می شود. عدد t با توجه به جداول تابع لاپلاس از معادله 2Ф(t)=γ مشخص می شود. مثال. متغیر تصادفی X دارای توزیع نرمال با انحراف معیار شناخته شده σ=3 است. اگر حجم نمونه n=36 باشد و پایایی برآورد 95/0 = γ داده شود، فواصل اطمینان را برای تخمین انتظار ریاضی مجهول μ با استفاده از میانگین نمونه X بیابید. راه حل. بیایید t را از رابطه 2Ф(t)=0.95 پیدا کنیم. Ф(t)=0.475. از جداول t = 1.96 را پیدا می کنیم. اجازه دهید دقت برآورد σ =tδ/=1.96·3/= 0.98 را پیدا کنیم. فاصله اطمینان (x -0.98؛ x +0.98). فواصل اطمینان برای تخمین انتظار ریاضی یک توزیع نرمال با σ مجهول با استفاده از توزیع Student با k=n-1 درجه آزادی تعیین می شود: T=، که در آن S انحراف استاندارد "تصحیح شده" است، n حجم نمونه است. از توزیع Student، فاصله اطمینان پارامتر ناشناخته μ را با قابلیت اطمینان γ پوشش می‌دهد: یا، جایی که tγ ضریب Student است که از مقادیر γ (قابلیت اطمینان) و k (تعداد درجات آزادی) از جداول یافت می‌شود. مثال. مشخصه کمی X جمعیت به طور معمول توزیع شده است. بر اساس حجم نمونه 16=n، میانگین نمونه xB=20.2 و انحراف مربع «میانگین تصحیح شده» S=0.8 به دست آمد. انتظارات ریاضی مجهول m را با استفاده از فاصله اطمینان با پایایی γ = 0.95 برآورد کنید. راه حل. از جدول پیدا می کنیم: tγ = 2.13. بیایید حدود اطمینان را پیدا کنیم: =20.2-2.13·0.8=19.774 و =20.2+ +2.13·0.8/=20.626. بنابراین، با پایایی 0.95، پارامتر مجهول μ در بازه 19.774 است.<μ <20,626. .Элементы теории корреляции Определение 1. Статистической называют зависимость, при которой изменение одной из величин влечет изменение распределения другой. Определение 2. Если при изменении одной из величин изменяетсясреднее значение другой величины, то такая статистическая зависимость называется корреляционной. Пример. ПустьY-урожай зерна,X-количество удобрений. С одинаковых по площади участков земли при равных количествах внесенных удобрений снимают различный урожай, т.е.Y не является функциейX. Это объясняется влиянием случайных факторов (осадки, температура воздуха и т.д.) Вместе с тем средний урожай является функцией от количества удобрений, т.е.Y связан сX корреляционной зависимостью. Определение 3. Среднее арифметическое значение величиныY, вычисленное при условии, чтоX принимает фиксированное значение, называется условным средним и обозначается. Определение 4. Условным средним называют среднее арифметическое наблюдавшихся значенийx, соответствующихY=y. Можно составить таблицу, определяющую соответствие между значениямиxi и условными среднимиyxi, а затем в декартовой системе координат строят точкиM(xi;yxi) и соединяют их отрезками прямых. Полученная линия называется эмпирической линией регрессииY наX. Аналогично строится эмпирическая линия регрессииX наY. Если точкиMi(xi;yxi) иNi(xy;y) располагаются вдоль прямой, то линия регрессии называется линией прямой регрессии и операция "сглаживания" ломаной сводится к нахождению параметровa иb функцииy=ax+b. Из двух нормальных уравнений: находят коэффициентыa иb. ρxy=a== выборочный коэффициент регрессии признакаY наX. b== Уравнение прямой линии регрессии признакаY наX имеет вид: - =ρyx(x-). Проведя аналогичные расчеты, можно получить следующие математические выражения, характеризующие прямую регрессию признакаX наY:x=cy+d. ρyx=c= = - выборочный коэффициент регрессии признакаX наY. d= - свободный член уравнения. = - уравнение прямой линии регрессии признакаX наY. Показателем тесноты связи являетсякоэффициент корреляции, используемый только при линейной корреляции:r = =. Для решения задач удобна следующая формула: r == . В формуле для коэффициента корреляцииr = числитель дроби всегда меньше знаменателя, следовательно, коэффициент корреляции - всегда правильная дробь между нулем и единицей -1≤r≤+1. Положительное значениеr указывает на прямую связь между признаками; отрицательное - на обратную связь между ними. Данные для корреляционного анализа могут быть сгруппированы в виде корреляционной таблицы. Рассмотрим пример. Пусть проведено наблюдение двух признаков (X иY) у 15 объектов. Составлена следующая таблица первичных данных: Упорядочим первичные данные, поместив их в таблицу: В первом столбце запишем в порядке возрастания значенияxi: 8,9,10,11, а во второй строке - в том же порядке значенияyi: 18,20,24,27,30. На пересечении строк и столбцов запишем число повторений одинаковых пар (xi;yi) в ряду наблюдений. Требуется установить и оценить зависимость случайной величиныY от величиныX, используя данные корреляционной таблицы. n = 15 - объем выборки Используем формулы для корреляционных расчетов. Уравнение регрессииX наY: xy=cy +d =ρxyy+d, где ρxy=. Величина коэффициента корреляцииr=± С учетом частотnx иny формулы регрессионного анализа несколько видоизменяется: ρxy=, где; ; ; ; . .Проверка статистических гипотез. Определение 1. Статистической называют гипотезу о виде неизвестного распределения или о параметрах известных распределений. Определение 2. Нулевой (основной) называют выдвинутую гипотезуH0. Определение 3. Конкурирующей (альтернативной) называют гипотезуH1, которая противоречит нулевой. Определение 4. Статистическим критерием называют специально подобранную величину, распределение которой известно (хотя бы приближенно), которая используется для проверки статистической гипотезы. Определение 5. Критической областью называют совокупность значений критерия, при которых нулевую гипотезу отвергают. Определение 6. Областью принятия гипотезы (областью допустимых значений) называют совокупность значений критерия, при которых нулевую гипотезу принимают. Основной принцип проверки статистических гипотез: если наблюдаемое значение критерия принадлежит критической области, то нулевую гипотезу отвергают; если наблюдаемое значение критерия принадлежит области принятия гипотезы, то гипотезу принимают. Определение 7. Критическими точками (границами)kkp называют точки, отделяющие критическую область от области принятия гипотезы. Определение 8. Правосторонней называют критическую область, определяемую неравенствомK>kkp، جایی که kkp>0. تعریف 9. چپ دست ناحیه بحرانی است که با نابرابری K تعریف می شود k2 که در آن k2>k1. برای یافتن ناحیه بحرانی، سطح اهمیت α را تنظیم کنید و نقاط بحرانی را بر اساس روابط زیر جستجو کنید: a) برای ناحیه بحرانی سمت راست P(K>kkp)=α. ب) برای ناحیه بحرانی سمت چپ P(K<-kkp)=α; в) для двусторонней критической областиP(K>kkp)=α/2 و P(K<-kkp)=α/2. Пример. По двум независимым выборкам, объемы которыхn1=11 иn2=14, извлеченным из нормальных генеральных совокупностейX иY, найдены исправленные выборочные дисперсииSx2=0,76;Sy2=0,38. При уровне зависимостиα=0,05 проверить нулевую гипотезуH0:Д(x)=Д(y) о равенстве генеральных дисперсий, при конкурирующей гипотезе:H1:Д(x)>D(y) راه حل. بیایید نسبت واریانس بزرگ تصحیح شده به کوچکتر را پیدا کنیم: Fobs = =2. از آنجایی که H1:D(x)>D(y)، پس ناحیه بحرانی راست دست است. با استفاده از جدول، با استفاده از α = 0.05 و اعداد درجات آزادی k1 = n1-1 = 10، ما نقطه بحرانی Fcr (0.05؛ 10.13) = 2.67 را پیدا می کنیم. از آنجایی که فوبز. مامان قاب را شست


در پایان تعطیلات طولانی تابستان، وقت آن است که به آرامی به ریاضیات بالاتر برگردید و به طور رسمی فایل وردوف خالی را باز کنید تا یک بخش جدید ایجاد کنید - . اعتراف می کنم، خطوط اول آسان نیست، اما قدم اول در نیمه راه است، بنابراین به همه پیشنهاد می کنم مقاله مقدماتی را با دقت مطالعه کنند، پس از آن تسلط بر موضوع 2 برابر آسان تر خواهد شد! من اصلاً اغراق نمی کنم. ... در آستانه 1 سپتامبر آینده، کلاس اول و آغازگر را به یاد می آورم .... حروف هجاها را تشکیل می دهند ، هجاها کلمات را تشکیل می دهند ، کلمات جملات کوتاه را تشکیل می دهند - مامان قاب را شست. تسلط بر آمار و ارقام ریاضی به آسانی یادگیری خواندن است! با این حال، برای این شما نیاز به دانستن اصطلاحات، مفاهیم و تعاریف کلیدی، و همچنین برخی از قوانین خاص، که موضوع این درس است.

اما ابتدا تبریک من را برای شروع (ادامه، اتمام، علامت گذاری مناسب) سال تحصیلی پذیرفته و هدیه را پذیرا باشید. بهترین هدیه یک کتاب است و برای کار مستقل، ادبیات زیر را توصیه می کنم:

1) Gmurman V.E. نظریه احتمالات و آمار ریاضی

کتاب درسی افسانه ای که بیش از ده بار تجدید چاپ شده است. این به دلیل قابل فهم بودن و ارائه بسیار ساده مطالب متمایز است و فکر می کنم فصل های اول کاملاً برای دانش آموزان کلاس های 6-7 قابل دسترسی است.

2) Gmurman V.E. راهنمای حل مسائل در نظریه احتمالات و آمار ریاضی

کتاب راه حل از همان ولادیمیر افیموویچ با مثال ها و مسائل مفصل.

لزوماهر دو کتاب را از اینترنت دانلود کنید یا اصل کاغذی آنها را دریافت کنید! نسخه 60 و 70 نیز کار خواهد کرد که حتی برای آدمک ها بهتر است. اگرچه عبارت "نظریه احتمال برای آدمک ها" بسیار مضحک به نظر می رسد ، زیرا تقریباً همه چیز محدود به عملیات حسابی ابتدایی است. با این حال، در جاهایی از آن می گذرند مشتقاتو انتگرال ها، اما این فقط در جاهایی است.

من سعی خواهم کرد به همان وضوح ارائه برسم، اما باید هشدار دهم که دوره من هدفش است حل مشکلو محاسبات نظری به حداقل می رسد. بنابراین، در صورت نیاز به یک نظریه مفصل، برهان قضایا (قضیه - قضایا!)، لطفاً به کتاب درسی مراجعه کنید. خب کی میخواد حل مسائل را یاد بگیریددر نظریه احتمالات و آمار ریاضی در کمترین زمان ممکن، دنبالم کن

برای شروع کافی است =)

با خواندن مقالات، توصیه می شود (حداقل به طور خلاصه) با وظایف اضافی از انواع در نظر گرفته شده آشنا شوید. در صفحه راه حل های آماده برای ریاضیات بالاترپی دی اف های مربوطه به همراه نمونه راه حل ها ارسال خواهد شد. کمک های قابل توجهی نیز ارائه خواهد شد IDZ 18.1 ریابوشکو(ساده تر) و IDZ را طبق مجموعه چودسنکو حل کرد(سخت تر).

1) مقداردو رویداد و واقعه نامیده می شود که اتفاق خواهد افتاد یارویداد یارویداد یاهر دو رویداد به طور همزمان در صورتی که حوادث ناسازگار، آخرین گزینه ناپدید می شود، یعنی ممکن است رخ دهد یارویداد یارویداد .

این قانون همچنین برای تعداد بیشتری از اصطلاحات، به عنوان مثال، رویداد اعمال می شود چیزی است که اتفاق خواهد افتاد حداقل یکیاز رویدادها ، A اگر رویدادها ناسازگار باشندسپس یک چیز و تنها یک چیزرویداد از این مقدار: یارویداد، یارویداد، یارویداد، یارویداد، یارویداد .

مثال های زیادی وجود دارد:

رویدادها (هنگام پرتاب تاس، 5 امتیاز ظاهر نمی شود) چیزی است که ظاهر می شود یا 1, یا 2, یا 3, یا 4, یا 6 امتیاز.

رویداد (افت خواهد کرد نه بیشتردو نقطه) این است که 1 ظاهر می شود یا 2امتیاز.

رویداد (تعداد زوجی از نقاط وجود خواهد داشت) چیزی است که ظاهر می شود یا 2 یا 4 یا 6 امتیاز.

رویداد این است که یک کارت قرمز (قلب) از عرشه گرفته می شود یاتنبور)، و رویداد - که "تصویر" استخراج خواهد شد (جک یاخانم یاپادشاه یاآس).

در مورد رویدادهای مشترک کمی جالب تر است:

رویداد این است که یک باشگاه از عرشه کشیده خواهد شد یاهفت یاهفت باشگاه با توجه به تعریف فوق، حداقل چیزی- یا هر باشگاه یا هر هفت یا "تقاطع" آنها - هفت باشگاه. به راحتی می توان محاسبه کرد که این رویداد با 12 نتیجه ابتدایی (9 کارت باشگاه + 3 هفت کارت باقی مانده) مطابقت دارد.

رویداد این است که فردا ساعت 12.00 خواهد آمد حداقل یکی از رویدادهای مشترک قابل جمع بندی، یعنی:

- یا فقط باران / فقط رعد و برق / فقط خورشید خواهد بود.
- یا فقط برخی از رویدادها رخ خواهد داد (باران + رعد و برق / باران + خورشید / رعد و برق + خورشید).
- یا هر سه رویداد به طور همزمان ظاهر می شوند.

یعنی رویداد شامل 7 پیامد احتمالی است.

رکن دوم جبر حوادث:

2) کاردو رویداد و رویدادی را می گویند که شامل وقوع مشترک این وقایع است، به عبارت دیگر ضرب به این معناست که تحت شرایطی وجود خواهد داشت. ورویداد، ورویداد . یک جمله مشابه برای تعداد بیشتری از رویدادها صادق است، به عنوان مثال، یک اثر نشان می دهد که تحت شرایط خاصی اتفاق می افتد. ورویداد، ورویداد، ورویداد، … ورویداد .

آزمایشی را در نظر بگیرید که در آن دو سکه پرتاب می شود و رویدادهای زیر:

- سرها روی سکه اول ظاهر می شوند.
- سکه اول به سر می رسد.
- سرها روی سکه دوم ظاهر می شوند.
- سکه 2 به سر می رسد.

سپس:
ودر 2) سرها ظاهر می شوند.
- رویداد این است که در هر دو سکه (در اول ودر 2) سر خواهد بود.
- رویداد این است که سکه اول به سر می رسد وسکه دوم دم است.
- رویداد این است که سکه اول به سر می رسد وروی سکه دوم یک عقاب وجود دارد.

دیدن آن وقایع آسان است ناسازگار (چون مثلا نمیتونه 2 سر و 2 دم همزمان بیفته)و فرم گروه کامل (از آنجا که در نظر گرفته شده است همهنتایج احتمالی پرتاب دو سکه). بیایید این اتفاقات را خلاصه کنیم: . چگونه این مدخل را تفسیر کنیم؟ بسیار ساده - ضرب به معنای یک اتصال منطقی است وو اضافه کردن – یا. بنابراین، این مقدار به زبان قابل فهم انسانی قابل خواندن است: "دو سر ظاهر می شود یادو سر یاسکه 1 سر فرود خواهد آمد ودر دم دوم یاسکه 1 سر فرود خواهد آمد وروی سکه دوم یک عقاب وجود دارد"

این یک نمونه بود زمانی که در یک آزمونچندین شی درگیر است، در این مورد دو سکه. یکی دیگر از طرح های رایج در مسائل عملی این است تست مجدد ، وقتی مثلا همین قالب 3 بار پشت سر هم رول شود. به عنوان یک نمایش، رویدادهای زیر را در نظر بگیرید:

- در پرتاب 1 شما 4 امتیاز دریافت خواهید کرد.
- در پرتاب دوم 5 امتیاز دریافت خواهید کرد.
- در پرتاب سوم شما 6 امتیاز دریافت خواهید کرد.

سپس رویداد این است که در پرتاب 1 شما 4 امتیاز می گیرید ودر پرتاب دوم 5 امتیاز دریافت خواهید کرد ودر رول 3 شما 6 امتیاز دریافت خواهید کرد. بدیهی است که در مورد یک مکعب، ترکیبات (نتایج) به طور قابل توجهی بیشتر از زمانی است که یک سکه پرتاب کنیم.

...می فهمم که شاید مثال هایی که تحلیل می شوند زیاد جالب نباشند، اما اینها چیزهایی است که اغلب در مشکلات به آن برخورد می شود و گریزی از آنها نیست. علاوه بر یک سکه، یک مکعب و یک عرشه کارت، کوزه هایی با توپ های رنگارنگ، چندین فرد ناشناس که به یک هدف شلیک می کنند و یک کارگر خستگی ناپذیر که دائماً در حال بررسی جزئیات است، منتظر شما هستند =)

احتمال وقوع

احتمال وقوع مفهوم اصلی نظریه احتمال است. ... یک چیز منطقی قاتل، اما باید از جایی شروع می کردیم =) چندین رویکرد برای تعریف آن وجود دارد:

;
تعریف هندسی احتمال ;
تعریف آماری احتمال .

در این مقاله بر تعریف کلاسیک احتمال تمرکز خواهم کرد که بیشترین استفاده را در کارهای آموزشی دارد.

تعیین ها. احتمال وقوع یک رویداد خاص با یک حرف لاتین بزرگ نشان داده می شود و خود رویداد در داخل پرانتز گرفته می شود و به عنوان نوعی استدلال عمل می کند. به عنوان مثال:


همچنین، حرف کوچک به طور گسترده ای برای نشان دادن احتمال استفاده می شود. به طور خاص، می توانید نامگذاری های دست و پا گیر رویدادها و احتمالات آنها را کنار بگذارید به نفع سبک زیر:

- احتمال اینکه پرتاب سکه منجر به سر شود.
- احتمال اینکه تاس انداختن به 5 امتیاز منجر شود.
- احتمال اینکه کارتی از لباس باشگاه از روی عرشه کشیده شود.

این گزینه هنگام حل مشکلات عملی محبوب است، زیرا به شما امکان می دهد ضبط راه حل را به میزان قابل توجهی کاهش دهید. همانطور که در مورد اول، استفاده از زیرنویس ها / زیرنویس های "گفتگو" در اینجا راحت است.

همه مدتهاست که اعدادی را که من در بالا نوشتم حدس می زنند و اکنون خواهیم فهمید که چگونه آنها نتیجه گرفتند:

تعریف کلاسیک احتمال:

احتمال وقوع یک رویداد در یک آزمون خاص را نسبت می گویند که در آن:

- تعداد کل همه به همان اندازه ممکن است, ابتدایینتایج این آزمون که شکل می گیرد گروه کامل رویدادها;

- مقدار ابتدایینتایج، مطلوب رویداد

هنگام پرتاب یک سکه، سر یا دم ممکن است بیرون بیفتد - این رویدادها شکل می گیرند گروه کاملبنابراین، تعداد کل نتایج. در همان زمان، هر یک از آنها ابتداییو به همان اندازه ممکن است. رویداد مورد علاقه نتیجه (سرها) است. طبق تعریف کلاسیک احتمال: .

به طور مشابه، در نتیجه پرتاب یک قالب، ممکن است نتایج ابتدایی به همان اندازه ممکن ظاهر شود، که یک گروه کامل را تشکیل می دهد، و رویداد مورد علاقه یک نتیجه واحد قرار می گیرد (پرتاب پنج). به همین دلیل: انجام این کار پذیرفته نیست (اگرچه تخمین درصدها در ذهن شما ممنوع نیست).

مرسوم است که از کسرهای یک واحد استفاده شود، و بدیهی است که احتمال می تواند در داخل متفاوت باشد. علاوه بر این، اگر، پس رویداد است غیر ممکن، اگر - قابل اعتماد، و اگر ، پس ما در مورد آن صحبت می کنیم تصادفیرویداد

! اگر هنگام حل هر مشکلی، مقدار احتمال دیگری دریافت کردید، به دنبال خطا باشید!

در رویکرد کلاسیک برای تعیین احتمال، مقادیر شدید (صفر و یک) دقیقاً از طریق استدلال مشابه به دست می‌آیند. بگذارید 1 توپ به طور تصادفی از یک کوزه معین حاوی 10 توپ قرمز کشیده شود. وقایع زیر را در نظر بگیرید:

در یک آزمایش واحد، یک رویداد کم احتمال رخ نخواهد داد.

به همین دلیل است که اگر احتمال این رویداد مثلاً 0.00000001 باشد، در قرعه کشی جکپات نخواهید داشت. بله، بله، این شما هستید - با تنها بلیط در یک تیراژ خاص. با این حال، تعداد بیشتر بلیط و تعداد بیشتر نقاشی کمک چندانی به شما نخواهد کرد. ... وقتی این موضوع را به دیگران می گویم، تقریباً همیشه در پاسخ می شنوم: "اما یک نفر برنده می شود." خوب، پس بیایید آزمایش زیر را انجام دهیم: لطفاً برای هر قرعه‌کشی امروز یا فردا یک بلیط بخرید (تأخیر نکنید!). و اگر برنده شدید... خوب، حداقل بیش از 10 کیلو روبل، حتما ثبت نام کنید - توضیح خواهم داد که چرا این اتفاق افتاد. البته برای درصد =) =)

اما نیازی به ناراحتی نیست، زیرا یک اصل مخالف وجود دارد: اگر احتمال وقوع یک رویداد بسیار نزدیک به یک باشد، در یک آزمایش واحد این اتفاق خواهد افتاد. تقریبا قطعیاتفاق خواهد افتاد. بنابراین، قبل از پرش با چتر نجات، نیازی به ترس نیست، برعکس، لبخند بزنید! از این گذشته، شرایط کاملاً غیرقابل تصور و خارق العاده ای باید برای هر دو چتر نجات ایجاد شود.

اگرچه همه اینها غزلیات است ، زیرا بسته به محتوای رویداد ، ممکن است اصل اول شاد باشد و دوم - غم انگیز. یا حتی هر دو موازی هستند.

شاید فعلاً در کلاس کافی باشد مشکلات احتمال کلاسیکما بیشترین بهره را از فرمول خواهیم برد. در بخش پایانی این مقاله، یک قضیه مهم را بررسی خواهیم کرد:

مجموع احتمالات رویدادهایی که یک گروه کامل را تشکیل می دهند برابر با یک است. به طور کلی، اگر رویدادها یک گروه کامل را تشکیل دهند، به احتمال 100٪ یکی از آنها رخ خواهد داد. در ساده ترین حالت، یک گروه کامل توسط رویدادهای مخالف تشکیل می شود، به عنوان مثال:

- در نتیجه پرتاب سکه، سرها ظاهر می شوند.
– نتیجه پرتاب سکه دم خواهد بود.

طبق قضیه:

کاملاً واضح است که این رویدادها به یک اندازه ممکن است و احتمالات آنها یکسان است .

به دلیل برابری احتمالات، رویدادهای به همان اندازه ممکن اغلب نامیده می شوند به همان اندازه محتمل . و در اینجا یک زبانه پیچ برای تعیین میزان مسمومیت =)

مثال با مکعب: بنابراین رویدادها متضاد هستند .

قضیه مورد بررسی از این جهت راحت است که به شما امکان می دهد به سرعت احتمال رویداد مخالف را پیدا کنید. بنابراین، اگر احتمال نورد شدن یک پنج مشخص باشد، به راحتی می توان احتمال رول نشدن آن را محاسبه کرد:

این بسیار ساده تر از جمع بندی احتمالات پنج نتیجه ابتدایی است. به هر حال، برای نتایج اولیه، این قضیه نیز صادق است:
. به عنوان مثال، اگر احتمال اینکه تیرانداز به هدف برخورد کند، این احتمال وجود دارد که او از دست بدهد.

! در نظریه احتمال، استفاده از حروف برای اهداف دیگر نامطلوب است.

به افتخار روز دانش، تکلیف شبانه را تعیین نمی کنم =)، اما بسیار مهم است که بتوانید به سوالات زیر پاسخ دهید:

- چه نوع رویدادهایی وجود دارد؟
- شانس و امکان برابر یک رویداد چیست؟
- اصطلاح سازگاری/ناسازگاری رویدادها را چگونه درک می کنید؟
- یک گروه کامل از رویدادها، رویدادهای متضاد چیست؟
- جمع و ضرب حوادث به چه معناست؟
- جوهر تعریف کلاسیک احتمال چیست؟
- چرا قضیه جمع کردن احتمالات رویدادهایی که یک گروه کامل را تشکیل می دهند مفید است؟

نه، شما نیازی به پر کردن چیزی ندارید، اینها فقط اصول تئوری احتمال هستند - نوعی پرایمر که به سرعت در ذهن شما جا می گیرد. و برای این که هر چه زودتر این اتفاق بیفتد، پیشنهاد می کنم با درس ها آشنا شوید

برای دانش آموزان سال دوم تمام رشته ها

گروه ریاضیات عالی

بخش مقدماتی

دانش آموزان عزیز!

ما یک سخنرانی مروری (مقدماتی) توسط پروفسور N.Sh. Kremer در مورد رشته "تئوری احتمالات و آمار ریاضی" برای دانشجویان سال دوم VZFEI را مورد توجه شما قرار می دهیم.

سخنرانی بحث می کند وظایفمطالعه تئوری احتمالات و آمار ریاضی در دانشگاه اقتصاد و جای اودر نظام تربیت یک اقتصاددان مدرن مد نظر است سازمان مستقلکار دانش آموز با استفاده از سیستم آموزشی مبتنی بر کامپیوتر (CTS) و کتاب های درسی سنتی ارائه می شود مروری بر مقررات اصلیاین درس و همچنین توصیه های روش شناختی برای مطالعه آن.

در میان رشته های ریاضی مورد مطالعه در دانشگاه اقتصاد، نظریه احتمالات و آمار ریاضی جایگاه ویژه ای را به خود اختصاص داده اند. اولاً، مبنای نظری رشته های آماری است. ثانیاً از روش های نظریه احتمال و آمار ریاضی به طور مستقیم در مطالعه استفاده می شود سنگدانه های توده ایپدیده های مشاهده شده، پردازش نتایج مشاهدات و شناسایی الگوهای پدیده های تصادفی. در نهایت، نظریه احتمال و آمار ریاضی اهمیت روش شناختی مهمی دارند فرآیند شناختی، هنگام شناسایی یک الگوی کلی تحقیق کردفرآیندها، به عنوان یک منطق عمل می کند اساساستدلال استقرایی-قیاسی

هر دانشجوی سال دوم باید مجموعه (مورد) زیر را در رشته "نظریه احتمالات و آمار ریاضی" داشته باشد:

1. سخنرانی جهت گیری اجمالیدر این رشته

2. کتاب درسین.ش. کرمر "نظریه احتمالات و آمار ریاضی" - M.: UNITY - DANA، 2007 (از این پس آن را به سادگی "کتاب درسی" می نامیم).

3. راهنمای آموزشی و روش شناختی"نظریه احتمالات و آمار ریاضی" / ویرایش. ن.ش. کرمر. - M.: کتاب درسی دانشگاه، 2005 (از این پس "راهنما" نامیده می شود).

4. برنامه آموزش کامپیوتر COPR برای رشته (از این پس "برنامه کامپیوتری" نامیده می شود).

در وب سایت مؤسسه، در صفحه «منابع شرکتی»، نسخه های آنلاین برنامه کامپیوتری KOPR2، یک سخنرانی جهت گیری کلی و یک نسخه الکترونیکی از راهنما ارسال شده است. علاوه بر این، برنامه کامپیوتر و کتابچه راهنمای کاربر در ارائه شده است سی دی - رام آه برای دانش آموزان سال دوم بنابراین، دانش آموز به صورت «کاغذی» فقط باید کتاب درسی داشته باشد.

اجازه دهید هدف هر یک از مواد آموزشی موجود در مجموعه (مورد) مشخص شده را توضیح دهیم.

در کتاب درسیمفاد اصلی مواد آموزشی این رشته ارائه شده است که با تعداد زیادی از مشکلات حل شده نشان داده شده است.

در منافعتوصیه های روش شناختی برای مطالعه مستقل مطالب آموزشی ارائه شده است، مهمترین مفاهیم دوره و وظایف معمولی برجسته می شود، سوالات آزمون برای خودآزمایی در این رشته ارائه می شود، گزینه هایی برای تست های خانگی که دانش آموز باید تکمیل کند، و همچنین روش شناختی دستورالعمل اجرای آنها ارائه شده است.

برنامه کامپیوتریطراحی شده است تا حداکثر کمک را در تسلط بر دوره در حالت به شما ارائه دهد گفتگوبا یک دانش آموز برنامه ریزی کنید تا کمبود آموزش کلاسی و تماس مناسب با معلم را تا حد زیادی جبران کنید.

برای دانش آموزی که از طریق سیستم آموزش از راه دور تحصیل می کند، اهمیت اولیه و تعیین کننده است سازماندهی کار مستقل

هنگام شروع مطالعه این رشته، این سخنرانی کلی (مقدمه) را تا انتها بخوانید. این به شما امکان می دهد یک ایده کلی از مفاهیم و روش های اساسی مورد استفاده در دوره "تئوری احتمالات و آمار ریاضی" و الزامات سطح آموزش دانش آموزان VZFEI بدست آورید.

قبل از مطالعه هر موضوع راهنمای مطالعه این موضوع را در دفترچه راهنما بخوانید.در اینجا لیستی از سوالات آموزشی در مورد این موضوع را خواهید یافت که مطالعه خواهید کرد. دریابید که کدام مفاهیم، ​​تعاریف، قضایا، مسائل مهم ترین هستند که ابتدا نیاز به مطالعه و تسلط دارند.

سپس اقدام به مطالعه نمایید مواد آموزشی پایهبا توجه به کتاب درسی مطابق با توصیه های روش شناختی دریافت شده. ما به شما توصیه می کنیم در یک دفترچه جداگانه در مورد تعاریف اصلی، گزاره های قضایا، نمودارهای اثبات آنها، فرمول ها و راه حل های مسائل معمولی یادداشت برداری کنید. توصیه می شود فرمول ها را در جداول ویژه برای هر بخش از دوره بنویسید: نظریه احتمال و آمار ریاضی. استفاده منظم از یادداشت ها، به ویژه جداول فرمول ها، به حفظ آنها کمک می کند.

تنها پس از کار بر روی مواد آموزشی پایه هر مبحث در کتاب درسی می توانید با استفاده از برنامه آموزشی کامپیوتری (KOPR2) به مطالعه این مبحث بپردازید.

به ساختار برنامه کامپیوتری برای هر موضوع توجه کنید. پس از نام مبحث، فهرستی از سوالات اصلی آموزشی موضوع در کتاب درسی با ذکر تعداد پاراگراف ها و صفحاتی که باید مطالعه شوند، آمده است. (به یاد داشته باشید که فهرستی از این سوالات برای هر مبحث نیز در دفترچه راهنما آمده است).

سپس، به صورت مختصر، مطالب مرجع در مورد این موضوع (یا در پاراگراف های جداگانه این موضوع) - تعاریف اساسی، قضایا، خواص و ویژگی ها، فرمول ها و غیره ارائه می شود. در حین مطالعه یک موضوع، می توانید بخش هایی از مطالب مرجع (در مورد این یا موضوعات قبلی) را که در حال حاضر مورد نیاز هستند، روی صفحه نمایش دهید.

سپس به شما مطالب آموزشی و البته کارهای استاندارد پیشنهاد می شود ( نمونه ها)که راه حل آن در حالت در نظر گرفته شده است گفتگوبرنامه های با دانش آموز عملکرد تعدادی از مثال ها به نمایش مراحل راه حل صحیح بر روی صفحه نمایش به درخواست دانش آموز محدود می شود. در عین حال، در فرآیند در نظر گرفتن بیشتر نمونه ها، از شما سوالاتی با ماهیت مختلف پرسیده می شود. پاسخ برخی از سوالات باید با استفاده از صفحه کلید وارد شود. پاسخ عددی،به دیگران - پاسخ (یا پاسخ های) صحیح را انتخاب کنیداز چندین پیشنهاد

بسته به پاسخی که وارد کرده اید، برنامه صحت آن را تایید می کند و یا پیشنهاد می کند پس از مطالعه راهنمایی حاوی اصول نظری لازم، مجددا برای ارائه راه حل و پاسخ صحیح تلاش کنید. بسیاری از کارها محدودیتی در تعداد تلاش برای حل دارند (اگر از این محدودیت فراتر رود، لزوماً پیشرفت صحیح راه حل روی صفحه نمایش داده می شود). همچنین نمونه هایی وجود دارد که در آنها با تکرار تلاش های ناموفق برای پاسخ، مقدار اطلاعات موجود در راهنمایی افزایش می یابد.

پس از آشنایی با اصول نظری مطالب آموزشی و مثال هایی که با تجزیه و تحلیل دقیق راه حل ارائه شده است، باید تمرینات خودکنترلی را تکمیل کنید تا مهارت های خود را در حل مسائل معمولی در هر موضوع تثبیت کنید. وظایف خودکنترلی نیز حاوی عناصر گفتگو با دانش آموز است. پس از تکمیل راه حل، می توانید به پاسخ صحیح نگاه کنید و آن را با پاسخی که دادید مقایسه کنید.

در پایان کار روی هر موضوع، باید وظایف کنترلی را تکمیل کنید. پاسخ‌های صحیح به آنها برای شما نمایش داده نمی‌شود و پاسخ‌های شما برای بررسی بعدی توسط معلم-مشاور (مدرس) روی هارد رایانه ضبط می‌شود.

پس از مطالعه سرفصل های 1-7 باید تست خانگی شماره 3 و پس از مطالعه مباحث 8-11 تست خانگی شماره 4 را انجام دهید. انواع این تست ها در دفترچه راهنما (نسخه الکترونیکی آن) آورده شده است. شماره گزینه در حال اجرا باید با آخرین رقم شماره پرونده شخصی شما (کتاب نمره، شناسه دانشجویی) مطابقت داشته باشد. برای هر آزمون، باید مصاحبه ای انجام دهید که در طی آن باید توانایی خود را در حل مسائل و دانش مفاهیم پایه (تعریف، قضایا (بدون اثبات)، فرمول ها و غیره) در مورد موضوع آزمون نشان دهید. مطالعه این رشته با یک امتحان دوره به پایان می رسد.

نظریه احتمال یک علم ریاضی است که الگوهای پدیده های تصادفی را مطالعه می کند.

رشته ارائه شده برای مطالعه شامل دو بخش "نظریه احتمال" و "آمار ریاضی" است.



زنگ

کسانی هستند که قبل از شما این خبر را می خوانند.
برای دریافت مقالات جدید مشترک شوید.
ایمیل
نام
نام خانوادگی
چگونه می خواهید زنگ را بخوانید؟
بدون هرزنامه