الفرق بين المراجعتين لصفحة: «قانون الأعداد الكبيرة»
المزيد من الإجراءات
عبد العزيز (نقاش | مساهمات) لا ملخص تعديل |
عبد العزيز (نقاش | مساهمات) لا ملخص تعديل |
||
(20 مراجعة متوسطة بواسطة نفس المستخدم غير معروضة) | |||
سطر 1: | سطر 1: | ||
{{كاتب الصفحة}} | {{كاتب الصفحة}} | ||
[[ملف:قانون الأعداد الكبيرة.jpg|تصغير|يسار|بديل=قانون الأعداد الكبيرة - مشهد تخيلي|قانون الأعداد الكبيرة - مشهد تخيلي]] | |||
يُعَدّ قانون الأعداد الكبيرة (LLN) في نظرية الاحتمالات نظرية رياضية تنص على أن متوسط النتائج المُحصَّلة من عدد كبير من العينات العشوائية المستقلة والمتطابقة يقترب من القيمة الحقيقية في حال وجودها.<ref name=":0">{{Cite book|title=A Modern Introduction to Probability and Statistics| url=https://archive.org/details/modernintroducti00fmde|url-access=limited| last=Dekking|first=Michel| publisher=Springer| year=2005|isbn=9781852338961|pages=[https://archive.org/details/modernintroducti00fmde/page/n191 181]–190}}</ref> ينص قانون الأعداد الكبيرة رسميًا على أنه إذا كانت لدينا عينة من قيم مستقلة وموزعة توزيعًا متطابقًا فإن متوسط هذه العينة يقترب من المتوسط الحقيقي. | يُعَدّ قانون الأعداد الكبيرة (LLN) في نظرية الاحتمالات نظرية رياضية تنص على أن متوسط النتائج المُحصَّلة من عدد كبير من العينات العشوائية المستقلة والمتطابقة يقترب من القيمة الحقيقية في حال وجودها.<ref name=":0">{{Cite book|title=A Modern Introduction to Probability and Statistics| url=https://archive.org/details/modernintroducti00fmde|url-access=limited| last=Dekking|first=Michel| publisher=Springer| year=2005|isbn=9781852338961|pages=[https://archive.org/details/modernintroducti00fmde/page/n191 181]–190}}</ref> ينص قانون الأعداد الكبيرة رسميًا على أنه إذا كانت لدينا عينة من قيم مستقلة وموزعة توزيعًا متطابقًا فإن متوسط هذه العينة يقترب من المتوسط الحقيقي. | ||
سطر 13: | سطر 15: | ||
==أمثلة عن قانون الأعداد الكبيرة== | ==أمثلة عن قانون الأعداد الكبيرة== | ||
[[File:Lawoflargenumbers.svg|مثال على قانون الأعداد الكبيرة باستخدام رمية حجر النرد ( النردة ). مع زيادة عدد الرميات في التجربة ، يقترب متوسط قيم جميع النتائج من 3.5. على الرغم من أن كل جولة ستظهر شكلاً مميزًا على عدد قليل من الرميات (إلى اليسار) ، إلا أن الأشكال ستكون متشابهة للغاية على عدد كبير من الرميات (إلى اليمين).|thumb|left|286x286px]] | |||
ينتج عن رمية نرد واحدة واحد من الأرقام التالية (1، 2، 3، 4، 5، أو 6) ولكلّ منها احتمال مُتساوٍ. ولذلك فإنّ القيمة المتوقّعة لمعدّل الرمياتِ هي: | ينتج عن رمية نرد واحدة واحد من الأرقام التالية (1، 2، 3، 4، 5، أو 6) ولكلّ منها احتمال مُتساوٍ. ولذلك فإنّ القيمة المتوقّعة لمعدّل الرمياتِ هي: | ||
<math display="block"> \frac{1+2+3+4+5+6}{6} = 3.5</math> | <math display="block"> \frac{1+2+3+4+5+6}{6} = 3.5</math> | ||
سطر 41: | سطر 44: | ||
==تاريخ قانون الأعداد الكبيرة== | ==تاريخ قانون الأعداد الكبيرة== | ||
[[File:DiffusionMicroMacro.gif|thumb|left|upright=1.15|الانتشار هو مثال على قانون الأعداد الكبيرة. في البداية، توجد جزيئات المذاب على يسار الحاجز (الخط الأرجواني) ولا توجد أي منها على اليمين. يزال الحاجز، وتنتشر جزيئات المذاب لملء الحاوية بأكملها.{{ubl|style=margin-top:1em| | |||
''الأعلى'': مع جزيء واحد، يبدو أن الحركة عشوائية تماما. | |||
|''الوسط:'' مع زيادة الجزيئات، يوجد اتجاه واضح حيث يملأ المذاب الوعاء ملئا أكثر توازناً، مع وجودا تقلبات عشوائية. | |||
|''القاع:'' مع وجود عدد هائل من جزيئات المذاب (عدد كبير جدًا بحيث لا يمكن رؤيته)، تختفي العشوائية: يبدو أن المذاب يتحرك بسلاسة تحركا منتظما من المناطق عالية التركيز إلى المناطق منخفضة التركيز. وفي مواقف واقعية، يمكن للكيميائيين وصف الانتشار كظاهرة عيانية حتمية رغم طبيعتها العشوائية.}}]] | |||
يُقال إن عالم الرياضيات الإيطالي جيرولامو كاردانو (1501-1576) صرح بدون إثبات بأن دقة الإحصائيات التجريبية تميل إلى التحسن مع زيادة عدد التجارب.<ref>{{cite book |last=Mlodinow |first=L. |title=The Drunkard's Walk |location=New York |publisher=Random House |year=2008 |page=50}}</ref><ref name=":1" /> صيغ هذا لاحقًا على أنه قانون الأعداد الكبيرة. | يُقال إن عالم الرياضيات الإيطالي جيرولامو كاردانو (1501-1576) صرح بدون إثبات بأن دقة الإحصائيات التجريبية تميل إلى التحسن مع زيادة عدد التجارب.<ref>{{cite book |last=Mlodinow |first=L. |title=The Drunkard's Walk |location=New York |publisher=Random House |year=2008 |page=50}}</ref><ref name=":1" /> صيغ هذا لاحقًا على أنه قانون الأعداد الكبيرة. | ||
سطر 46: | سطر 53: | ||
في عام 1837، وصفه سيميون دينيس بواسون (S. D. Poisson) أيضًا تحت اسم "قانون الأعداد الكبيرة" (la loi des grands nombres).<ref>Poisson names the "law of large numbers" ({{lang|fr|la loi des grands nombres}}) in: {{cite book |first=S. D. |last=Poisson |title=Probabilité des jugements en matière criminelle et en matière civile, précédées des règles générales du calcul des probabilitiés |location=Paris, France |publisher=Bachelier |year=1837 |page=[https://archive.org/details/recherchessurla02poisgoog/page/n30 7] |language=fr}} He attempts a two-part proof of the law on pp. 139–143 and pp. 277 ff.</ref><ref>{{cite journal |last=Hacking |first=Ian |year=1983 |title=19th-century Cracks in the Concept of Determinism |journal=Journal of the History of Ideas |volume=44 |issue=3 |pages=455–475 |doi=10.2307/2709176 |jstor=2709176}}</ref><ref name=":1" /> ومنذ ذلك الحين، أصبح يُعرف بكلتا التسميتين، لكن اسم "قانون الأعداد الكبيرة" هو السائد. | في عام 1837، وصفه سيميون دينيس بواسون (S. D. Poisson) أيضًا تحت اسم "قانون الأعداد الكبيرة" (la loi des grands nombres).<ref>Poisson names the "law of large numbers" ({{lang|fr|la loi des grands nombres}}) in: {{cite book |first=S. D. |last=Poisson |title=Probabilité des jugements en matière criminelle et en matière civile, précédées des règles générales du calcul des probabilitiés |location=Paris, France |publisher=Bachelier |year=1837 |page=[https://archive.org/details/recherchessurla02poisgoog/page/n30 7] |language=fr}} He attempts a two-part proof of the law on pp. 139–143 and pp. 277 ff.</ref><ref>{{cite journal |last=Hacking |first=Ian |year=1983 |title=19th-century Cracks in the Concept of Determinism |journal=Journal of the History of Ideas |volume=44 |issue=3 |pages=455–475 |doi=10.2307/2709176 |jstor=2709176}}</ref><ref name=":1" /> ومنذ ذلك الحين، أصبح يُعرف بكلتا التسميتين، لكن اسم "قانون الأعداد الكبيرة" هو السائد. | ||
بعد أن نشر برنولي وبواسون جهودهما ، ساهم علماء رياضيات آخرون أيضا في تحسين القانون، بمن فيهم بافنوتي تشيبيشيف,<ref>{{Cite journal | last1 = Tchebichef | first1 = P. | title = Démonstration élémentaire d'une proposition générale de la théorie des probabilités | doi = 10.1515/crll.1846.33.259 | journal = Journal für die reine und angewandte Mathematik | volume = 1846 | issue = 33 | pages = 259–267 | year = 1846 | s2cid = 120850863 | url = https://zenodo.org/record/1448850 |language=fr}}</ref> أندريه ماركوف و إيميل بوريل وفرانشيسكو باولو كانتيلي وأندريه كولموجوروف وألكسندر خينشين.<ref name=":1" /> أظهر ماركوف أن القانون يمكن أن ينطبق على متغير عشوائي ليس له تباين محدود في ظل بعض الافتراضات الأضعف الأخرى، وأظهر خينشينفي عام 1929 أنه إذا كانت السلسلة تتكون من متغيرات عشوائية مستقلة موزعة توزيعا متطابقا، يكفي أن تكون القيمة المتوقعة موجودة للقانون الضعيف للأعداد الكبيرة لتكون صحيحة.{{sfn|Seneta|2013}}<ref name=EncMath>{{cite web| author1=Yuri Prohorov|author-link1=Yuri Vasilyevich Prokhorov|title=Law of large numbers| url=https://www.encyclopediaofmath.org/index.php/Law_of_large_numbers| website=Encyclopedia of Mathematics |publisher=EMS Press}}</ref> وقد أدت هذه الدراسات الإضافية إلى ظهور شكلين أساسيين من قانون الأعداد الكبيرة. | |||
.أحدهما يسمى القانون "الضعيف" والآخر القانون "القوي"، في إشارة إلى طريقتين مختلفتين لتقريب وسائل العينة التراكمية إلى القيمة المتوقعة؛ وعلى وجه الخصوص، كما هو موضح أدناه، فإن الشكل القوي يتضمن الضعيف.{{sfn|Seneta|2013}} | |||
==أشكال قانون الأعداد الكبيرة== | ==أشكال قانون الأعداد الكبيرة== | ||
سطر 100: | سطر 110: | ||
</math> | </math> | ||
ما يعنيه هذا هو أن الاحتمال، حيث أن عدد التجارب n يتجه إلى ما لا نهاية، فإن متوسط الملاحظات يتقارب مع القيمة المتوقعة، يساوي واحدا. يعد البرهان الحديث على القانون القوي أكثر تعقيدا من القانون الضعيف، ويعتمد على الانتقال إلى تسلسل فرعي مناسب.<ref name="TaoBlog" /> | |||
يمكن اعتبار القانون القوي للأعداد الكبيرة في حد ذاته حالة خاصة لنظرية إرجوديك النقطية. يبرر هذا الرأي التفسير البدهي للقيمة المتوقعة (لتكامل لوبيغ فقط) لمتغير عشوائي عند أخذ عينات متكررة على أنه "المتوسط طويل الأجل". | |||
يسمى القانون 3 القانون القوي لأن المتغيرات العشوائية التي تتقارب بقوة (تقاربًا شبه مؤكد) مضمونة لتتقارب تقاربا ضعيفا (في الاحتمال). ومع ذلك، فإنه من المعروف أن القانون الضعيف يصمد في ظروف معينة حيث لا يصمد القانون القوي ومن ثم يكون التقارب ضعيفا فقط (في الاحتمال). | |||
ينطبق القانون القوي على المتغيرات العشوائية المستقلة الموزعة توزيعا متطابقا والتي لها قيمة متوقعة (مثل القانون الضعيف). وقد أثبت كولموغوروف ذلك في عام 1930. كما يمكن أن ينطبق أيضا في حالات أخرى. | |||
أظهر كولموغوروف في عام 1933 أيضا، أنه إذا كانت المتغيرات مستقلة وموزعة توزيعا متطابقا، فليتقارب المتوسط تقاربا شبه مؤكد على شيء ما (يمكن اعتبار هذا بيانا آخر للقانون القوي)، يجب أن يكون له قيمة متوقعة (وبعد ذلك، بالطبع، سيتقارب المتوسط تقاربا شبه مؤكد بناءا على ذلك).<ref name=EMStrong>{{cite web|author1=Yuri Prokhorov| title=Strong law of large numbers|url=https://www.encyclopediaofmath.org/index.php/Strong_law_of_large_numbers| website=Encyclopedia of Mathematics}}</ref> | |||
إذا كانت الملخصات مستقلة ولكنها ليست موزعة توزيعًا متطابقًا، فبالتالي: | |||
{{NumBlk||<math display="block"> | |||
\overline{X}_n - \operatorname{E}\big[\overline{X}_n\big]\ \overset{\text{a.s.}}{\longrightarrow}\ 0, | |||
</math>|{{EquationRef|2}}}} | |||
شريطة أن يكون لكل ''X''<sub>''k''</sub> عزم ثان محدود و | |||
<math display="block"> | |||
\sum_{k=1}^{\infty} \frac{1}{k^2} \operatorname{Var}[X_k] < \infty. | |||
</math> | |||
يعرف هذا البيان باسم قانون كولموغوروف القوي، انظر على سبيل المثال Sen and Singer (1993 ، نظرية 2.3.10). | |||
===الاختلافات بين القانون الضعيف والقانون القوي=== | |||
ينص القانون الضعيف على أنه بالنسبة ل ''n'' كبيرة محددة، من المحتمل أن يكون متوسط <math style="vertical-align:-.35em">\overline{X}_n</math> قريبا من ''μ''.<ref>{{Cite web |title=What Is the Law of Large Numbers? (Definition) {{!}} Built In |url=https://builtin.com/data-science/law-of-large-numbers |access-date=2023-10-20 |website=builtin.com |language=en}}</ref> وبالتالي ، فإنه يترك الباب مفتوحا أمام احتمال حدوث <math style="vertical-align:-.4em">|\overline{X}_n -\mu| > \varepsilon</math> عددا لا حصر له من المرات، وإن كان على فترات نادرة. (ليس بالضرورة <math style="vertical-align:-.4em">|\overline{X}_n -\mu| \neq 0</math> لجميع ''n''). | |||
يظهر القانون القوي أن ذلك لن يحدث حدوثا شبه أكيد. ولا يعني هذا أنه مع الاحتمال 1، سنحصل على {{math|''ε'' > 0}} ولاينطبق عدم المساواة <math style="vertical-align:-.4em">|\overline{X}_n -\mu| < \varepsilon</math> على كل شيء كبير بما يكفي "n" ، لأن التقارب ليس بالضرورة موحدا في المجموعة التي يحمل فيها.<ref>{{harvtxt|Ross|2009}}</ref> | |||
لايصمد القانون القوي في الحالات التالية، بينما يصمد القانون الضعيف.<ref name="Weak law converges to constant">{{cite book |last1=Lehmann |first1=Erich L. |last2=Romano |first2=Joseph P. |date=2006-03-30 |title=Weak law converges to constant |publisher=Springer |isbn=9780387276052 |url=https://books.google.com/books?id=K6t5qn-SEp8C&pg=PA432}}</ref><ref>{{cite journal| title=A Note on the Weak Law of Large Numbers for Exchangeable Random Variables |author1=Dguvl Hun Hong |author2=Sung Ho Lee |url=http://www.mathnet.or.kr/mathnet/kms_tex/31810.pdf |journal=Communications of the Korean Mathematical Society| volume=13|year=1998|issue=2|pages=385–391 |access-date=2014-06-28|archive-url=https://web.archive.org/web/20160701234328/http://www.mathnet.or.kr/mathnet/kms_tex/31810.pdf|archive-date=2016-07-01|url-status=dead}}</ref><!-- Stack Exchange is not a reliable source --> | |||
{{ordered list | |||
|1= لتكن قيمة X متغيرا عشوائيا موزعا أضعافا مضاعفة مع المعلمة 1. المتغير العشوائي <math>X</math> ليس له قيمة متوقعة وفقا لتكامل Lebesgue ، ولكن باستخدام التقارب الشرطي وتفسير التكامل على أنه تكامل ديريخليت ، وهو تكامل ريمان غير صحيح، يمكننا القول: | |||
<math display="block"> E\left(\frac{\sin(X)e^X}{X}\right) =\ \int_{x=0}^{\infty}\frac{\sin(x)e^x}{x}e^{-x}dx = \frac{\pi}{2} </math> | |||
|2= لتكن قيمة X متغير عشوائي موزع هندسيا مع احتمال 0.5. المتغير العشوائي <math>2^X(-1)^X X^{-1}</math> ليس له قيمة متوقعة بالمعنى التقليدي لأن السلسلة اللانهائية ليست متقاربة، ولكن باستخدام التقارب الشرطي، يمكننا القول: | |||
<math display="block"> E\left(\frac{2^X(-1)^X}{X}\right) =\ \sum_{x=1}^{\infty}\frac{2^x(-1)^x}{x}2^{-x}=-\ln(2) </math> | |||
|3= إذا كانت دالة التوزيع التراكمي لمتغير عشوائي هي | |||
<math display="block">\begin{cases} | |||
1-F(x)&=\frac{e}{2x\ln(x)},&x \ge e \\ | |||
F(x)&=\frac{e}{-2x\ln(-x)},&x \le -e | |||
\end{cases}</math> | |||
فلن يكون لها قيمة متوقعة ، لكن القانون الضعيف صحيح هنا.<ref>{{cite web|last1=Mukherjee|first1=Sayan|title=Law of large numbers| url=http://www.isds.duke.edu/courses/Fall09/sta205/lec/lln.pdf|access-date=2014-06-28|archive-url=https://web.archive.org/web/20130309032810/http://www.isds.duke.edu/courses/Fall09/sta205/lec/lln.pdf|archive-date=2013-03-09| url-status=dead}}</ref><ref>{{cite web|last1=J. Geyer|first1=Charles|title=Law of large numbers| url=http://www.stat.umn.edu/geyer/8112/notes/weaklaw.pdf}}</ref> | |||
|4= لتكن قيمة''X''<sub>''k''</sub> موجبة أو سالبة <math display="inline">\sqrt{k/\log\log\log k}</math> (بدءا من قيمة "k" كبيرة بما فيه الكفاية بحيث يكون المقام موجبا) مع احتمالية {{frac|1|2}} لكل منها.<ref name=EMStrong/> تباين ''X''<sub>''k''</sub> سيكون <math>k/\log\log\log k.</math> لا ينطبق قانون كولموغوروف القوي لأن المجموع الجزئي في معياره يصل إلى "k" = "n" مقارب ل <math>\log n/\log\log\log n</math> وهذا غير محدود. إذا استبدلنا المتغيرات العشوائية بمتغيرات غاوسية لها نفس الفروق ، وهي <math display="inline">\sqrt{k/\log\log\log k}</math>, بالتالي سيتوزع المتوسط في أي وقت توزيعا طبيعي. | |||
سيميل عرض توزيع المتوسط نحو الصفر (الانحراف المعياري مقارب ل <math display="inline">1/\sqrt{2\log\log\log n}</math>)، ولكن بالنسبة ل ''ε'' معينة، هناك احتمال لا يصل إلى الصفر مع ''n''، في حين أن المتوسط في وقت ما بعد التجربة ''n'' سيعود إلى ''ε''. نظرا لأن عرض توزيع المتوسط ليس صفرا ، فيجب أن يكون له حد أدنى موجب ''p''(''ε'')، مما يعني أن هناك احتمالا على الأقل ب ''p''(''ε'') أن يصل المتوسط إلى ε بعد تجارب عدد تجارب ''n''. سيحدث مع الاحتمال ''p''(''ε'')/2 قبل بعض ''m'' والذي يعتمد على ''n''. وحتى بعد ''m''، لا يزال هناك احتمال على الأقل ''p''(''ε'') أنه سيحصل. (يبدو أن هذا يشير إلى أن ''p''(''ε'')=1 وسيصل المتوسط ε عدد لا حصر له من المرات.) | |||
}} | |||
===القوانين الموحدة للأعداد الكبيرة=== | |||
هناك توسيعات لقانون الأعداد الكبيرة لتجميعات المقدرات (المقدرات الإحصائية) حيث يكون التقارب تقاربا بحد موحد على التجميع. ومن هنا جاءت تسمية قانون الأعداد الكبيرة الموحد. | |||
افترض أن ''f''(''x'',''θ'') هي بعض الوظائف المحددة ل ''θ'' ∈ Θ، ومستمرة في ''θ''. ثم بالنسبة لأي θ ثابت، فإن التسلسل {''f''(''X''<sub>1</sub>,''θ''), ''f''(''X''<sub>2</sub>,''θ''), ...} سيكون سلسلة من المتغيرات العشوائية المستقلة والموزعة توزيعا متطابقا، بحيث يتقارب متوسط عينة هذا التسلسل في الاحتمال إلى E[''f''(''X'',''θ'')]. هذا هو التقارب النقطي (في ''θ''). | |||
مثال معين لقانون موحد للأعداد الكبيرة ينص على الظروف التي يحدث فيها التقارب حدوثا موحدا في θ.<ref>{{harvnb|Newey|McFadden|1994|loc=Lemma 2.4}}</ref><ref>{{cite journal|doi=10.1214/aoms/1177697731|title=Asymptotic Properties of Non-Linear Least Squares Estimators|year=1969|last1=Jennrich|first1=Robert I.|journal=The Annals of Mathematical Statistics|volume=40|issue=2|pages=633–643|doi-access=free}}</ref> لو: | |||
# ''Θ'' مضغوط، | |||
# ''f''(''x'',''θ'') مستمر عند كل''θ'' ∈ Θ لجميع ''x'' تقريبا, ودالة مقاسة ل ''x'' عند كل ''θ''. | |||
# توجد دالة مهيمنة ''d''(''x'') بحيث E[''d''(''X'')] < ∞، و <math display="block"> \left\| f(x,\theta) \right\| \leq d(x) \quad\text{for all}\ \theta\in\Theta.</math> | |||
ثم E[''f''(''X'',''θ'')] مستمر في ''θ''، و | |||
<math display="block"> | |||
\sup_{\theta\in\Theta} \left\| \frac 1 n \sum_{i=1}^n f(X_i,\theta) - \operatorname{E}[f(X,\theta)] \right\| \overset{\mathrm{P}}{\rightarrow} \ 0. | |||
</math> | |||
هذه النتيجة مفيدة لاشتقاق اتساق فئة كبيرة من المقدرات. | |||
===قانون بوريل للأعداد الكبيرة=== | |||
ينص قانون بوريل للأعداد الكبيرة، الذي سمي على اسم إميل بوريل، على أنه إذا تكررت التجربة عددا كبيرا من المرات ، تكرارا مستقلا في ظل ظروف متطابقة، فإن نسبة المرات التي يتوقع فيها حدوث أي حدث محدد تساوي تقريبا احتمال وقوع الحدث في أي تجربة معينة. كلما زاد عدد مرات التكرار، كان التقريب أفضل. وبتعبير أدق، إذا كانت ''E'' تشير إلى الحدث المعني ، ''p'' احتمال حدوثه ، و ''N<sub>n</sub>''(''E'') عدد المرات التي يحدث فيها ''E'' في التجارب ''n'' الأولى، ثم مع الاحتمالية واحد<ref>{{cite journal | url=https://www.jstor.org/stable/2323947 | jstor=2323947 | doi=10.2307/2323947 | last1=Wen | first1=Liu | title=An Analytic Technique to Prove Borel's Strong Law of Large Numbers | journal=The American Mathematical Monthly | date=1991 | volume=98 | issue=2 | pages=146–148 }}</ref> | |||
<math display="block"> \frac{N_n(E)}{n}\to p\text{ as }n\to\infty.</math> | |||
تجعل هذه النظرية من الفكرة البديهية للاحتمال صارمة باعتبارها التردد النسبي المتوقع على المدى الطويل لوقوع الحدث. وهي حالة خاصة لأي من القوانين العامة العديدة للأعداد الكبيرة في نظرية الاحتمالات. | |||
عدم مساواة تشيبيشيف. لنفترض أن ''X'' متغير عشوائي بقيمة متوقعة منتهية ''μ'' وتباين محدود غير صفري ''σ''<sup>2</sup>. ثم لأي رقم حقيقي {{math|''k'' > 0}}، | |||
<math display="block"> | |||
\Pr(|X-\mu|\geq k\sigma) \leq \frac{1}{k^2}. | |||
</math> | |||
==إثبات القانون الضعيف== | |||
بالنظر إلى ''X''<sub>1</sub>, ''X''<sub>2</sub>...، تسلسل لا نهائي من المتغيرات العشوائية المستقلة والمتشابهة في التوزيع ذات القيمة المتوقعة <math>E(X_1)=E(X_2)=\cdots=\mu<\infty</math> المحدودة، نحن مهتمون بتقارب متوسط العينة: | |||
<math display="block">\overline{X}_n=\tfrac1n(X_1+\cdots+X_n). </math> | |||
ينص قانون الأعداد الكبيرة الضعيف على: | |||
{{NumBlk||<math display="block"> | |||
\overline{X}_n\ \overset{P}{\rightarrow}\ \mu \qquad\textrm{when}\ n \to \infty. | |||
</math>|{{EquationRef|2}}}} | |||
===الإثبات باستخدام متباينة تشيبيشيف بافتراض التباين المحدود=== | |||
يستخدم هذا البرهان افتراض التباين المحدود <math> \operatorname{Var} (X_i)=\sigma^2 </math> (لجميع <math>i</math>). استقلال المتغيرات العشوائية يعني عدم وجود ارتباط بينها ، ولدينا ذلك | |||
<math display="block"> | |||
\operatorname{Var}(\overline{X}_n) = \operatorname{Var}(\tfrac1n(X_1+\cdots+X_n)) = \frac{1}{n^2} \operatorname{Var}(X_1+\cdots+X_n) = \frac{n\sigma^2}{n^2} = \frac{\sigma^2}{n}. | |||
</math> | |||
متوسط μ الشائع للتسلسل هو متوسط متوسط العينة: | |||
<math display="block"> | |||
E(\overline{X}_n) = \mu. | |||
</math> | |||
ينتج عن استخدام متباينة تشيبيشيف على <math>\overline{X}_n </math>: | |||
<math display="block"> | |||
\operatorname{P}( \left| \overline{X}_n-\mu \right| \geq \varepsilon) \leq \frac{\sigma^2}{n\varepsilon^2}. | |||
</math> | |||
يمكن استخدام هذا للحصول على ما يلي: | |||
<math display="block"> | |||
\operatorname{P}( \left| \overline{X}_n-\mu \right| < \varepsilon) = 1 - \operatorname{P}( \left| \overline{X}_n-\mu \right| \geq \varepsilon) \geq 1 - \frac{\sigma^2}{n \varepsilon^2 }. | |||
</math> | |||
عندما يقترب ''n'' من اللانهاية، يقترب التعبير من 1. وبتعريف التقارب في الاحتمال، نحصل على | |||
{{NumBlk||<math display="block"> | |||
\overline{X}_n\ \overset{P}{\rightarrow}\ \mu \qquad\textrm{when}\ n \to \infty. | |||
</math>|{{EquationRef|2}}}} | |||
===الإثبات باستخدام تقارب الدوال المميزة=== | |||
من خلال نظرية تايلور للدوال المعقدة، يمكن كتابة الدالة المميزة لأي متغير عشوائي''X'' بمتوسط μ محدود، على النحو التالي: | |||
<math display="block">\varphi_X(t) = 1 + it\mu + o(t), \quad t \rightarrow 0.</math> | |||
كل''X''<sub>1</sub>, ''X''<sub>2</sub>, ... لها نفس الوظيفة المميزة ، لذلك سنشير ببساطة إلى ذلك ''φ''<sub>''X''</sub>. | |||
من بين الخصائص الأساسية للوظائف المميزة هناك: | |||
<math display="block">\varphi_{\frac 1 n X}(t)= \varphi_X(\tfrac t n) \quad \text{and} \quad | |||
\varphi_{X+Y}(t) = \varphi_X(t) \varphi_Y(t) \quad </math> إذا كان ''X'' و''Y'' مستقلين. | |||
يمكن استخدام هذه القواعد لحساب الدالة المميزة <math>\overline{X}_n</math> من حيث ''φ''<sub>''X''</sub>: | |||
<math display="block">\varphi_{\overline{X}_n}(t)= \left[\varphi_X\left({t \over n}\right)\right]^n = \left[1 + i\mu{t \over n} + o\left({t \over n}\right)\right]^n \, \rightarrow \, e^{it\mu}, \quad \text{as} \quad n \to \infty.</math> | |||
النهاية ''e''<sup>''itμ''</sup> هي الدالة المميزة للمتغير العشوائي الثابت μ ، وبالتالي من خلال نظرية استمرارية ليفي ، يتقارب <math> \overline{X}_n</math> في التوزيع إلى μ: | |||
<math display="block">\overline{X}_n \, \overset{\mathcal D}{\rightarrow} \, \mu \qquad\text{for}\qquad n \to \infty.</math> | |||
μ ثابت، مما يعني أن التقارب في التوزيع إلى μ والتقارب في الاحتمال إلى μ متكافئان، وبالتالي: | |||
{{NumBlk||<math display="block"> | |||
\overline{X}_n\ \overset{P}{\rightarrow}\ \mu \qquad\textrm{when}\ n \to \infty. | |||
</math>|{{EquationRef|2}}}} | |||
وهذا يدل على أن متوسط العينة يتقارب في الاحتمال مع مشتق الدالة المميزة في الأصل، طالما أن الأخير موجود. | |||
==إثبات القانون القوي== | |||
نقدم دليلا بسيطا نسبيا على القانون القوي في ظل الافتراضات القائلة بأن <math>X_i</math> هي متغيرات مستقلة ومتشابهة التوزيع، <math> {\mathbb E}[X_i] =: \mu < \infty </math>, <math> \operatorname{Var} (X_i)=\sigma^2 < \infty</math>, and <math> {\mathbb E}[X_i^4] =: \tau < \infty </math>. | |||
دعونا نلاحظ أولا أنه بدون فقدان العمومية ، يمكننا أن نفترض أن <math>mu = 0</math> عن طريق التوسيط. في هذه الحالة ، ينص القانون القوي على أن: | |||
<math display="block"> | |||
\Pr\!\left( \lim_{n\to\infty}\overline{X}_n = 0 \right) = 1, | |||
</math> | |||
أو | |||
<math display="block"> | |||
\Pr\left(\omega: \lim_{n\to\infty}\frac{S_n(\omega)}n = 0 \right) = 1. | |||
</math> | |||
وهو ما يعادل: | |||
<math display="block"> | |||
\Pr\left(\omega: \lim_{n\to\infty}\frac{S_n(\omega)}n \neq 0 \right) = 0, | |||
</math> | |||
لاحظ أن | |||
<math display="block"> | |||
\lim_{n\to\infty}\frac{S_n(\omega)}n \neq 0 \iff \exists\epsilon>0, \left|\frac{S_n(\omega)}n\right| \ge \epsilon\ \mbox{infinitely often}, | |||
</math> | |||
وبالتالي لإثبات القانون القوي نحتاج إلى إظهار ذلك لكل <math>\epsilon > 0</math>, وسنحصل على | |||
<math display="block"> | |||
\Pr\left(\omega: |S_n(\omega)| \ge n\epsilon \mbox{ infinitely often} \right) = 0. | |||
</math> | |||
نحدد الأحداث <math> A_n = \{\omega : |S_n| \ge n\epsilon\}</math>، وإذا كان بإمكاننا إظهار ذلك | |||
<math display="block"> | |||
\sum_{n=1}^\infty \Pr(A_n) <\infty, | |||
</math> | |||
ثم يشير بوريل كانتيلي ليما إلى النتيجة. لذلك دعونا نقدر <math>\Pr(A_n)</math>. | |||
وبحساب | |||
<math display="block"> | |||
{\mathbb E}[S_n^4] = {\mathbb E}\left[\left(\sum_{i=1}^n X_i\right)^4\right] = {\mathbb E}\left[\sum_{1 \le i,j,k,l\le n} X_iX_jX_kX_l\right]. | |||
</math> | |||
ندعي أولا أن كل حد من النموذج <math>X_i^3X_j, X_i^2X_jX_k, X_iX_jX_kX_l</math> حيث تكون جميع الأحرف السفلية متميزة ، يجب أن يكون له توقع صفري. | |||
وذلك لأن <math>{\mathbb E}[X_i^3X_j] = {\mathbb E}[X_i^3]{\mathbb E}[X_j]</math> بالاستقلال ، والمصطلح الأخير هو صفر --- وبالمثل بالنسبة للشروط الأخرى. لذلك فإن المصطلحات الوحيدة في المجموع ذات التوقعات غير الصفرية هي <math>{\mathbb E}[X_i^4]</math> و<math>{\mathbb E}[X_i^2X_j^2]</math>. نظرا لأن <math>X_i</math> موزعة توزيعا متطابقا، فكلها متشابهة، وعلاوة على ذلك <math>{\mathbb E}[X_i^2X_j^2]=({\mathbb E}[X_i^2])^2</math>. | |||
يوجد عدد <math>n</math> من شروط النموذج <math>{\mathbb E}[X_i^4]</math> وعدد <math>3 n (n-1)</math> من شروط النموذج <math>({\mathbb E}[X_i^2])^2</math>, وبذلك | |||
<math display="block"> | |||
{\mathbb E}[S_n^4] = n \tau + 3n(n-1)\sigma^4. | |||
</math> | |||
لاحظ أن الطرف الأيمن هو كثير حدود تربيعي في <math>n</math>، وعلى هذا النحو يوجد <math>C>0</math> بحيث <math> {\mathbb E}[S_n^4] \le Cn^2</math> بحيث يكون <math>n</math> كبيرا بما يكفي. بحسب آندريه ماركوف، | |||
<math display="block"> | |||
\Pr(|S_n| \ge n \epsilon) \le \frac1{(n\epsilon)^4}{\mathbb E}[S_n^4] \le \frac{C}{\epsilon^4 n^2}, | |||
</math> | |||
ل <math>n</math> كبيرة بما فيه الكفاية، وبالتالي هذه السلسلة قابلة للجمع. نظرا لأن هذا ينطبق على أي <math> epsilon > 0</math>، فقد أنشأنا قانون الأرقام الكبيرة القوي. | |||
ويمكن العثور على دليل آخر في <ref>{{cite journal |last1=Etemadi |first1=Nasrollah |title=An elementary proof of the strong law of large numbers |journal=Zeitschrift f{\"u}r Wahrscheinlichkeitstheorie und verwandte Gebiete |date=1981 |volume=55 |pages=119–122 |publisher=Springer|doi=10.1007/BF01013465 |s2cid=122166046 |doi-access=free }}</ref> | |||
للحصول على دليل بدون افتراض إضافي للحظة رابعة محدودة ، انظر القسم 22 من.<ref>{{cite book|last = Billingsley | first = Patrick| title = Probability and Measure|date = 1979}}</ref> | |||
==النتائج== | |||
عواقب | |||
يوفر قانون الأعداد الكبيرة توقعا لتوزيع غير معروف من إدراك التسلسل، وأي ميزة لتوزيع الاحتمالات أيضا.<ref name=":0" /> و بتطبيق قانون بوريل للأعداد الكبيرة، يمكن للمرء بسهولة الحصول على دالة الكتلة الاحتمالية. يمكن للمرء أن يقارب احتمال وقوع الحدث مع نسبة المرات التي يحدث فيها أي حدث محدد لكل حدث في دالة كتلة الاحتمال الموضوعي. كلما زاد عدد التكرار، كان التقريب أفضل. أما بالنسبة للحالة المستمرة: <math>C=(a-h,a+h]</math> ل h موجب صغير. وبالتالي ، بالنسبة إلى n كبير: | |||
<math display="block"> \frac{N_n(C)}{n}\thickapprox | |||
p = P(X\in C) = \int_{a-h}^{a+h} f(x) \, dx | |||
\thickapprox | |||
2hf(a)</math> | |||
يمكن للمرء باستخدام هذه الطريقة تغطية المحور السيني بالكامل بشبكة (بحجم شبكة 2س) والحصول على رسم بياني شريطي يسمى المدرج التكراري أو الإحصائي. | |||
==التطبيقات== | |||
أحد تطبيقات قانون الأعداد الكبيرة هو استخدام طريقة مونت كارلو. [3] تستخدم هذه الطريقة عينة عشوائية من الأرقام لتقريب النتائج العددية. خوارزمية حساب تكامل f(x) على فترة [a,b] هي كما يلي: | |||
# محاكاة المتغيرات العشوائية الموحدة X<sub>1</sub>, X<sub>2</sub>, ..., X<sub>n</sub> والتي يمكن القيام بها باستخدام برنامج، واستخدام جدول ارقام عشوائي يعطي , U<sub>2</sub>, ..., U<sub>n</sub> متغيرات عشوائية مستقلة وموزعة توزيعا متطابقا (i.i.d.) على [0,1]. لنفترض أن X<sub>i</sub> = a+(b - a)U<sub>i</sub> ل i= 1, 2, ..., n. وبذلك X<sub>1</sub>, X<sub>2</sub>, ..., X<sub>n</sub> هي متغيرات عشوائية موحدة مستقلة وموزعة توزيعا متطابقا على [a, b]. | |||
# تقييم f(X<sub>1</sub>), f(X<sub>2</sub>), ..., f(X<sub>n</sub>) | |||
# أخذ متوسط f(X<sub>1</sub>), f(X<sub>2</sub>), ..., f(X<sub>n</sub>) بحساب <math>(b-a)\tfrac{f(X_1)+f(X_2)+...+f(X_n)}{n}</math> ثم بقانون الأعداد الكبيرة القوي، يتقارب هذا إلى <math>(b-a)E(f(X_1))</math> = <math>(b-a)\int_{a}^{b} f(x)\tfrac{1}{b-a}{dx}</math> =<math>\int_{a}^{b} f(x){dx}</math> | |||
يمكننا إيجاد تكامل <math>f(x) = cos^2(x)\sqrt{x^3+1}</math> في [-1,2]. يعد استخدام الطرق التقليدية لحساب هذا التكامل أمرا صعبا للغاية، لذلك يمكن استخدام طريقة مونت كارلو هنا.<ref name=":1" /> باستخدام الخوارزمية أعلاه، نحصل على: | |||
<math>\int_{-1}^{2} f(x){dx}</math> = 0.905 when n=25 | |||
و | |||
<math>\int_{-1}^{2} f(x){dx}</math> = 1.028 when n=250 | |||
نلاحظ أنه كلما زادت n، زادت القيمة العددية أيضا. عندما نحصل على النتائج الفعلية للتكامل نحصل على: | |||
<math>\int_{-1}^{2} f(x){dx}</math> = 1.000194 | |||
باستخدام قانون الأعداد الكبيرة ، كان تقريب التكامل أكثر دقة وكان أقرب إلى قيمته الحقيقية.<ref name=":1" /> | |||
مثال آخر هو تكامل <big>f(x) =</big> <math>\frac{e^x-1}{e-1}</math> على [0,1].<ref name=":2">{{Citation |last=Reiter |first=Detlev |title=The Monte Carlo Method, an Introduction |date=2008 |url=http://link.springer.com/10.1007/978-3-540-74686-7_3 |work=Computational Many-Particle Physics |series=Lecture Notes in Physics |volume=739 |pages=63–78 |editor-last=Fehske |editor-first=H. |access-date=2023-12-08 |place=Berlin, Heidelberg |publisher=Springer Berlin Heidelberg |language=en |doi=10.1007/978-3-540-74686-7_3 |isbn=978-3-540-74685-0 |editor2-last=Schneider |editor2-first=R. |editor3-last=Weiße |editor3-first=A.}}</ref> باستخدام طريقة مونت كارلو وقانون الأعداد الكبيرة, يمكننا ملاحظة أنه كلما زاد عدد العينات، اقتربت القيمة العددية من 0.4180233.<ref name=":2" /> | |||
==المصادر== | ==المصادر== | ||
سطر 149: | سطر 379: | ||
|site_name = ويكي عربية | |site_name = ويكي عربية | ||
|type = article | |type = article | ||
|description=ينص قانون الأعداد الكبيرة | |description=ينص قانون الأعداد الكبيرة على أنه بالنسبة لعينة من القيم المستقلة والموزعة توزيعا متطابقا، فإن متوسط العينة يؤول إلى المتوسط الحقيقي. | ||
|locale = {{PAGELANGUAGE}} | |locale = {{PAGELANGUAGE}} | ||
|image = | |image = قانون الأعداد الكبيرة.jpg | ||
}} | }} | ||
{{Short description|ينص قانون الأعداد الكبيرة | {{Short description|ينص قانون الأعداد الكبيرة على أنه بالنسبة لعينة من القيم المستقلة والموزعة توزيعا متطابقا، فإن متوسط العينة يؤول إلى المتوسط الحقيقي.}} |
المراجعة الحالية بتاريخ 12:57، 25 مايو 2024
يُعَدّ قانون الأعداد الكبيرة (LLN) في نظرية الاحتمالات نظرية رياضية تنص على أن متوسط النتائج المُحصَّلة من عدد كبير من العينات العشوائية المستقلة والمتطابقة يقترب من القيمة الحقيقية في حال وجودها.[1] ينص قانون الأعداد الكبيرة رسميًا على أنه إذا كانت لدينا عينة من قيم مستقلة وموزعة توزيعًا متطابقًا فإن متوسط هذه العينة يقترب من المتوسط الحقيقي.
إن قانون الأعداد الكبيرة مهم لأنه يضمن نتائج مستقرة على المدى الطويل لمتوسطات بعض الأحداث العشوائية.[1][2] ومن الأمثلة على ذلك: بينما قد يخسر الكازينو المال في دوران واحد لعجلة الروليت، فإن أرباحه ستميل إلى نسبة مئوية متوقعة على مدار عدد كبير من الدورات.
وإن أية سلسلة انتصارات يحققها لاعب ما ستتغلب عليها معايير اللعبة في نهاية المطاف. ومن المهم أن نعرف أيضا أن قانون الأعداد الكبيرة (كما يشير اسمه) ينطبق فقط عندما نأخذ في عين الاعتبار عددًا أكبر من الملاحظات.
لا يوجد مبدأ يقضي بأن يتطابق عدد قليل من الملاحظات مع القيمة المتوقعة أو أن تتوازن سلسلة من قيمة ما على الفور بالقيم الأخرى (انظر مغالطة المُقامر للاستزادة).
ينطبق قانون الأعداد الكبيرة فقط على متوسط نتائج التجارب المتكررة، ويدعي أن هذا المتوسط يتقارب مع القيمة المتوقعة؛ ولا يدعي أن مجموع عدد (n) من النتائج يقترب من القيمة المتوقعة مضروبة في (n) كلما ازدادت قيمة (n).
عمل العديد من علماء الرياضيات على تحسين هذا القانون على مدار تاريخه، ويُستخدم قانون الأعداد الكبيرة اليوم في العديد من المجالات بما في ذلك الإحصاء ونظرية الاحتمالات والاقتصاد والتأمين.[3]
أمثلة عن قانون الأعداد الكبيرة
ينتج عن رمية نرد واحدة واحد من الأرقام التالية (1، 2، 3، 4، 5، أو 6) ولكلّ منها احتمال مُتساوٍ. ولذلك فإنّ القيمة المتوقّعة لمعدّل الرمياتِ هي:
إذا رُمي عدد كبير من حجار النرد ذات الستة أوجه، فإن متوسط قيمها (الذي يُسمى أحيانًا بالمتوسط العيني) سيقترب من 3.5، وتزداد هذه الدقة كلما زاد عدد النرد المُلقاة.
ينص قانون الأعداد الكبيرة على أن الاحتمال التجريبي للنجاح في سلسلة من تجارب بِرنولي سيتقارب مع الاحتمال النظري. بالنسبة لمتغير عشوائي برنولي، فإن القيمة المتوقعة هي الاحتمال النظري للنجاح، ومتوسط (n) من هذه المتغيرات (على افتراض أنها مستقلة ومتطابقة التوزيع) هو بالضبط التكرار النسبي.
على سبيل المثال، يُعدُّ رمي العملة تجربة بيرنولية. عندما تُقلب عملة عادلة مرة واحدة، فإن الاحتمال النظري لظهور الوجه الأمامي يساوي 1⁄2.
لذلك، ووفقًا لقانون الأعداد الكبيرة، يجب أن تكون نسبة ظهور الوجه الأمامي في عدد "كبير" من رميات العملة حوالي 1⁄2. وبوجه خاص، فإن نسبة ظهور الوجه الأمامي بعد (n) رمية ستتقارب بالتأكيد إلى 1⁄2 عندما يقترب (n) من اللانهاية.
على الرغم من أن نسبة كل من الوجه والظهر تقترب من 1⁄2، فإن الفرق المطلق بين عدد مرات الوجه وعدد مرات الظهر سيصبح كبيرًا تقريبًا على الأكيد كلما ازداد عدد الرميات. أي أن احتمال أن يكون الفرق المطلق عددًا صغيرًا يقترب من الصفر مع زيادة عدد الرميات.
كذلك، من المؤكد تقريبًا أن نسبة الفرق المطلق إلى عدد الرميات ستقترب من الصفر. بعبارة أخرى، فإن الفرق المتوقع سيكبر، ولكن بمعدل أبطأ من معدل زيادة عدد الرميات.
مثال آخر جيد على قانون الأعداد الكبيرة هو طريقة مونت كارلو. تمثل هذه الطرق فئة واسعة من الخوارزميات الحسابية التي تعتمد على أخذ عينات عشوائية متكررة للحصول على نتائج عددية. تزداد دقة التقريب بزيادة عدد التكرارات.
تكمن أهمية هذه الطريقة في أنه في بعض الأحيان قد يكون من الصعب أو المستحيل استخدام طرق أخرى.[4]
محدودية قانون الأعداد الكبيرة
قد لا يؤول متوسط نتائج عدد كبير من التجارب في بعض الحالات إلى التقارب. على سبيل المثال، لن يؤول متوسط "n" نتيجة مأخوذة من توزيع كوشي أو بعض توزيعات باريتو (α<1) إلى التقارب بزيادة n. والسبب في ذلك هو ذيول التوزيع الثقيلة.[5]
تُمثل توزيعات كوشي وبريتو حالتين: الحالة الأولى لايوجد قيمة متوقعة لتوزيع كوشي،[6] بينما تكون قيمة توقع توزيع بريتو (α<1) لا نهائية.[7] هناك طريقة واحدة لتوليد مثال يتبع توزيع كوشي وهي عندما تساوي الأرقام العشوائية مماس (ظل) الزاوية موحدة التوزيع بين −90° و +90°.[8] الوسيط هو صفر، لكن القيمة المتوقعة غير موجودة، وبالفعل متوسط "n" من هذه المتغيرات له نفس توزيع أحد هذه المتغيرات. لا يتقارب في الاحتمال نحو الصفر (أو أي قيمة أخرى) حيث يتجه "n" إلى ما لا نهاية.
وإذا كانت التجارب تتضمن تحيزا في الاختيار ، الحالة النموذجية في السلوك الاقتصادي / العقلاني البشري، فإن قانون الأعداد الكبيرة لا يساعد في حل التحيز. وحتى إذا زاد عدد المحاكمات، فإن التحيز في الاختيار لا يزال قائما.
تاريخ قانون الأعداد الكبيرة
يُقال إن عالم الرياضيات الإيطالي جيرولامو كاردانو (1501-1576) صرح بدون إثبات بأن دقة الإحصائيات التجريبية تميل إلى التحسن مع زيادة عدد التجارب.[9][3] صيغ هذا لاحقًا على أنه قانون الأعداد الكبيرة.
كان يعقوب بيرنولي أول من أثبت شكلاً خاصًا لقانون الأعداد الكبيرة (لمتغير عشوائي ثنائي).[10][3] استغرق الأمر منه أكثر من 20 عامًا لتطوير برهان رياضي صارم كافٍ نُشر في كتابه "فن التخمين" (Ars Conjectandi) عام 1713. أطلق عليه اسم "المبرهنة الذهبية" ولكنه أصبح يُعرف عمومًا باسم "مبرهنة بيرنولي". لا ينبغي الخلط بين هذا وبين مبدأ برنولي، الذي سمي على اسم ابن شقيق يعقوب بيرنولي، دانيال بيرنولي.
في عام 1837، وصفه سيميون دينيس بواسون (S. D. Poisson) أيضًا تحت اسم "قانون الأعداد الكبيرة" (la loi des grands nombres).[11][12][3] ومنذ ذلك الحين، أصبح يُعرف بكلتا التسميتين، لكن اسم "قانون الأعداد الكبيرة" هو السائد.
بعد أن نشر برنولي وبواسون جهودهما ، ساهم علماء رياضيات آخرون أيضا في تحسين القانون، بمن فيهم بافنوتي تشيبيشيف,[13] أندريه ماركوف و إيميل بوريل وفرانشيسكو باولو كانتيلي وأندريه كولموجوروف وألكسندر خينشين.[3] أظهر ماركوف أن القانون يمكن أن ينطبق على متغير عشوائي ليس له تباين محدود في ظل بعض الافتراضات الأضعف الأخرى، وأظهر خينشينفي عام 1929 أنه إذا كانت السلسلة تتكون من متغيرات عشوائية مستقلة موزعة توزيعا متطابقا، يكفي أن تكون القيمة المتوقعة موجودة للقانون الضعيف للأعداد الكبيرة لتكون صحيحة.[14][15] وقد أدت هذه الدراسات الإضافية إلى ظهور شكلين أساسيين من قانون الأعداد الكبيرة. .أحدهما يسمى القانون "الضعيف" والآخر القانون "القوي"، في إشارة إلى طريقتين مختلفتين لتقريب وسائل العينة التراكمية إلى القيمة المتوقعة؛ وعلى وجه الخصوص، كما هو موضح أدناه، فإن الشكل القوي يتضمن الضعيف.[14]
أشكال قانون الأعداد الكبيرة
يوجد نوعان مختلفان لقانون الأعداد الكبيرة: يُسمى الأول قانون الأعداد الكبيرة القوي، والثاني قانون الأعداد الكبيرة الضعيف.[16][1]
بفرض أن X1, X2... تمثل متسلسلة لا نهائية من المتغيرات العشوائية القابلة للتكامل (تكامل لوبيغ) والمستقلة والموزعة توزيعًا متطابقًا مع قيمة متوقعة E(X1) = E(X2) = ... = μ، ينص كلا الشكلين من القانون على أن متوسط العينة:
|
(1) |
(تعني قابلية تكامل لوبيغ ل Xj أن القيمة المتوقعة E(Xj موجودة وفقا لتكامل لوبيغ وهي محدودة. ولا يعني هذا أن مقياس الاحتمال المرتبط مستمر فيما يتعلق بمقياس لوبيغ.)
غالبا ما تفترض نصوص الاحتمالات التمهيدية تباينا محدودا متطابقا (لجميع ) ولا يوجد ارتباط بين المتغيرات العشوائية. في هذه الحالة ، يكون تباين متوسط المتغيرات العشوائية n:
والتي يمكن استخدامها لاختصار وإيجاز الإثباتات، ولا يلزم افتراض التباين النهائي، إذ إن التباين الكبير أو اللانهائي سيجعل التقارب أبطأ، ولكن قانون الأعداد الكبيرة (LLN) يظل قائما على أي حال.[17]
يمكن استبدال الاستقلال المتبادل للمتغيرات العشوائية بالاستقلال الزوجي [18] أو قابلية التبادل[19] في كلا شكلي قانون الأعداد الكبيرة.
يختص الفرق بين الشكل القوي والشكل الضعيف بنمط التقارب الذي يؤكد عليه. لمعرفة تفسير هذه الأنماط، راجع تقارب المتغيرات العشوائية.
القانون الضعيف
ينص القانون الضعيف للأعداد الكبيرة (ويسمى أيضا قانون خينشين) على أنه بالنظر إلى مجموعة من عينات متغيرات مستقلة ومتشابهة التوزيع من متغير عشوائي بمتوسط محدود، فإن متوسط العينة يتقارب في الاحتمال مع القيمة المتوقعة[20]
|
(2) |
وهذا هو ، لأي رقم موجب ε،
بتفسير هذه النتيجة، ينص القانون الضعيف على أنه بالنسبة لأي هامش غير صفري محدد (ε)، مهما كان صغيرا، مع عينة كبيرة بما فيه الكفاية، سيكون هناك احتمال كبير جدا أن يكون متوسط الملاحظات قريبا من القيمة المتوقعة. وهذا هو داخل الهامش.
كما ذُكر سابقًا، لاينطبق قانون الضعف الكبير على المتغيرات العشوائية المستقلة والمتشابهة التوزيع فقط، ولكنه ينطبق أيضًا في بعض الحالات الأخرى. على سبيل المثال، يمكن أن يختلف التباين لكل متغير عشوائي في السلسلة، مع الحفاظ على قيمة متوقع ثابتة.
إذا كانت التباينات محدودة، فإن القانون ينطبق، كما هو أوضحه بافنوتي تشيبيشيف عام 1867. (إذا تغيرت القيم المتوقعة خلال السلسلة، فيمكننا ببساطة تطبيق القانون على متوسط الانحراف عن القيم المتوقعة المعنية. ثم ينص القانون على أن هذا التقارب يميل الاحتمال نحو الصفر.) ودليل بافنوتي تشيبيشيف صحيح طالما أن تباين متوسط قيم n الأولى يتجه إلى الصفر كلما اتجه n إلى ما لا نهاية.[15]
على سبيل المثال، افترض أن كل متغير عشوائي في السلسلة يتبع توزيع احتمالي طبيعي (أو توزيع غاوس) بمتوسط صفر، لكن مع تباين يساوي وهو غير محدود. سيوزع المتوسط في كل مرحلة طبيعيا (كمتوسط لمجموعة من المتغيرات الموزعة عادة). تباين المجموع يساوي مجموع الفروق، وهو مقارب ل . وبالتالي فإن تباين المتوسط مقارب ل ويتجه إلى الصفر.
هناك أيضا أمثلة على القانون الضعيف المطبق على الرغم من عدم وجود قيم متوقعة.
القانون القوي
ينص القانون القوي للأعداد الكبيرة (ويسمى أيضا قانون أندريه كولموغوروف) على أن متوسط العينة يتقارب تقاربًا شبه مؤكد مع القيمة المتوقعة:[21]
|
(3) |
وهي:
ما يعنيه هذا هو أن الاحتمال، حيث أن عدد التجارب n يتجه إلى ما لا نهاية، فإن متوسط الملاحظات يتقارب مع القيمة المتوقعة، يساوي واحدا. يعد البرهان الحديث على القانون القوي أكثر تعقيدا من القانون الضعيف، ويعتمد على الانتقال إلى تسلسل فرعي مناسب.[17]
يمكن اعتبار القانون القوي للأعداد الكبيرة في حد ذاته حالة خاصة لنظرية إرجوديك النقطية. يبرر هذا الرأي التفسير البدهي للقيمة المتوقعة (لتكامل لوبيغ فقط) لمتغير عشوائي عند أخذ عينات متكررة على أنه "المتوسط طويل الأجل".
يسمى القانون 3 القانون القوي لأن المتغيرات العشوائية التي تتقارب بقوة (تقاربًا شبه مؤكد) مضمونة لتتقارب تقاربا ضعيفا (في الاحتمال). ومع ذلك، فإنه من المعروف أن القانون الضعيف يصمد في ظروف معينة حيث لا يصمد القانون القوي ومن ثم يكون التقارب ضعيفا فقط (في الاحتمال).
ينطبق القانون القوي على المتغيرات العشوائية المستقلة الموزعة توزيعا متطابقا والتي لها قيمة متوقعة (مثل القانون الضعيف). وقد أثبت كولموغوروف ذلك في عام 1930. كما يمكن أن ينطبق أيضا في حالات أخرى.
أظهر كولموغوروف في عام 1933 أيضا، أنه إذا كانت المتغيرات مستقلة وموزعة توزيعا متطابقا، فليتقارب المتوسط تقاربا شبه مؤكد على شيء ما (يمكن اعتبار هذا بيانا آخر للقانون القوي)، يجب أن يكون له قيمة متوقعة (وبعد ذلك، بالطبع، سيتقارب المتوسط تقاربا شبه مؤكد بناءا على ذلك).[22]
إذا كانت الملخصات مستقلة ولكنها ليست موزعة توزيعًا متطابقًا، فبالتالي:
|
(2) |
شريطة أن يكون لكل Xk عزم ثان محدود و
يعرف هذا البيان باسم قانون كولموغوروف القوي، انظر على سبيل المثال Sen and Singer (1993 ، نظرية 2.3.10).
الاختلافات بين القانون الضعيف والقانون القوي
ينص القانون الضعيف على أنه بالنسبة ل n كبيرة محددة، من المحتمل أن يكون متوسط قريبا من μ.[23] وبالتالي ، فإنه يترك الباب مفتوحا أمام احتمال حدوث عددا لا حصر له من المرات، وإن كان على فترات نادرة. (ليس بالضرورة لجميع n).
يظهر القانون القوي أن ذلك لن يحدث حدوثا شبه أكيد. ولا يعني هذا أنه مع الاحتمال 1، سنحصل على ε > 0 ولاينطبق عدم المساواة على كل شيء كبير بما يكفي "n" ، لأن التقارب ليس بالضرورة موحدا في المجموعة التي يحمل فيها.[24]
لايصمد القانون القوي في الحالات التالية، بينما يصمد القانون الضعيف.[25][26]
- لتكن قيمة X متغيرا عشوائيا موزعا أضعافا مضاعفة مع المعلمة 1. المتغير العشوائي ليس له قيمة متوقعة وفقا لتكامل Lebesgue ، ولكن باستخدام التقارب الشرطي وتفسير التكامل على أنه تكامل ديريخليت ، وهو تكامل ريمان غير صحيح، يمكننا القول:
- لتكن قيمة X متغير عشوائي موزع هندسيا مع احتمال 0.5. المتغير العشوائي ليس له قيمة متوقعة بالمعنى التقليدي لأن السلسلة اللانهائية ليست متقاربة، ولكن باستخدام التقارب الشرطي، يمكننا القول:
- إذا كانت دالة التوزيع التراكمي لمتغير عشوائي هي
فلن يكون لها قيمة متوقعة ، لكن القانون الضعيف صحيح هنا.[27][28]
- لتكن قيمةXk موجبة أو سالبة (بدءا من قيمة "k" كبيرة بما فيه الكفاية بحيث يكون المقام موجبا) مع احتمالية 1⁄2 لكل منها.[22] تباين Xk سيكون لا ينطبق قانون كولموغوروف القوي لأن المجموع الجزئي في معياره يصل إلى "k" = "n" مقارب ل وهذا غير محدود. إذا استبدلنا المتغيرات العشوائية بمتغيرات غاوسية لها نفس الفروق ، وهي , بالتالي سيتوزع المتوسط في أي وقت توزيعا طبيعي. سيميل عرض توزيع المتوسط نحو الصفر (الانحراف المعياري مقارب ل )، ولكن بالنسبة ل ε معينة، هناك احتمال لا يصل إلى الصفر مع n، في حين أن المتوسط في وقت ما بعد التجربة n سيعود إلى ε. نظرا لأن عرض توزيع المتوسط ليس صفرا ، فيجب أن يكون له حد أدنى موجب p(ε)، مما يعني أن هناك احتمالا على الأقل ب p(ε) أن يصل المتوسط إلى ε بعد تجارب عدد تجارب n. سيحدث مع الاحتمال p(ε)/2 قبل بعض m والذي يعتمد على n. وحتى بعد m، لا يزال هناك احتمال على الأقل p(ε) أنه سيحصل. (يبدو أن هذا يشير إلى أن p(ε)=1 وسيصل المتوسط ε عدد لا حصر له من المرات.)
القوانين الموحدة للأعداد الكبيرة
هناك توسيعات لقانون الأعداد الكبيرة لتجميعات المقدرات (المقدرات الإحصائية) حيث يكون التقارب تقاربا بحد موحد على التجميع. ومن هنا جاءت تسمية قانون الأعداد الكبيرة الموحد. افترض أن f(x,θ) هي بعض الوظائف المحددة ل θ ∈ Θ، ومستمرة في θ. ثم بالنسبة لأي θ ثابت، فإن التسلسل {f(X1,θ), f(X2,θ), ...} سيكون سلسلة من المتغيرات العشوائية المستقلة والموزعة توزيعا متطابقا، بحيث يتقارب متوسط عينة هذا التسلسل في الاحتمال إلى E[f(X,θ)]. هذا هو التقارب النقطي (في θ).
مثال معين لقانون موحد للأعداد الكبيرة ينص على الظروف التي يحدث فيها التقارب حدوثا موحدا في θ.[29][30] لو:
- Θ مضغوط،
- f(x,θ) مستمر عند كلθ ∈ Θ لجميع x تقريبا, ودالة مقاسة ل x عند كل θ.
- توجد دالة مهيمنة d(x) بحيث E[d(X)] < ∞، و
ثم E[f(X,θ)] مستمر في θ، و
هذه النتيجة مفيدة لاشتقاق اتساق فئة كبيرة من المقدرات.
قانون بوريل للأعداد الكبيرة
ينص قانون بوريل للأعداد الكبيرة، الذي سمي على اسم إميل بوريل، على أنه إذا تكررت التجربة عددا كبيرا من المرات ، تكرارا مستقلا في ظل ظروف متطابقة، فإن نسبة المرات التي يتوقع فيها حدوث أي حدث محدد تساوي تقريبا احتمال وقوع الحدث في أي تجربة معينة. كلما زاد عدد مرات التكرار، كان التقريب أفضل. وبتعبير أدق، إذا كانت E تشير إلى الحدث المعني ، p احتمال حدوثه ، و Nn(E) عدد المرات التي يحدث فيها E في التجارب n الأولى، ثم مع الاحتمالية واحد[31]
تجعل هذه النظرية من الفكرة البديهية للاحتمال صارمة باعتبارها التردد النسبي المتوقع على المدى الطويل لوقوع الحدث. وهي حالة خاصة لأي من القوانين العامة العديدة للأعداد الكبيرة في نظرية الاحتمالات.
عدم مساواة تشيبيشيف. لنفترض أن X متغير عشوائي بقيمة متوقعة منتهية μ وتباين محدود غير صفري σ2. ثم لأي رقم حقيقي k > 0،
إثبات القانون الضعيف
بالنظر إلى X1, X2...، تسلسل لا نهائي من المتغيرات العشوائية المستقلة والمتشابهة في التوزيع ذات القيمة المتوقعة المحدودة، نحن مهتمون بتقارب متوسط العينة:
ينص قانون الأعداد الكبيرة الضعيف على:
|
(2) |
الإثبات باستخدام متباينة تشيبيشيف بافتراض التباين المحدود
يستخدم هذا البرهان افتراض التباين المحدود (لجميع ). استقلال المتغيرات العشوائية يعني عدم وجود ارتباط بينها ، ولدينا ذلك
متوسط μ الشائع للتسلسل هو متوسط متوسط العينة:
ينتج عن استخدام متباينة تشيبيشيف على :
يمكن استخدام هذا للحصول على ما يلي:
عندما يقترب n من اللانهاية، يقترب التعبير من 1. وبتعريف التقارب في الاحتمال، نحصل على
|
(2) |
الإثبات باستخدام تقارب الدوال المميزة
من خلال نظرية تايلور للدوال المعقدة، يمكن كتابة الدالة المميزة لأي متغير عشوائيX بمتوسط μ محدود، على النحو التالي:
من بين الخصائص الأساسية للوظائف المميزة هناك:
يمكن استخدام هذه القواعد لحساب الدالة المميزة من حيث φX:
النهاية eitμ هي الدالة المميزة للمتغير العشوائي الثابت μ ، وبالتالي من خلال نظرية استمرارية ليفي ، يتقارب في التوزيع إلى μ:
μ ثابت، مما يعني أن التقارب في التوزيع إلى μ والتقارب في الاحتمال إلى μ متكافئان، وبالتالي:
|
(2) |
وهذا يدل على أن متوسط العينة يتقارب في الاحتمال مع مشتق الدالة المميزة في الأصل، طالما أن الأخير موجود.
إثبات القانون القوي
نقدم دليلا بسيطا نسبيا على القانون القوي في ظل الافتراضات القائلة بأن هي متغيرات مستقلة ومتشابهة التوزيع، , , and .
دعونا نلاحظ أولا أنه بدون فقدان العمومية ، يمكننا أن نفترض أن عن طريق التوسيط. في هذه الحالة ، ينص القانون القوي على أن:
يوجد عدد من شروط النموذج وعدد من شروط النموذج , وبذلك
ويمكن العثور على دليل آخر في [32]
للحصول على دليل بدون افتراض إضافي للحظة رابعة محدودة ، انظر القسم 22 من.[33]
النتائج
عواقب يوفر قانون الأعداد الكبيرة توقعا لتوزيع غير معروف من إدراك التسلسل، وأي ميزة لتوزيع الاحتمالات أيضا.[1] و بتطبيق قانون بوريل للأعداد الكبيرة، يمكن للمرء بسهولة الحصول على دالة الكتلة الاحتمالية. يمكن للمرء أن يقارب احتمال وقوع الحدث مع نسبة المرات التي يحدث فيها أي حدث محدد لكل حدث في دالة كتلة الاحتمال الموضوعي. كلما زاد عدد التكرار، كان التقريب أفضل. أما بالنسبة للحالة المستمرة: ل h موجب صغير. وبالتالي ، بالنسبة إلى n كبير:
التطبيقات
أحد تطبيقات قانون الأعداد الكبيرة هو استخدام طريقة مونت كارلو. [3] تستخدم هذه الطريقة عينة عشوائية من الأرقام لتقريب النتائج العددية. خوارزمية حساب تكامل f(x) على فترة [a,b] هي كما يلي:
- محاكاة المتغيرات العشوائية الموحدة X1, X2, ..., Xn والتي يمكن القيام بها باستخدام برنامج، واستخدام جدول ارقام عشوائي يعطي , U2, ..., Un متغيرات عشوائية مستقلة وموزعة توزيعا متطابقا (i.i.d.) على [0,1]. لنفترض أن Xi = a+(b - a)Ui ل i= 1, 2, ..., n. وبذلك X1, X2, ..., Xn هي متغيرات عشوائية موحدة مستقلة وموزعة توزيعا متطابقا على [a, b].
- تقييم f(X1), f(X2), ..., f(Xn)
- أخذ متوسط f(X1), f(X2), ..., f(Xn) بحساب ثم بقانون الأعداد الكبيرة القوي، يتقارب هذا إلى = =
يمكننا إيجاد تكامل في [-1,2]. يعد استخدام الطرق التقليدية لحساب هذا التكامل أمرا صعبا للغاية، لذلك يمكن استخدام طريقة مونت كارلو هنا.[3] باستخدام الخوارزمية أعلاه، نحصل على: = 0.905 when n=25
و
= 1.028 when n=250
نلاحظ أنه كلما زادت n، زادت القيمة العددية أيضا. عندما نحصل على النتائج الفعلية للتكامل نحصل على: = 1.000194 باستخدام قانون الأعداد الكبيرة ، كان تقريب التكامل أكثر دقة وكان أقرب إلى قيمته الحقيقية.[3]
مثال آخر هو تكامل f(x) = على [0,1].[34] باستخدام طريقة مونت كارلو وقانون الأعداد الكبيرة, يمكننا ملاحظة أنه كلما زاد عدد العينات، اقتربت القيمة العددية من 0.4180233.[34]
المصادر
- Grimmett، G. R.؛ Stirzaker، D. R. (1992). Probability and Random Processes (ط. 2nd). Oxford: Clarendon Press. ISBN:0-19-853665-8.
- Durrett، Richard (1995). Probability: Theory and Examples (ط. 2nd). Duxbury Press.
- Martin Jacobsen (1992). Videregående Sandsynlighedsregning [Advanced Probability Theory] (بالدنماركية) (3rd ed.). Copenhagen: HCØ-tryk. ISBN:87-91180-71-6.
- Loève، Michel (1977). Probability theory 1 (ط. 4th). Springer.
- Newey، Whitney K.؛ McFadden، Daniel (1994). "36". Large sample estimation and hypothesis testing. Handbook of econometrics. Elsevier Science. ج. IV. ص. 2111–2245.
- Ross، Sheldon (2009). A first course in probability (ط. 8th). Prentice Hall. ISBN:978-0-13-603313-4.
- Sen، P. K؛ Singer، J. M. (1993). Large sample methods in statistics. Chapman & Hall.
- Seneta، Eugene (2013). "A Tricentenary history of the Law of Large Numbers". Bernoulli. ج. 19 ع. 4: 1088–1121. arXiv:1309.6488. DOI:10.3150/12-BEJSP12. S2CID:88520834.
المراجع
- ↑ 1٫0 1٫1 1٫2 1٫3 Dekking، Michel (2005). A Modern Introduction to Probability and Statistics. Springer. ص. 181–190. ISBN:9781852338961.
- ↑ Yao، Kai؛ Gao، Jinwu (2016). "Law of Large Numbers for Uncertain Random Variables". IEEE Transactions on Fuzzy Systems. ج. 24 ع. 3: 615–621. DOI:10.1109/TFUZZ.2015.2466080. ISSN:1063-6706. S2CID:2238905.
- ↑ 3٫0 3٫1 3٫2 3٫3 3٫4 3٫5 3٫6 Sedor، Kelly. "The Law of Large Numbers and its Applications" (PDF).
- ↑ Kroese, Dirk P.; Brereton, Tim; Taimre, Thomas; Botev, Zdravko I. (2014). "Why the Monte Carlo method is so important today". Wiley Interdisciplinary Reviews: Computational Statistics (بEnglish). 6 (6): 386–392. DOI:10.1002/wics.1314. S2CID:18521840.
- ↑ Dekking، Michel، المحرر (2005). A modern introduction to probability and statistics: understandig why and how. Springer texts in statistics. London [Heidelberg]: Springer. ص. 187. ISBN:978-1-85233-896-1.
- ↑ Dekking، Michel (2005). A Modern Introduction to Probability and Statistics. Springer. ص. 92. ISBN:9781852338961.
- ↑ Dekking، Michel (2005). A Modern Introduction to Probability and Statistics. Springer. ص. 63. ISBN:9781852338961.
- ↑ Pitman، E. J. G.؛ Williams، E. J. (1967). "Cauchy-Distributed Functions of Cauchy Variates". The Annals of Mathematical Statistics. ج. 38 ع. 3: 916–918. DOI:10.1214/aoms/1177698885. ISSN:0003-4851. JSTOR:2239008.
- ↑ Mlodinow، L. (2008). The Drunkard's Walk. New York: Random House. ص. 50.
- ↑ Bernoulli, Jakob (1713). "4". Ars Conjectandi: Usum & Applicationem Praecedentis Doctrinae in Civilibus, Moralibus & Oeconomicis (بLatina). Translated by Sheynin, Oscar.
- ↑ Poisson names the "law of large numbers" (la loi des grands nombres) in: Poisson, S. D. (1837). Probabilité des jugements en matière criminelle et en matière civile, précédées des règles générales du calcul des probabilitiés (بfrançais). Paris, France: Bachelier. p. 7. He attempts a two-part proof of the law on pp. 139–143 and pp. 277 ff.
- ↑ Hacking، Ian (1983). "19th-century Cracks in the Concept of Determinism". Journal of the History of Ideas. ج. 44 ع. 3: 455–475. DOI:10.2307/2709176. JSTOR:2709176.
- ↑ Tchebichef, P. (1846). "Démonstration élémentaire d'une proposition générale de la théorie des probabilités". Journal für die reine und angewandte Mathematik (بfrançais). 1846 (33): 259–267. DOI:10.1515/crll.1846.33.259. S2CID:120850863.
- ↑ 14٫0 14٫1 Seneta 2013.
- ↑ 15٫0 15٫1 Yuri Prohorov. "Law of large numbers". Encyclopedia of Mathematics. EMS Press.
- ↑ Bhattacharya، Rabi؛ Lin، Lizhen؛ Patrangenaru، Victor (2016). A Course in Mathematical Statistics and Large Sample Theory. Springer Texts in Statistics. New York, NY: Springer New York. DOI:10.1007/978-1-4939-4032-5. ISBN:978-1-4939-4030-1.
- ↑ 17٫0 17٫1 "The strong law of large numbers – What's new". Terrytao.wordpress.com. 19 يونيو 2008. اطلع عليه بتاريخ 2012-06-09.
- ↑ Etemadi، N. Z. (1981). "An elementary proof of the strong law of large numbers". Wahrscheinlichkeitstheorie Verw Gebiete. ج. 55 ع. 1: 119–122. DOI:10.1007/BF01013465. S2CID:122166046.
- ↑ Kingman, J. F. C. (Apr 1978). "Uses of Exchangeability". The Annals of Probability (بEnglish). 6 (2). DOI:10.1214/aop/1176995566. ISSN:0091-1798.
- ↑ Loève 1977، Chapter 1.4, p. 14
- ↑ Loève 1977، Chapter 17.3, p. 251
- ↑ 22٫0 22٫1 Yuri Prokhorov. "Strong law of large numbers". Encyclopedia of Mathematics.
- ↑ "What Is the Law of Large Numbers? (Definition) | Built In". builtin.com (بEnglish). Retrieved 2023-10-20.
- ↑ Ross (2009)
- ↑ Lehmann، Erich L.؛ Romano، Joseph P. (30 مارس 2006). Weak law converges to constant. Springer. ISBN:9780387276052.
- ↑ Dguvl Hun Hong؛ Sung Ho Lee (1998). "A Note on the Weak Law of Large Numbers for Exchangeable Random Variables" (PDF). Communications of the Korean Mathematical Society. ج. 13 ع. 2: 385–391. مؤرشف من الأصل (PDF) في 2016-07-01. اطلع عليه بتاريخ 2014-06-28.
- ↑ Mukherjee، Sayan. "Law of large numbers" (PDF). مؤرشف من الأصل (PDF) في 2013-03-09. اطلع عليه بتاريخ 2014-06-28.
- ↑ J. Geyer، Charles. "Law of large numbers" (PDF).
- ↑ Newey & McFadden 1994، Lemma 2.4
- ↑ Jennrich، Robert I. (1969). "Asymptotic Properties of Non-Linear Least Squares Estimators". The Annals of Mathematical Statistics. ج. 40 ع. 2: 633–643. DOI:10.1214/aoms/1177697731.
- ↑ Wen، Liu (1991). "An Analytic Technique to Prove Borel's Strong Law of Large Numbers". The American Mathematical Monthly. ج. 98 ع. 2: 146–148. DOI:10.2307/2323947. JSTOR:2323947.
- ↑ Etemadi، Nasrollah (1981). "An elementary proof of the strong law of large numbers". Zeitschrift f{\"u}r Wahrscheinlichkeitstheorie und verwandte Gebiete. Springer. ج. 55: 119–122. DOI:10.1007/BF01013465. S2CID:122166046.
- ↑ Billingsley، Patrick (1979). Probability and Measure.
- ↑ 34٫0 34٫1 Reiter, Detlev (2008), Fehske, H.; Schneider, R.; Weiße, A. (eds.), "The Monte Carlo Method, an Introduction", Computational Many-Particle Physics, Lecture Notes in Physics (بEnglish), Berlin, Heidelberg: Springer Berlin Heidelberg, vol. 739, pp. 63–78, DOI:10.1007/978-3-540-74686-7_3, ISBN:978-3-540-74685-0, Retrieved 2023-12-08