تبديل القائمة
تبديل القائمة الشخصية
غير مسجل للدخول
سيكون عنوان الآيبي الخاص بك مرئيًا للعامة إذا قمت بإجراء أي تعديلات.

الفرق بين المراجعتين لصفحة: «قانون الأعداد الكبيرة»

ينص قانون الأعداد الكبيرة رسميًا على أنه إذا كانت لدينا عينة من قيم مستقلة وموزعة توزيعًا متطابقًا فإن متوسط هذه العينة يقترب من المتوسط الحقيقي.
لا ملخص تعديل
لا ملخص تعديل
سطر 117: سطر 117:
     \sum_{k=1}^{\infty} \frac{1}{k^2} \operatorname{Var}[X_k] < \infty.
     \sum_{k=1}^{\infty} \frac{1}{k^2} \operatorname{Var}[X_k] < \infty.
</math>
</math>
يعرف هذا البيان باسم قانون كولموغوروف القوي، انظر على سبيل المثال Sen and Singer (1993 ، نظرية 2.3.10).
يعرف هذا البيان باسم قانون كولموغوروف القوي، انظر على سبيل المثال Sen and Singer (1993 ، نظرية 2.3.10).
===الاختلافات بين القانون الضعيف والقانون القوي===
ينص القانون الضعيف على أنه بالنسبة ل  ''n'' كبيرة محددة، من المحتمل أن يكون متوسط <math style="vertical-align:-.35em">\overline{X}_n</math> قريبا من ''μ''.<ref>{{Cite web |title=What Is the Law of Large Numbers? (Definition) {{!}} Built In |url=https://builtin.com/data-science/law-of-large-numbers |access-date=2023-10-20 |website=builtin.com |language=en}}</ref> وبالتالي ، فإنه يترك الباب مفتوحا أمام احتمال حدوث <math style="vertical-align:-.4em">|\overline{X}_n -\mu| > \varepsilon</math> عددا لا حصر له من المرات، وإن كان على فترات نادرة. (ليس بالضرورة <math style="vertical-align:-.4em">|\overline{X}_n -\mu| \neq 0</math> لجميع ''n'').
يظهر القانون القوي أن ذلك لن يحدث حدوثا شبه أكيد. ولا يعني هذا أنه مع الاحتمال 1، سنحصل على {{math|''ε'' > 0}} ولاينطبق عدم المساواة <math style="vertical-align:-.4em">|\overline{X}_n -\mu| < \varepsilon</math> على كل شيء كبير بما يكفي "n" ، لأن التقارب ليس بالضرورة موحدا في المجموعة التي يحمل فيها.<ref>{{harvtxt|Ross|2009}}</ref>
لايصمد القانون القوي في الحالات التالية، بينما يصمد القانون الضعيف.<ref name="Weak law converges to constant">{{cite book |last1=Lehmann |first1=Erich L. |last2=Romano |first2=Joseph P. |date=2006-03-30 |title=Weak law converges to constant |publisher=Springer |isbn=9780387276052 |url=https://books.google.com/books?id=K6t5qn-SEp8C&pg=PA432}}</ref><ref>{{cite journal| title=A Note on the Weak Law of Large Numbers for Exchangeable Random Variables |author1=Dguvl Hun Hong |author2=Sung Ho Lee |url=http://www.mathnet.or.kr/mathnet/kms_tex/31810.pdf |journal=Communications of the Korean Mathematical Society| volume=13|year=1998|issue=2|pages=385–391 |access-date=2014-06-28|archive-url=https://web.archive.org/web/20160701234328/http://www.mathnet.or.kr/mathnet/kms_tex/31810.pdf|archive-date=2016-07-01|url-status=dead}}</ref><!-- Stack Exchange is not a reliable source -->
{{ordered list
|1= لتكن قيمة X متغيرا عشوائيا موزعا أضعافا مضاعفة مع المعلمة 1. المتغير العشوائي <math>X</math> ليس له قيمة متوقعة وفقا لتكامل Lebesgue ، ولكن باستخدام التقارب الشرطي وتفسير التكامل على أنه تكامل ديريخليت ، وهو تكامل ريمان غير صحيح، يمكننا القول:
<math display="block"> E\left(\frac{\sin(X)e^X}{X}\right) =\ \int_{x=0}^{\infty}\frac{\sin(x)e^x}{x}e^{-x}dx = \frac{\pi}{2} </math>
|2= لتكن قيمة X متغير عشوائي موزع هندسيا مع احتمال 0.5. المتغير العشوائي <math>2^X(-1)^X X^{-1}</math> ليس له قيمة متوقعة بالمعنى التقليدي لأن السلسلة اللانهائية ليست متقاربة، ولكن باستخدام التقارب الشرطي، يمكننا القول:
<math display="block"> E\left(\frac{2^X(-1)^X}{X}\right) =\ \sum_{x=1}^{\infty}\frac{2^x(-1)^x}{x}2^{-x}=-\ln(2) </math>
|3= إذا كانت دالة التوزيع التراكمي لمتغير عشوائي هي
<math display="block">\begin{cases}
1-F(x)&=\frac{e}{2x\ln(x)},&x \ge e \\
F(x)&=\frac{e}{-2x\ln(-x)},&x \le -e
\end{cases}</math>
فلن يكون لها قيمة متوقعة ، لكن القانون الضعيف صحيح هنا.<ref>{{cite web|last1=Mukherjee|first1=Sayan|title=Law of large numbers| url=http://www.isds.duke.edu/courses/Fall09/sta205/lec/lln.pdf|access-date=2014-06-28|archive-url=https://web.archive.org/web/20130309032810/http://www.isds.duke.edu/courses/Fall09/sta205/lec/lln.pdf|archive-date=2013-03-09| url-status=dead}}</ref><ref>{{cite web|last1=J. Geyer|first1=Charles|title=Law of large numbers| url=http://www.stat.umn.edu/geyer/8112/notes/weaklaw.pdf}}</ref>
|4= لتكن قيمة''X''<sub>''k''</sub> موجبة أو سالبة <math display="inline">\sqrt{k/\log\log\log k}</math> (بدءا من قيمة "k" كبيرة بما فيه الكفاية بحيث يكون المقام موجبا) مع احتمالية {{frac|1|2}} لكل منها.<ref name=EMStrong/> تباين ''X''<sub>''k''</sub> سيكون <math>k/\log\log\log k.</math> لا ينطبق قانون كولموغوروف القوي لأن المجموع الجزئي في معياره يصل إلى "k"&nbsp;=&nbsp;"n" مقارب ل <math>\log n/\log\log\log n</math> وهذا غير محدود. إذا استبدلنا المتغيرات العشوائية بمتغيرات غاوسية لها نفس الفروق ، وهي <math display="inline">\sqrt{k/\log\log\log k}</math>,  بالتالي سيتوزع المتوسط في أي وقت توزيعا طبيعي.
سيميل عرض توزيع المتوسط نحو الصفر (الانحراف المعياري مقارب ل <math display="inline">1/\sqrt{2\log\log\log n}</math>)، ولكن بالنسبة ل ''ε'' معينة، هناك احتمال لا يصل إلى الصفر مع ''n''، في حين أن المتوسط في وقت ما بعد التجربة ''n'' سيعود إلى ''ε''. نظرا لأن عرض توزيع المتوسط ليس صفرا ، فيجب أن يكون له حد أدنى موجب ''p''(''ε'')، مما يعني أن هناك احتمالا على الأقل ب ''p''(''ε'') أن يصل المتوسط إلى ε بعد تجارب عدد تجارب ''n''. سيحدث مع الاحتمال ''p''(''ε'')/2 قبل بعض ''m'' والذي يعتمد على ''n''. وحتى بعد ''m''، لا يزال هناك احتمال على الأقل ''p''(''ε'') أنه سيحصل. (يبدو أن هذا يشير إلى أن ''p''(''ε'')=1 وسيصل المتوسط ε عدد لا حصر له من المرات.)
}}





مراجعة 15:27، 24 مايو 2024

يُعَدّ قانون الأعداد الكبيرة (LLN) في نظرية الاحتمالات نظرية رياضية تنص على أن متوسط النتائج المُحصَّلة من عدد كبير من العينات العشوائية المستقلة والمتطابقة يقترب من القيمة الحقيقية في حال وجودها.[1] ينص قانون الأعداد الكبيرة رسميًا على أنه إذا كانت لدينا عينة من قيم مستقلة وموزعة توزيعًا متطابقًا فإن متوسط هذه العينة يقترب من المتوسط الحقيقي.

إن قانون الأعداد الكبيرة مهم لأنه يضمن نتائج مستقرة على المدى الطويل لمتوسطات بعض الأحداث العشوائية.[1][2] ومن الأمثلة على ذلك: بينما قد يخسر الكازينو المال في دوران واحد لعجلة الروليت، فإن أرباحه ستميل إلى نسبة مئوية متوقعة على مدار عدد كبير من الدورات.

وإن أية سلسلة انتصارات يحققها لاعب ما ستتغلب عليها معايير اللعبة في نهاية المطاف. ومن المهم أن نعرف أيضا أن قانون الأعداد الكبيرة (كما يشير اسمه) ينطبق فقط عندما نأخذ في عين الاعتبار عددًا أكبر من الملاحظات.

لا يوجد مبدأ يقضي بأن يتطابق عدد قليل من الملاحظات مع القيمة المتوقعة أو أن تتوازن سلسلة من قيمة ما على الفور بالقيم الأخرى (انظر مغالطة المُقامر للاستزادة).

ينطبق قانون الأعداد الكبيرة فقط على متوسط نتائج التجارب المتكررة، ويدعي أن هذا المتوسط يتقارب مع القيمة المتوقعة؛ ولا يدعي أن مجموع عدد (n) من النتائج يقترب من القيمة المتوقعة مضروبة في (n) كلما ازدادت قيمة (n).

عمل العديد من علماء الرياضيات على تحسين هذا القانون على مدار تاريخه، ويُستخدم قانون الأعداد الكبيرة اليوم في العديد من المجالات بما في ذلك الإحصاء ونظرية الاحتمالات والاقتصاد والتأمين.[3]

أمثلة عن قانون الأعداد الكبيرة

ينتج عن رمية نرد واحدة واحد من الأرقام التالية (1، 2، 3، 4، 5، أو 6) ولكلّ منها احتمال مُتساوٍ. ولذلك فإنّ القيمة المتوقّعة لمعدّل الرمياتِ هي:

إذا رُمي عدد كبير من حجار النرد ذات الستة أوجه، فإن متوسط قيمها (الذي يُسمى أحيانًا بالمتوسط العيني) سيقترب من 3.5، وتزداد هذه الدقة كلما زاد عدد النرد المُلقاة.

ينص قانون الأعداد الكبيرة على أن الاحتمال التجريبي للنجاح في سلسلة من تجارب بِرنولي سيتقارب مع الاحتمال النظري. بالنسبة لمتغير عشوائي برنولي، فإن القيمة المتوقعة هي الاحتمال النظري للنجاح، ومتوسط (n) من هذه المتغيرات (على افتراض أنها مستقلة ومتطابقة التوزيع) هو بالضبط التكرار النسبي.

على سبيل المثال، يُعدُّ رمي العملة تجربة بيرنولية. عندما تُقلب عملة عادلة مرة واحدة، فإن الاحتمال النظري لظهور الوجه الأمامي يساوي 12.

لذلك، ووفقًا لقانون الأعداد الكبيرة، يجب أن تكون نسبة ظهور الوجه الأمامي في عدد "كبير" من رميات العملة حوالي 12. وبوجه خاص، فإن نسبة ظهور الوجه الأمامي بعد (n) رمية ستتقارب بالتأكيد إلى 12 عندما يقترب (n) من اللانهاية.

على الرغم من أن نسبة كل من الوجه والظهر تقترب من 12، فإن الفرق المطلق بين عدد مرات الوجه وعدد مرات الظهر سيصبح كبيرًا تقريبًا على الأكيد كلما ازداد عدد الرميات. أي أن احتمال أن يكون الفرق المطلق عددًا صغيرًا يقترب من الصفر مع زيادة عدد الرميات.

كذلك، من المؤكد تقريبًا أن نسبة الفرق المطلق إلى عدد الرميات ستقترب من الصفر. بعبارة أخرى، فإن الفرق المتوقع سيكبر، ولكن بمعدل أبطأ من معدل زيادة عدد الرميات.

مثال آخر جيد على قانون الأعداد الكبيرة هو طريقة مونت كارلو. تمثل هذه الطرق فئة واسعة من الخوارزميات الحسابية التي تعتمد على أخذ عينات عشوائية متكررة للحصول على نتائج عددية. تزداد دقة التقريب بزيادة عدد التكرارات.

تكمن أهمية هذه الطريقة في أنه في بعض الأحيان قد يكون من الصعب أو المستحيل استخدام طرق أخرى.[4]

محدودية قانون الأعداد الكبيرة

قد لا يؤول متوسط نتائج عدد كبير من التجارب في بعض الحالات إلى التقارب. على سبيل المثال، لن يؤول متوسط "n" نتيجة مأخوذة من توزيع كوشي أو بعض توزيعات باريتو (α<1) إلى التقارب بزيادة n. والسبب في ذلك هو ذيول التوزيع الثقيلة.[5]

تُمثل توزيعات كوشي وبريتو حالتين: الحالة الأولى لايوجد قيمة متوقعة لتوزيع كوشي،[6] بينما تكون قيمة توقع توزيع بريتو (α<1) لا نهائية.[7] هناك طريقة واحدة لتوليد مثال يتبع توزيع كوشي وهي عندما تساوي الأرقام العشوائية مماس (ظل) الزاوية موحدة التوزيع بين −90° و +90°.[8] الوسيط هو صفر، لكن القيمة المتوقعة غير موجودة، وبالفعل متوسط "n" من هذه المتغيرات له نفس توزيع أحد هذه المتغيرات. لا يتقارب في الاحتمال نحو الصفر (أو أي قيمة أخرى) حيث يتجه "n" إلى ما لا نهاية.

وإذا كانت التجارب تتضمن تحيزا في الاختيار ، الحالة النموذجية في السلوك الاقتصادي / العقلاني البشري، فإن قانون الأعداد الكبيرة لا يساعد في حل التحيز. وحتى إذا زاد عدد المحاكمات، فإن التحيز في الاختيار لا يزال قائما.

تاريخ قانون الأعداد الكبيرة

يُقال إن عالم الرياضيات الإيطالي جيرولامو كاردانو (1501-1576) صرح بدون إثبات بأن دقة الإحصائيات التجريبية تميل إلى التحسن مع زيادة عدد التجارب.[9][3] صيغ هذا لاحقًا على أنه قانون الأعداد الكبيرة.

كان يعقوب بيرنولي أول من أثبت شكلاً خاصًا لقانون الأعداد الكبيرة (لمتغير عشوائي ثنائي).[10][3] استغرق الأمر منه أكثر من 20 عامًا لتطوير برهان رياضي صارم كافٍ نُشر في كتابه "فن التخمين" (Ars Conjectandi) عام 1713. أطلق عليه اسم "المبرهنة الذهبية" ولكنه أصبح يُعرف عمومًا باسم "مبرهنة بيرنولي". لا ينبغي الخلط بين هذا وبين مبدأ برنولي، الذي سمي على اسم ابن شقيق يعقوب بيرنولي، دانيال بيرنولي.

في عام 1837، وصفه سيميون دينيس بواسون (S. D. Poisson) أيضًا تحت اسم "قانون الأعداد الكبيرة" (la loi des grands nombres).[11][12][3] ومنذ ذلك الحين، أصبح يُعرف بكلتا التسميتين، لكن اسم "قانون الأعداد الكبيرة" هو السائد.

أشكال قانون الأعداد الكبيرة

يوجد نوعان مختلفان لقانون الأعداد الكبيرة: يُسمى الأول قانون الأعداد الكبيرة القوي، والثاني قانون الأعداد الكبيرة الضعيف.[13][1]

بفرض أن X1, X2... تمثل متسلسلة لا نهائية من المتغيرات العشوائية القابلة للتكامل (تكامل لوبيغ) والمستقلة والموزعة توزيعًا متطابقًا مع قيمة متوقعة E(X1) = E(X2) = ... = μ، ينص كلا الشكلين من القانون على أن متوسط العينة:

يتقارب إلى القيمة المتوقعة:

 

 

 

 

(1)

(تعني قابلية تكامل لوبيغ ل Xj أن القيمة المتوقعة E(Xj موجودة وفقا لتكامل لوبيغ وهي محدودة. ولا يعني هذا أن مقياس الاحتمال المرتبط مستمر فيما يتعلق بمقياس لوبيغ.)

غالبا ما تفترض نصوص الاحتمالات التمهيدية تباينا محدودا متطابقا (لجميع ) ولا يوجد ارتباط بين المتغيرات العشوائية. في هذه الحالة ، يكون تباين متوسط المتغيرات العشوائية n:

والتي يمكن استخدامها لاختصار وإيجاز الإثباتات، ولا يلزم افتراض التباين النهائي، إذ إن التباين الكبير أو اللانهائي سيجعل التقارب أبطأ، ولكن قانون الأعداد الكبيرة (LLN) يظل قائما على أي حال.[14]

يمكن استبدال الاستقلال المتبادل للمتغيرات العشوائية بالاستقلال الزوجي [15] أو قابلية التبادل[16] في كلا شكلي قانون الأعداد الكبيرة.

يختص الفرق بين الشكل القوي والشكل الضعيف بنمط التقارب الذي يؤكد عليه. لمعرفة تفسير هذه الأنماط، راجع تقارب المتغيرات العشوائية.

القانون الضعيف

محاكاة توضح قانون الأعداد الكبيرة. تُقلب عملة معدنية حمراء من جانب وزرقاء من الجانب الآخر في كل إطار، وتضاف نقطة في العمود المقابل. يوضح المخطط الدائري نسبة اللونين الأحمر والأزرق. لاحظ أنه على الرغم من أن النسبة تختلف اختلافا كبيرا في البداية، إلا أنها تقترب من 50٪ مع زيادة عدد التجارب.

ينص القانون الضعيف للأعداد الكبيرة (ويسمى أيضا قانون خينشين) على أنه بالنظر إلى مجموعة من عينات متغيرات مستقلة ومتشابهة التوزيع من متغير عشوائي بمتوسط محدود، فإن متوسط العينة يتقارب في الاحتمال مع القيمة المتوقعة[17]

 

 

 

 

(2)

وهذا هو ، لأي رقم موجب ε،

بتفسير هذه النتيجة، ينص القانون الضعيف على أنه بالنسبة لأي هامش غير صفري محدد (ε)، مهما كان صغيرا، مع عينة كبيرة بما فيه الكفاية، سيكون هناك احتمال كبير جدا أن يكون متوسط الملاحظات قريبا من القيمة المتوقعة. وهذا هو داخل الهامش.

كما ذُكر سابقًا، لاينطبق قانون الضعف الكبير على المتغيرات العشوائية المستقلة والمتشابهة التوزيع فقط، ولكنه ينطبق أيضًا في بعض الحالات الأخرى. على سبيل المثال، يمكن أن يختلف التباين لكل متغير عشوائي في السلسلة، مع الحفاظ على قيمة متوقع ثابتة.

إذا كانت التباينات محدودة، فإن القانون ينطبق، كما هو أوضحه بافنوتي تشيبيشيف عام 1867. (إذا تغيرت القيم المتوقعة خلال السلسلة، فيمكننا ببساطة تطبيق القانون على متوسط الانحراف عن القيم المتوقعة المعنية. ثم ينص القانون على أن هذا التقارب يميل الاحتمال نحو الصفر.) ودليل بافنوتي تشيبيشيف صحيح طالما أن تباين متوسط قيم n الأولى يتجه إلى الصفر كلما اتجه n إلى ما لا نهاية.[18]

على سبيل المثال، افترض أن كل متغير عشوائي في السلسلة يتبع توزيع احتمالي طبيعي (أو توزيع غاوس) بمتوسط صفر، لكن مع تباين يساوي وهو غير محدود. سيوزع المتوسط في كل مرحلة طبيعيا (كمتوسط لمجموعة من المتغيرات الموزعة عادة). تباين المجموع يساوي مجموع الفروق، وهو مقارب ل . وبالتالي فإن تباين المتوسط مقارب ل ويتجه إلى الصفر.

هناك أيضا أمثلة على القانون الضعيف المطبق على الرغم من عدم وجود قيم متوقعة.

القانون القوي

ينص القانون القوي للأعداد الكبيرة (ويسمى أيضا قانون أندريه كولموغوروف) على أن متوسط العينة يتقارب تقاربًا شبه مؤكد مع القيمة المتوقعة:[19]

 

 

 

 

(3)

وهي:

ما يعنيه هذا هو أن الاحتمال، حيث أن عدد التجارب n يتجه إلى ما لا نهاية، فإن متوسط الملاحظات يتقارب مع القيمة المتوقعة، يساوي واحدا. يعد البرهان الحديث على القانون القوي أكثر تعقيدا من القانون الضعيف، ويعتمد على الانتقال إلى تسلسل فرعي مناسب.[14]

يمكن اعتبار القانون القوي للأعداد الكبيرة في حد ذاته حالة خاصة لنظرية إرجوديك النقطية. يبرر هذا الرأي التفسير البدهي للقيمة المتوقعة (لتكامل لوبيغ فقط) لمتغير عشوائي عند أخذ عينات متكررة على أنه "المتوسط طويل الأجل".

يسمى القانون 3 القانون القوي لأن المتغيرات العشوائية التي تتقارب بقوة (تقاربًا شبه مؤكد) مضمونة لتتقارب تقاربا ضعيفا (في الاحتمال). ومع ذلك، فإنه من المعروف أن القانون الضعيف يصمد في ظروف معينة حيث لا يصمد القانون القوي ومن ثم يكون التقارب ضعيفا فقط (في الاحتمال).

ينطبق القانون القوي على المتغيرات العشوائية المستقلة الموزعة توزيعا متطابقا والتي لها قيمة متوقعة (مثل القانون الضعيف). وقد أثبت كولموغوروف ذلك في عام 1930. كما يمكن أن ينطبق أيضا في حالات أخرى.

أظهر كولموغوروف في عام 1933 أيضا، أنه إذا كانت المتغيرات مستقلة وموزعة توزيعا متطابقا، فليتقارب المتوسط تقاربا شبه مؤكد على شيء ما (يمكن اعتبار هذا بيانا آخر للقانون القوي)، يجب أن يكون له قيمة متوقعة (وبعد ذلك، بالطبع، سيتقارب المتوسط تقاربا شبه مؤكد بناءا على ذلك).[20]

إذا كانت الملخصات مستقلة ولكنها ليست موزعة توزيعًا متطابقًا، فبالتالي:

 

 

 

 

(2)

شريطة أن يكون لكل Xk عزم ثان محدود و

يعرف هذا البيان باسم قانون كولموغوروف القوي، انظر على سبيل المثال Sen and Singer (1993 ، نظرية 2.3.10).

الاختلافات بين القانون الضعيف والقانون القوي

ينص القانون الضعيف على أنه بالنسبة ل n كبيرة محددة، من المحتمل أن يكون متوسط قريبا من μ.[21] وبالتالي ، فإنه يترك الباب مفتوحا أمام احتمال حدوث عددا لا حصر له من المرات، وإن كان على فترات نادرة. (ليس بالضرورة لجميع n).

يظهر القانون القوي أن ذلك لن يحدث حدوثا شبه أكيد. ولا يعني هذا أنه مع الاحتمال 1، سنحصل على ε > 0 ولاينطبق عدم المساواة على كل شيء كبير بما يكفي "n" ، لأن التقارب ليس بالضرورة موحدا في المجموعة التي يحمل فيها.[22]

لايصمد القانون القوي في الحالات التالية، بينما يصمد القانون الضعيف.[23][24]

  1. لتكن قيمة X متغيرا عشوائيا موزعا أضعافا مضاعفة مع المعلمة 1. المتغير العشوائي ليس له قيمة متوقعة وفقا لتكامل Lebesgue ، ولكن باستخدام التقارب الشرطي وتفسير التكامل على أنه تكامل ديريخليت ، وهو تكامل ريمان غير صحيح، يمكننا القول:
  2. لتكن قيمة X متغير عشوائي موزع هندسيا مع احتمال 0.5. المتغير العشوائي ليس له قيمة متوقعة بالمعنى التقليدي لأن السلسلة اللانهائية ليست متقاربة، ولكن باستخدام التقارب الشرطي، يمكننا القول:
  3. إذا كانت دالة التوزيع التراكمي لمتغير عشوائي هي
    فلن يكون لها قيمة متوقعة ، لكن القانون الضعيف صحيح هنا.[25][26]
  4. لتكن قيمةXk موجبة أو سالبة (بدءا من قيمة "k" كبيرة بما فيه الكفاية بحيث يكون المقام موجبا) مع احتمالية 12 لكل منها.[20] تباين Xk سيكون لا ينطبق قانون كولموغوروف القوي لأن المجموع الجزئي في معياره يصل إلى "k" = "n" مقارب ل وهذا غير محدود. إذا استبدلنا المتغيرات العشوائية بمتغيرات غاوسية لها نفس الفروق ، وهي , بالتالي سيتوزع المتوسط في أي وقت توزيعا طبيعي. سيميل عرض توزيع المتوسط نحو الصفر (الانحراف المعياري مقارب ل )، ولكن بالنسبة ل ε معينة، هناك احتمال لا يصل إلى الصفر مع n، في حين أن المتوسط في وقت ما بعد التجربة n سيعود إلى ε. نظرا لأن عرض توزيع المتوسط ليس صفرا ، فيجب أن يكون له حد أدنى موجب p(ε)، مما يعني أن هناك احتمالا على الأقل ب p(ε) أن يصل المتوسط إلى ε بعد تجارب عدد تجارب n. سيحدث مع الاحتمال p(ε)/2 قبل بعض m والذي يعتمد على n. وحتى بعد m، لا يزال هناك احتمال على الأقل p(ε) أنه سيحصل. (يبدو أن هذا يشير إلى أن p(ε)=1 وسيصل المتوسط ε عدد لا حصر له من المرات.)


المصادر

  • Grimmett، G. R.؛ Stirzaker، D. R. (1992). Probability and Random Processes (ط. 2nd). Oxford: Clarendon Press. ISBN:0-19-853665-8.
  • Durrett، Richard (1995). Probability: Theory and Examples (ط. 2nd). Duxbury Press.
  • Martin Jacobsen (1992). Videregående Sandsynlighedsregning [Advanced Probability Theory] (بالدنماركية) (3rd ed.). Copenhagen: HCØ-tryk. ISBN:87-91180-71-6.
  • Loève، Michel (1977). Probability theory 1 (ط. 4th). Springer.
  • Newey، Whitney K.؛ McFadden، Daniel (1994). "36". Large sample estimation and hypothesis testing. Handbook of econometrics. Elsevier Science. ج. IV. ص. 2111–2245.
  • Ross، Sheldon (2009). A first course in probability (ط. 8th). Prentice Hall. ISBN:978-0-13-603313-4.
  • Sen، P. K؛ Singer، J. M. (1993). Large sample methods in statistics. Chapman & Hall.
  • Seneta، Eugene (2013). "A Tricentenary history of the Law of Large Numbers". Bernoulli. ج. 19 ع. 4: 1088–1121. arXiv:1309.6488. DOI:10.3150/12-BEJSP12. S2CID:88520834.

المراجع

  1. 1٫0 1٫1 1٫2 Dekking، Michel (2005). A Modern Introduction to Probability and Statistics. Springer. ص. 181–190. ISBN:9781852338961.
  2. Yao، Kai؛ Gao، Jinwu (2016). "Law of Large Numbers for Uncertain Random Variables". IEEE Transactions on Fuzzy Systems. ج. 24 ع. 3: 615–621. DOI:10.1109/TFUZZ.2015.2466080. ISSN:1063-6706. S2CID:2238905.
  3. 3٫0 3٫1 3٫2 3٫3 Sedor، Kelly. "The Law of Large Numbers and its Applications" (PDF).
  4. Kroese, Dirk P.; Brereton, Tim; Taimre, Thomas; Botev, Zdravko I. (2014). "Why the Monte Carlo method is so important today". Wiley Interdisciplinary Reviews: Computational Statistics (بEnglish). 6 (6): 386–392. DOI:10.1002/wics.1314. S2CID:18521840.
  5. Dekking، Michel، المحرر (2005). A modern introduction to probability and statistics: understandig why and how. Springer texts in statistics. London [Heidelberg]: Springer. ص. 187. ISBN:978-1-85233-896-1.
  6. Dekking، Michel (2005). A Modern Introduction to Probability and Statistics. Springer. ص. 92. ISBN:9781852338961.
  7. Dekking، Michel (2005). A Modern Introduction to Probability and Statistics. Springer. ص. 63. ISBN:9781852338961.
  8. Pitman، E. J. G.؛ Williams، E. J. (1967). "Cauchy-Distributed Functions of Cauchy Variates". The Annals of Mathematical Statistics. ج. 38 ع. 3: 916–918. DOI:10.1214/aoms/1177698885. ISSN:0003-4851. JSTOR:2239008.
  9. Mlodinow، L. (2008). The Drunkard's Walk. New York: Random House. ص. 50.
  10. Bernoulli, Jakob (1713). "4". Ars Conjectandi: Usum & Applicationem Praecedentis Doctrinae in Civilibus, Moralibus & Oeconomicis (بLatina). Translated by Sheynin, Oscar.
  11. Poisson names the "law of large numbers" (la loi des grands nombres) in: Poisson, S. D. (1837). Probabilité des jugements en matière criminelle et en matière civile, précédées des règles générales du calcul des probabilitiés (بfrançais). Paris, France: Bachelier. p. 7. He attempts a two-part proof of the law on pp. 139–143 and pp. 277 ff.
  12. Hacking، Ian (1983). "19th-century Cracks in the Concept of Determinism". Journal of the History of Ideas. ج. 44 ع. 3: 455–475. DOI:10.2307/2709176. JSTOR:2709176.
  13. Bhattacharya، Rabi؛ Lin، Lizhen؛ Patrangenaru، Victor (2016). A Course in Mathematical Statistics and Large Sample Theory. Springer Texts in Statistics. New York, NY: Springer New York. DOI:10.1007/978-1-4939-4032-5. ISBN:978-1-4939-4030-1.
  14. 14٫0 14٫1 "The strong law of large numbers – What's new". Terrytao.wordpress.com. 19 يونيو 2008. اطلع عليه بتاريخ 2012-06-09.
  15. Etemadi، N. Z. (1981). "An elementary proof of the strong law of large numbers". Wahrscheinlichkeitstheorie Verw Gebiete. ج. 55 ع. 1: 119–122. DOI:10.1007/BF01013465. S2CID:122166046.
  16. Kingman, J. F. C. (Apr 1978). "Uses of Exchangeability". The Annals of Probability (بEnglish). 6 (2). DOI:10.1214/aop/1176995566. ISSN:0091-1798.
  17. Loève 1977، Chapter 1.4, p. 14
  18. خطأ استشهاد: وسم <ref> غير صحيح؛ لا نص تم توفيره للمراجع المسماة EncMath
  19. Loève 1977، Chapter 17.3, p. 251
  20. 20٫0 20٫1 Yuri Prokhorov. "Strong law of large numbers". Encyclopedia of Mathematics.
  21. "What Is the Law of Large Numbers? (Definition) | Built In". builtin.com (بEnglish). Retrieved 2023-10-20.
  22. Ross (2009)
  23. Lehmann، Erich L.؛ Romano، Joseph P. (30 مارس 2006). Weak law converges to constant. Springer. ISBN:9780387276052.
  24. Dguvl Hun Hong؛ Sung Ho Lee (1998). "A Note on the Weak Law of Large Numbers for Exchangeable Random Variables" (PDF). Communications of the Korean Mathematical Society. ج. 13 ع. 2: 385–391. مؤرشف من الأصل (PDF) في 2016-07-01. اطلع عليه بتاريخ 2014-06-28.
  25. Mukherjee، Sayan. "Law of large numbers" (PDF). مؤرشف من الأصل (PDF) في 2013-03-09. اطلع عليه بتاريخ 2014-06-28.
  26. J. Geyer، Charles. "Law of large numbers" (PDF).