تبديل القائمة
تبديل القائمة الشخصية
غير مسجل للدخول
سيكون عنوان الآيبي الخاص بك مرئيًا للعامة إذا قمت بإجراء أي تعديلات.

الفرق بين المراجعتين لصفحة: «آلة التعلم القصوى»

اآلة التعلم القصوى هي نوع من الشبكات العصبونية ذات تغذية أمامية، تتميز بقدراتها الممتازة في العديد من المهام مثل التصنيف والانحدار والتجميع والتقريب المتفرق والضغط وتعلم الميزات.
(أنشأ الصفحة ب'{{كاتب الصفحة}} تصغير|يسار|بديل=آلة التعلم القصوى| مشهد تخيلي لآلة التعلم القصوى، صورة مولدة بالذكاء الصنعي '''آلة التعلم القصوى''' {{إنج|Extreme learning machine}} واختصارها (ELM) هي نوع من الشبكات العصبونية ذات التغذية الأمامية التي تتميز بقدراته...')
 
لا ملخص تعديل
سطر 2: سطر 2:
[[ملف:آلة_التعلم_القصوى.webp|تصغير|يسار|بديل=آلة التعلم القصوى| مشهد تخيلي لآلة التعلم القصوى، صورة مولدة بالذكاء الصنعي]]
[[ملف:آلة_التعلم_القصوى.webp|تصغير|يسار|بديل=آلة التعلم القصوى| مشهد تخيلي لآلة التعلم القصوى، صورة مولدة بالذكاء الصنعي]]


'''آلة التعلم القصوى''' {{إنج|Extreme learning machine}} واختصارها (ELM) هي نوع من الشبكات العصبونية ذات التغذية الأمامية التي تتميز بقدراتها الممتازة في العديد من المهام مثل التصنيف والانحدار والتجميع والتقريب المتفرق والضغط وتعلم الميزات. تستخدم هذه الآلات طبقة واحدة أو طبقات متعددة خفية، حيث تتطلب معلمات العُقد الخفية (وليس فقط الأوزان) ضبطًا. يسمح هذا النهج الفريد لآلات التعلم القصوى بتحقيق تعلم فعال ويتفوق في كثير من الأحيان على الشبكات العصبونية التقليدية.
'''آلة التعلم القصوى''' {{إنج|Extreme learning machine}} واختصارها (ELM) هي نوع من الشبكات العصبونية ذات التغذية الأمامية التي تتميز بقدراتها الممتازة في العديد من المهام مثل التصنيف والانحدار والتجميع والتقريب المتفرق والضغط وتعلم الميزات.
 
تستخدم هذه الآلات طبقة واحدة أو طبقات متعددة خفية، حيث تتطلب معلمات العُقد الخفية (وليس فقط الأوزان) ضبطًا. يسمح هذا النهج الفريد لآلات التعلم القصوى بتحقيق تعلم فعال ويتفوق في كثير من الأحيان على الشبكات العصبونية التقليدية.
 
يمكن تعيين هذه العقد الخفية عشوائيًا وعدم تحديثها مطلقًا (أي أنها عبارة عن إسقاط عشوائي ولكن مع تحويلات غير خطية)، أو يمكن توريثها من أسلافها دون تغييرها.
 
يتم عادةً تعلم الأوزان الخارجة للعُقد الخفية في خطوة واحدة، ما يمثل في الأساس تدريبًا لنموذج خطي.
 
آلات التعلم العميق القصوى هي مصطلح صاغه غوانغ-بين هوانغ {{إنج|Guang-Bin Huang}} لوصف هذه النماذج، والتي اقترحها في الأصل للشبكات العصبونية مع أي نوع من العُقد الخفية اللاخطية المستمرة، بما في ذلك الخلايا العصبية البيولوجية وأنواع مختلفة من الدوال الرياضية الأساسية.<ref name=":0" /><ref>{{Cite journal|last=Huang|first=Guang-Bin|date=2014|title=An Insight into Extreme Learning Machines: Random Neurons, Random Features and Kernels|url=http://www.ntu.edu.sg/home/egbhuang/pdf/ELM-Randomness-Kernel.pdf|journal=Cognitive Computation|volume=6|issue=3|pages=376–390|doi=10.1007/s12559-014-9255-2|s2cid=7419259}}</ref>
 
 
يمكن إرجاع مفهوم الشبكات العصبونية الاصطناعية إلى فرانك روزنبلات{{إنج|Frank Rosenblatt}}، الذي لم يقدم فقط البيرسيبترون {{إنج|Perceptron}} ذي الطبقة الواحدة في عام 1958، بل قدم أيضًا بيرسيبترون متعدد الطبقات، وهي شبكة مكونة من ثلاث طبقات: طبقة الإدخال، طبقة خفية ذات أوزان عشوائيًا تظل ثابتة أثناء التدريب، وطبقة الإخراج التعلمي.<ref>{{cite journal|last=Rosenblatt|first=Frank|author-link=Frank Rosenblatt|title=The Perceptron: A Probabilistic Model For Information Storage And Organization in the Brain|journal=Psychological Review|year=1958|volume=65|pages=386–408|doi=10.1037/h0042519|pmid=13602029|issue=6|citeseerx=10.1.1.588.3775|s2cid=12781225 }}</ref><ref name="rosenblatt1962">{{cite book|last=Rosenblatt|first=Frank|author-link=Frank Rosenblatt|title=Principles of Neurodynamics|year=1962|publisher=Spartan, New York}}</ref>
 
أظهرت الدراسات أن هذه النماذج قادرة على تحقيق تعميم أفضل وتعلم بمعدلات أسرع بآلاف المرات من الشبكات المستندة إلى الانتشار العكسي. بالإضافة إلى ذلك، أُثبت تفوقها على آلات المتجهات الداعمة في كل من مهام التصنيف والانحدار.<ref>{{cite journal |last1=Huang |first1=Guang-Bin |first2=Qin-Yu |last2=Zhu |first3=Chee-Kheong |last3=Siew |title=Extreme learning machine: theory and applications |journal=Neurocomputing |volume=70 |issue=1 |year=2006 |pages=489–501 |doi=10.1016/j.neucom.2005.12.126 |citeseerx=10.1.1.217.3692|s2cid=116858 }}</ref><ref name=":4">{{Cite journal|last=Huang|first=Guang-Bin; Hongming Zhou; Xiaojian Ding; and Rui Zhang|date=2012|title=Extreme Learning Machine for Regression and Multiclass Classification|url=http://www.ntu.edu.sg/home/egbhuang/pdf/ELM-Unified-Learning.pdf|journal=IEEE Transactions on Systems, Man, and Cybernetics - Part B: Cybernetics|volume=42|issue=2|pages=513–529|doi=10.1109/tsmcb.2011.2168604|pmid=21984515|citeseerx=10.1.1.298.1213|s2cid=15037168|access-date=2017-08-19|archive-date=2017-08-29|archive-url=https://web.archive.org/web/20170829025814/http://www.ntu.edu.sg/home/egbhuang/pdf/ELM-Unified-Learning.pdf|url-status=dead}}</ref><ref name=":0" /><ref>{{Cite journal|last=Huang|first=Guang-Bin|date=2014|title=An Insight into Extreme Learning Machines: Random Neurons, Random Features and Kernels|url=http://www.ntu.edu.sg/home/egbhuang/pdf/ELM-Randomness-Kernel.pdf|journal=Cognitive Computation|volume=6|issue=3|pages=376–390|doi=10.1007/s12559-014-9255-2|s2cid=7419259}}</ref>
 
 
 


==تاريخ آلة التعلم القصوى==
==تاريخ آلة التعلم القصوى==

مراجعة 19:58، 21 سبتمبر 2024

آلة التعلم القصوى
مشهد تخيلي لآلة التعلم القصوى، صورة مولدة بالذكاء الصنعي

آلة التعلم القصوى (بالإنجليزية: Extreme learning machine)‏ واختصارها (ELM) هي نوع من الشبكات العصبونية ذات التغذية الأمامية التي تتميز بقدراتها الممتازة في العديد من المهام مثل التصنيف والانحدار والتجميع والتقريب المتفرق والضغط وتعلم الميزات.

تستخدم هذه الآلات طبقة واحدة أو طبقات متعددة خفية، حيث تتطلب معلمات العُقد الخفية (وليس فقط الأوزان) ضبطًا. يسمح هذا النهج الفريد لآلات التعلم القصوى بتحقيق تعلم فعال ويتفوق في كثير من الأحيان على الشبكات العصبونية التقليدية.

يمكن تعيين هذه العقد الخفية عشوائيًا وعدم تحديثها مطلقًا (أي أنها عبارة عن إسقاط عشوائي ولكن مع تحويلات غير خطية)، أو يمكن توريثها من أسلافها دون تغييرها.

يتم عادةً تعلم الأوزان الخارجة للعُقد الخفية في خطوة واحدة، ما يمثل في الأساس تدريبًا لنموذج خطي.

آلات التعلم العميق القصوى هي مصطلح صاغه غوانغ-بين هوانغ (بالإنجليزية: Guang-Bin Huang)‏ لوصف هذه النماذج، والتي اقترحها في الأصل للشبكات العصبونية مع أي نوع من العُقد الخفية اللاخطية المستمرة، بما في ذلك الخلايا العصبية البيولوجية وأنواع مختلفة من الدوال الرياضية الأساسية.[1][2]


يمكن إرجاع مفهوم الشبكات العصبونية الاصطناعية إلى فرانك روزنبلات(بالإنجليزية: Frank Rosenblatt)‏، الذي لم يقدم فقط البيرسيبترون (بالإنجليزية: Perceptron)‏ ذي الطبقة الواحدة في عام 1958، بل قدم أيضًا بيرسيبترون متعدد الطبقات، وهي شبكة مكونة من ثلاث طبقات: طبقة الإدخال، طبقة خفية ذات أوزان عشوائيًا تظل ثابتة أثناء التدريب، وطبقة الإخراج التعلمي.[3][4]

أظهرت الدراسات أن هذه النماذج قادرة على تحقيق تعميم أفضل وتعلم بمعدلات أسرع بآلاف المرات من الشبكات المستندة إلى الانتشار العكسي. بالإضافة إلى ذلك، أُثبت تفوقها على آلات المتجهات الداعمة في كل من مهام التصنيف والانحدار.[5][6][1][7]



تاريخ آلة التعلم القصوى

خوارزميات آلة التعلم القصوى

بُنى آلة التعلم القصوى

نظريات

القدرة على التقريب الشامل

القدرة على التصنيف

العصبونات

المجال الحقيقي

المجال المعقد

الاعتمادية

الجدل حول آلة التعلم القصوى

المراجع

  1. 1٫0 1٫1 خطأ استشهاد: وسم <ref> غير صحيح؛ لا نص تم توفيره للمراجع المسماة :0
  2. Huang، Guang-Bin (2014). "An Insight into Extreme Learning Machines: Random Neurons, Random Features and Kernels" (PDF). Cognitive Computation. ج. 6 ع. 3: 376–390. DOI:10.1007/s12559-014-9255-2. S2CID:7419259.
  3. Rosenblatt، Frank (1958). "The Perceptron: A Probabilistic Model For Information Storage And Organization in the Brain". Psychological Review. ج. 65 ع. 6: 386–408. CiteSeerX:10.1.1.588.3775. DOI:10.1037/h0042519. PMID:13602029. S2CID:12781225.
  4. Rosenblatt، Frank (1962). Principles of Neurodynamics. Spartan, New York.
  5. Huang، Guang-Bin؛ Zhu، Qin-Yu؛ Siew، Chee-Kheong (2006). "Extreme learning machine: theory and applications". Neurocomputing. ج. 70 ع. 1: 489–501. CiteSeerX:10.1.1.217.3692. DOI:10.1016/j.neucom.2005.12.126. S2CID:116858.
  6. Huang، Guang-Bin; Hongming Zhou; Xiaojian Ding; and Rui Zhang (2012). "Extreme Learning Machine for Regression and Multiclass Classification" (PDF). IEEE Transactions on Systems, Man, and Cybernetics - Part B: Cybernetics. ج. 42 ع. 2: 513–529. CiteSeerX:10.1.1.298.1213. DOI:10.1109/tsmcb.2011.2168604. PMID:21984515. S2CID:15037168. مؤرشف من الأصل (PDF) في 2017-08-29. اطلع عليه بتاريخ 2017-08-19.
  7. Huang، Guang-Bin (2014). "An Insight into Extreme Learning Machines: Random Neurons, Random Features and Kernels" (PDF). Cognitive Computation. ج. 6 ع. 3: 376–390. DOI:10.1007/s12559-014-9255-2. S2CID:7419259.