تبديل القائمة
تبديل القائمة الشخصية
غير مسجل للدخول
سيكون عنوان الآيبي الخاص بك مرئيًا للعامة إذا قمت بإجراء أي تعديلات.

الفرق بين المراجعتين لصفحة: «آلة التعلم القصوى»

اآلة التعلم القصوى هي نوع من الشبكات العصبونية ذات تغذية أمامية، تتميز بقدراتها الممتازة في العديد من المهام مثل التصنيف والانحدار والتجميع والتقريب المتفرق والضغط وتعلم الميزات.
لا ملخص تعديل
سطر 29: سطر 29:
علاوة على ذلك، توفر آلة التعلم القصوى نواة "الصندوق الأبيض"، الذي يُنفّذ من خلال تعيين الميزات العشوائية لآلة التعلم القصوى، على عكس نواة "الصندوق الأسود" المستخدمة في شعاع الدعم الآلي {{إنج|Support vector machine}} (SVM). يمكن اعتبار {{إنج|Principal component analysis}} (PCA) وعامل المصفوفة غير السلبية (NMF) حالات خاصة تستخدم عقدًا خفية خطية.<ref>{{Cite journal|last=He|first=Qing, Xin Jin, Changying Du, Fuzhen Zhuang, Zhongzhi Shi|date=2014|title=Clustering in Extreme Learning Machine Feature Space|url=http://www.intsci.ac.cn/users/jinxin/Mypapers/ELM-Neurocomputing-2013.pdf|journal=Neurocomputing|volume=128|pages=88–95|doi=10.1016/j.neucom.2012.12.063|s2cid=30906342 }}</ref><ref>{{Cite journal|last=Kasun|first=Liyanaarachchi Lekamalage Chamara, Yan Yang, Guang-Bin Huang, and Zhengyou Zhang|date=2016|title=Dimension Reduction With Extreme Learning Machine|url=http://www.ntu.edu.sg/home/egbhuang/pdf/ELM-Dimensionality-Reduction.pdf|journal=IEEE Transactions on Image Processing|volume=25|issue=8|pages=3906–3918|doi=10.1109/tip.2016.2570569|pmid=27214902|bibcode=2016ITIP...25.3906K|s2cid=1803922}}</ref>
علاوة على ذلك، توفر آلة التعلم القصوى نواة "الصندوق الأبيض"، الذي يُنفّذ من خلال تعيين الميزات العشوائية لآلة التعلم القصوى، على عكس نواة "الصندوق الأسود" المستخدمة في شعاع الدعم الآلي {{إنج|Support vector machine}} (SVM). يمكن اعتبار {{إنج|Principal component analysis}} (PCA) وعامل المصفوفة غير السلبية (NMF) حالات خاصة تستخدم عقدًا خفية خطية.<ref>{{Cite journal|last=He|first=Qing, Xin Jin, Changying Du, Fuzhen Zhuang, Zhongzhi Shi|date=2014|title=Clustering in Extreme Learning Machine Feature Space|url=http://www.intsci.ac.cn/users/jinxin/Mypapers/ELM-Neurocomputing-2013.pdf|journal=Neurocomputing|volume=128|pages=88–95|doi=10.1016/j.neucom.2012.12.063|s2cid=30906342 }}</ref><ref>{{Cite journal|last=Kasun|first=Liyanaarachchi Lekamalage Chamara, Yan Yang, Guang-Bin Huang, and Zhengyou Zhang|date=2016|title=Dimension Reduction With Extreme Learning Machine|url=http://www.ntu.edu.sg/home/egbhuang/pdf/ELM-Dimensionality-Reduction.pdf|journal=IEEE Transactions on Image Processing|volume=25|issue=8|pages=3906–3918|doi=10.1109/tip.2016.2570569|pmid=27214902|bibcode=2016ITIP...25.3906K|s2cid=1803922}}</ref>


من عام 2015 إلى عام 2017، شهدت الأبحاث زيادة ملحوظة في التركيز على التطبيقات الهرمية لآلة التعلم القصوى. ظهرت أبحاث بيولوجية كبيرة منذ عام 2011 تدعم نظريات معينة لآلة التعلم القصوى.<ref name=":5">{{Cite journal|last=Huang|first=Guang-Bin, Zuo Bai, and Liyanaarachchi Lekamalage Chamara Kasun, and Chi Man Vong|date=2015|title=Local Receptive Fields Based Extreme Learning Machine|url=http://www.ntu.edu.sg/home/egbhuang/pdf/ELM-LRF.pdf|journal=IEEE Computational Intelligence Magazine|volume=10|issue=2|pages=18–29|doi=10.1109/mci.2015.2405316|s2cid=1417306|access-date=2017-08-22|archive-date=2017-08-08|archive-url=https://web.archive.org/web/20170808031835/http://www.ntu.edu.sg/home/egbhuang/pdf/ELM-LRF.pdf|url-status=dead}}</ref><ref name=":6">{{Cite journal|last=Tang|first=Jiexiong, Chenwei Deng, and Guang-Bin Huang|date=2016|title=Extreme Learning Machine for Multilayer Perceptron|url=http://www.ntu.edu.sg/home/egbhuang/pdf/Multiple-ELM.pdf|journal=IEEE Transactions on Neural Networks and Learning Systems|volume=27|issue=4|pages=809–821|doi=10.1109/tnnls.2015.2424995|pmid=25966483|s2cid=206757279|access-date=2017-08-22|archive-date=2017-07-12|archive-url=https://web.archive.org/web/20170712092522/http://www.ntu.edu.sg/home/egbhuang/pdf/Multiple-ELM.pdf|url-status=dead}}</ref><ref>{{Cite journal|last=Barak|first=Omri; Rigotti, Mattia; and Fusi, Stefano|date=2013|title=The Sparseness of Mixed Selectivity Neurons Controls the Generalization-Discrimination Trade-off|journal=Journal of Neuroscience|volume=33|issue=9|pages=3844–3856|doi=10.1523/jneurosci.2753-12.2013|pmid=23447596|pmc=6119179}}</ref><ref>{{Cite journal|last=Rigotti|first=Mattia; Barak, Omri; Warden, Melissa R.; Wang, Xiao-Jing; Daw, Nathaniel D.; Miller, Earl K.; and Fusi, Stefano|date=2013|title=The Importance of Mixed Selectivity in Complex Cognitive Tasks|journal=Nature|volume=497|issue=7451|pages=585–590|doi=10.1038/nature12160|pmid=23685452|pmc=4412347|bibcode=2013Natur.497..585R}}</ref><ref>{{Cite journal|last=Fusi|first=Stefano, Earl K Miller and Mattia Rigotti|date=2015|title=Why Neurons Mix: High Dimensionality for Higher Cognition|url=http://www.ntu.edu.sg/home/egbhuang/pdf/Why-Neurons-Mix-ELM.pdf|journal=Current Opinion in Neurobiology|volume=37|pages=66–74|doi=10.1016/j.conb.2016.01.010|pmid=26851755|s2cid=13897721}}</ref>


==خوارزميات آلة التعلم القصوى==
==خوارزميات آلة التعلم القصوى==

مراجعة 20:45، 21 سبتمبر 2024

آلة التعلم القصوى
مشهد تخيلي لآلة التعلم القصوى، صورة مولدة بالذكاء الصنعي

آلة التعلم القصوى (بالإنجليزية: Extreme learning machine)‏ واختصارها (ELM) هي نوع من الشبكات العصبونية ذات التغذية الأمامية التي تتميز بقدراتها الممتازة في العديد من المهام مثل التصنيف والانحدار والتجميع والتقريب المتفرق والضغط وتعلم الميزات.

تستخدم هذه الآلات طبقة واحدة أو طبقات متعددة خفية، حيث تتطلب معلمات العُقد الخفية (وليس فقط الأوزان) ضبطًا. يسمح هذا النهج الفريد لآلات التعلم القصوى بتحقيق تعلم فعال ويتفوق في كثير من الأحيان على الشبكات العصبونية التقليدية.

يمكن تعيين هذه العقد الخفية عشوائيًا وعدم تحديثها مطلقًا (أي أنها عبارة عن إسقاط عشوائي ولكن مع تحويلات غير خطية)، أو يمكن توريثها من أسلافها دون تغييرها.

يتم عادةً تعلم الأوزان الخارجة للعُقد الخفية في خطوة واحدة، ما يمثل في الأساس تدريبًا لنموذج خطي.

آلات التعلم العميق القصوى هي مصطلح صاغه غوانغ-بين هوانغ (بالإنجليزية: Guang-Bin Huang)‏ لوصف هذه النماذج، والتي اقترحها في الأصل للشبكات العصبونية مع أي نوع من العُقد الخفية اللاخطية المستمرة، بما في ذلك الخلايا العصبية البيولوجية وأنواع مختلفة من الدوال الرياضية الأساسية.[1][2]


يمكن إرجاع مفهوم الشبكات العصبونية الاصطناعية إلى فرانك روزنبلات(بالإنجليزية: Frank Rosenblatt)‏، الذي لم يقدم فقط البيرسيبترون (بالإنجليزية: Perceptron)‏ ذي الطبقة الواحدة في عام 1958، بل قدم أيضًا بيرسيبترون متعدد الطبقات، وهي شبكة مكونة من ثلاث طبقات: طبقة الإدخال، طبقة خفية ذات أوزان عشوائيًا تظل ثابتة أثناء التدريب، وطبقة الإخراج التعلمي.[3][4]

أظهرت الدراسات أن هذه النماذج قادرة على تحقيق تعميم أفضل وتعلم بمعدلات أسرع بآلاف المرات من الشبكات المستندة إلى الانتشار العكسي. بالإضافة إلى ذلك، أُثبت تفوقها على آلات المتجهات الداعمة في كل من مهام التصنيف والانحدار.[5][6][1][7]

تاريخ آلة التعلم القصوى

ركزت أبحاث آلات التعلم العميق القصوى بين عامي 2001 و 2010 في المقام الأول على إطار تعليم موحد للشبكات العصبونية ذات التغذية الأمامية والطبقة الخفية المفردة (SLFNs) المعممة (بالإنجليزية: single-hidden layer feedforward neural networks)‏.

بما في ذلك ولكن ليس على سبيل الحصر الشبكات السينية (بالإنجليزية: sigmoid networks)‏، وشبكات RBF (بالإنجليزية: Radial basis function network)‏، وشبكات العتبة{{Yk[|threshold networks}}،[8] والشبكات المثلثية(بالإنجليزية: trigonometric networks)‏، وأنظمة الاستدلال الضبابي (بالإنجليزية: fuzzy inference systems)‏، ومتسلسلة فورييه(بالإنجليزية: Fourier series)‏،[9][10] وتحويل لابلاس (بالإنجليزية: Laplacian transform)‏، وشبكات الموجات(بالإنجليزية: wavelet networks)‏.

وكانت إحدى الإنجازات الأهم خلال هذه الفترة إثبات القدرات النظرية للتقريب والتصنيف العالمي لآلات التعلم القصوى.[9][11][12]

توسعت الأبحاث في مجال آلة التعلم القصوى (ELM) في الفترة من 2010 إلى 2015 لتشمل إطار تعليم موحد للنواة وشعاع الدعم الآلي (بالإنجليزية: Support vector machine)‏ (SVM) وعددًا من طرق تعلم الميزات النموذجية مثل تحليل العنصر الرئيسي (بالإنجليزية: Principal component analysis)‏ (PCA) وتحليل العوامل غير السلبية (NMF).

أظهرت الدراسات أن شعاع الدعم الآلي غالبًا ما يوفر حلولًا دون المستوى الأمثل مقارنة بـ آلة التعلم القصوى.

علاوة على ذلك، توفر آلة التعلم القصوى نواة "الصندوق الأبيض"، الذي يُنفّذ من خلال تعيين الميزات العشوائية لآلة التعلم القصوى، على عكس نواة "الصندوق الأسود" المستخدمة في شعاع الدعم الآلي (بالإنجليزية: Support vector machine)‏ (SVM). يمكن اعتبار (بالإنجليزية: Principal component analysis)‏ (PCA) وعامل المصفوفة غير السلبية (NMF) حالات خاصة تستخدم عقدًا خفية خطية.[13][14]

من عام 2015 إلى عام 2017، شهدت الأبحاث زيادة ملحوظة في التركيز على التطبيقات الهرمية لآلة التعلم القصوى. ظهرت أبحاث بيولوجية كبيرة منذ عام 2011 تدعم نظريات معينة لآلة التعلم القصوى.[15][16][17][18][19]

خوارزميات آلة التعلم القصوى

بُنى آلة التعلم القصوى

نظريات

القدرة على التقريب الشامل

القدرة على التصنيف

العصبونات

المجال الحقيقي

المجال المعقد

الاعتمادية

الجدل حول آلة التعلم القصوى

المراجع

  1. 1٫0 1٫1 خطأ استشهاد: وسم <ref> غير صحيح؛ لا نص تم توفيره للمراجع المسماة :0
  2. Huang، Guang-Bin (2014). "An Insight into Extreme Learning Machines: Random Neurons, Random Features and Kernels" (PDF). Cognitive Computation. ج. 6 ع. 3: 376–390. DOI:10.1007/s12559-014-9255-2. S2CID:7419259.
  3. Rosenblatt، Frank (1958). "The Perceptron: A Probabilistic Model For Information Storage And Organization in the Brain". Psychological Review. ج. 65 ع. 6: 386–408. CiteSeerX:10.1.1.588.3775. DOI:10.1037/h0042519. PMID:13602029. S2CID:12781225.
  4. Rosenblatt، Frank (1962). Principles of Neurodynamics. Spartan, New York.
  5. Huang، Guang-Bin؛ Zhu، Qin-Yu؛ Siew، Chee-Kheong (2006). "Extreme learning machine: theory and applications". Neurocomputing. ج. 70 ع. 1: 489–501. CiteSeerX:10.1.1.217.3692. DOI:10.1016/j.neucom.2005.12.126. S2CID:116858.
  6. Huang، Guang-Bin; Hongming Zhou; Xiaojian Ding; and Rui Zhang (2012). "Extreme Learning Machine for Regression and Multiclass Classification" (PDF). IEEE Transactions on Systems, Man, and Cybernetics - Part B: Cybernetics. ج. 42 ع. 2: 513–529. CiteSeerX:10.1.1.298.1213. DOI:10.1109/tsmcb.2011.2168604. PMID:21984515. S2CID:15037168. مؤرشف من الأصل (PDF) في 2017-08-29. اطلع عليه بتاريخ 2017-08-19.
  7. Huang، Guang-Bin (2014). "An Insight into Extreme Learning Machines: Random Neurons, Random Features and Kernels" (PDF). Cognitive Computation. ج. 6 ع. 3: 376–390. DOI:10.1007/s12559-014-9255-2. S2CID:7419259.
  8. Huang، Guang-Bin, Qin-Yu Zhu, K. Z. Mao, Chee-Kheong Siew, P. Saratchandran, and N. Sundararajan (2006). "Can Threshold Networks Be Trained Directly?" (PDF). IEEE Transactions on Circuits and Systems-II: Express Briefs. ج. 53 ع. 3: 187–191. DOI:10.1109/tcsii.2005.857540. S2CID:18076010. مؤرشف من الأصل (PDF) في 2017-08-29. اطلع عليه بتاريخ 2017-08-22.
  9. 9٫0 9٫1 Huang، Guang-Bin, Lei Chen, and Chee-Kheong Siew (2006). "Universal Approximation Using Incremental Constructive Feedforward Networks with Random Hidden Nodes" (PDF). IEEE Transactions on Neural Networks. ج. 17 ع. 4: 879–892. DOI:10.1109/tnn.2006.875977. PMID:16856652. S2CID:6477031. مؤرشف من الأصل (PDF) في 2017-08-29. اطلع عليه بتاريخ 2017-08-22.
  10. Rahimi، Ali, and Benjamin Recht (2008). "Weighted Sums of Random Kitchen Sinks: Replacing Minimization with Randomization in Learning" (PDF). Advances in Neural Information Processing Systems. ج. 21.
  11. Huang، Guang-Bin, Lei Chen (2007). "Convex Incremental Extreme Learning Machine" (PDF). Neurocomputing. ج. 70 ع. 16–18: 3056–3062. DOI:10.1016/j.neucom.2007.02.009. مؤرشف من الأصل (PDF) في 2017-08-10. اطلع عليه بتاريخ 2017-08-22.
  12. Huang، Guang-Bin, and Lei Chen (2008). "Enhanced Random Search Based Incremental Extreme Learning Machine" (PDF). Neurocomputing. ج. 71 ع. 16–18: 3460–3468. CiteSeerX:10.1.1.217.3009. DOI:10.1016/j.neucom.2007.10.008. مؤرشف من الأصل (PDF) في 2014-10-14. اطلع عليه بتاريخ 2017-08-22.
  13. He، Qing, Xin Jin, Changying Du, Fuzhen Zhuang, Zhongzhi Shi (2014). "Clustering in Extreme Learning Machine Feature Space" (PDF). Neurocomputing. ج. 128: 88–95. DOI:10.1016/j.neucom.2012.12.063. S2CID:30906342.
  14. Kasun، Liyanaarachchi Lekamalage Chamara, Yan Yang, Guang-Bin Huang, and Zhengyou Zhang (2016). "Dimension Reduction With Extreme Learning Machine" (PDF). IEEE Transactions on Image Processing. ج. 25 ع. 8: 3906–3918. Bibcode:2016ITIP...25.3906K. DOI:10.1109/tip.2016.2570569. PMID:27214902. S2CID:1803922.
  15. Huang، Guang-Bin, Zuo Bai, and Liyanaarachchi Lekamalage Chamara Kasun, and Chi Man Vong (2015). "Local Receptive Fields Based Extreme Learning Machine" (PDF). IEEE Computational Intelligence Magazine. ج. 10 ع. 2: 18–29. DOI:10.1109/mci.2015.2405316. S2CID:1417306. مؤرشف من الأصل (PDF) في 2017-08-08. اطلع عليه بتاريخ 2017-08-22.
  16. Tang، Jiexiong, Chenwei Deng, and Guang-Bin Huang (2016). "Extreme Learning Machine for Multilayer Perceptron" (PDF). IEEE Transactions on Neural Networks and Learning Systems. ج. 27 ع. 4: 809–821. DOI:10.1109/tnnls.2015.2424995. PMID:25966483. S2CID:206757279. مؤرشف من الأصل (PDF) في 2017-07-12. اطلع عليه بتاريخ 2017-08-22.
  17. Barak، Omri; Rigotti, Mattia; and Fusi, Stefano (2013). "The Sparseness of Mixed Selectivity Neurons Controls the Generalization-Discrimination Trade-off". Journal of Neuroscience. ج. 33 ع. 9: 3844–3856. DOI:10.1523/jneurosci.2753-12.2013. PMC:6119179. PMID:23447596.
  18. Rigotti، Mattia; Barak, Omri; Warden, Melissa R.; Wang, Xiao-Jing; Daw, Nathaniel D.; Miller, Earl K.; and Fusi, Stefano (2013). "The Importance of Mixed Selectivity in Complex Cognitive Tasks". Nature. ج. 497 ع. 7451: 585–590. Bibcode:2013Natur.497..585R. DOI:10.1038/nature12160. PMC:4412347. PMID:23685452.
  19. Fusi، Stefano, Earl K Miller and Mattia Rigotti (2015). "Why Neurons Mix: High Dimensionality for Higher Cognition" (PDF). Current Opinion in Neurobiology. ج. 37: 66–74. DOI:10.1016/j.conb.2016.01.010. PMID:26851755. S2CID:13897721.