الفرق بين المراجعتين لصفحة: «حوسبة الخزان»
المزيد من الإجراءات
عبد العزيز (نقاش | مساهمات) لا ملخص تعديل |
عبد العزيز (نقاش | مساهمات) لا ملخص تعديل |
||
سطر 5: | سطر 5: | ||
تكمن الفائدة الأولى من فوائد هذا الإطار في أن التدريب يكون أثناء مرحلة القراءة فقط، حيث تكون ديناميات الخزان ثابتة.<ref name=":4" /> | تكمن الفائدة الأولى من فوائد هذا الإطار في أن التدريب يكون أثناء مرحلة القراءة فقط، حيث تكون ديناميات الخزان ثابتة.<ref name=":4" /> | ||
أما الفائدة الثانية فتكمن في إمكانية استخدام الموارد الحاسوبية المتاحة، سواء الكلاسيكية أو الميكانيكية الكمومية، لتقليل الكلفة الحوسبية الفعالة.<ref>{{Cite journal|last1=Röhm|first1=André|last2=Lüdge|first2=Kathy|date=2018-08-03|title=Multiplexed networks: reservoir computing with virtual and real nodes|journal=Journal of Physics Communications|volume=2|issue=8|pages=085007|bibcode=2018JPhCo...2h5007R|doi=10.1088/2399-6528/aad56d|issn=2399-6528|doi-access=free|arxiv=1802.08590}}</ref> | أما الفائدة الثانية فتكمن في إمكانية استخدام الموارد الحاسوبية المتاحة، سواء الكلاسيكية أو الميكانيكية الكمومية، لتقليل الكلفة الحوسبية الفعالة.<ref>{{Cite journal|last1=Röhm|first1=André|last2=Lüdge|first2=Kathy|date=2018-08-03|title=Multiplexed networks: reservoir computing with virtual and real nodes|journal=Journal of Physics Communications|volume=2|issue=8|pages=085007|bibcode=2018JPhCo...2h5007R|doi=10.1088/2399-6528/aad56d|issn=2399-6528|doi-access=free|arxiv=1802.08590}}</ref> | ||
==حوسبة الخزان - لمحة تاريخية== | |||
ينبع مفهوم حوسبة الخزان من استخدام التوصيلات التكرارية داخل الشبكات العصبية لإنشاء نظام ديناميكي معقد.<ref name=":0">Benjamin Schrauwen, David Verstraeten, and Jan Van Campenhout. | |||
"An overview of reservoir computing: theory, applications, and implementations." | |||
Proceedings of the European Symposium on Artificial Neural Networks ESANN 2007, pp. 471–482.</ref> وهو تعميم لبُنى الشبكات العصبية السابقة مثل الشبكات العصبية التكرارية، وآلات الحالة السائلة (liquid state machine (LSM))، وشبكات حالة الصدى. | |||
مراجعة 14:49، 15 سبتمبر 2024
حوسبة الخزان هي إطار للحوسبة مشتق من نظرية الشبكات العصبونية المتكررة التي تربط إشارات الإدخال إلى مساحات حوسبة ذات أبعاد أعلى من خلال ديناميات نظام ثابت غير خطي يدعى الخزان.[1] تُدرب آلية قراءة بسيطة لقراءة حالة الخزان وربطها إلى المخرجات المطلوبة، بعد إدخال إشارة الدخل إلى الخزان، الذي يُعامل كـ "صندوق أسود".[1] تكمن الفائدة الأولى من فوائد هذا الإطار في أن التدريب يكون أثناء مرحلة القراءة فقط، حيث تكون ديناميات الخزان ثابتة.[1] أما الفائدة الثانية فتكمن في إمكانية استخدام الموارد الحاسوبية المتاحة، سواء الكلاسيكية أو الميكانيكية الكمومية، لتقليل الكلفة الحوسبية الفعالة.[2]
حوسبة الخزان - لمحة تاريخية
ينبع مفهوم حوسبة الخزان من استخدام التوصيلات التكرارية داخل الشبكات العصبية لإنشاء نظام ديناميكي معقد.[3] وهو تعميم لبُنى الشبكات العصبية السابقة مثل الشبكات العصبية التكرارية، وآلات الحالة السائلة (liquid state machine (LSM))، وشبكات حالة الصدى.
المراجع
- ↑ 1٫0 1٫1 1٫2 Tanaka، Gouhei؛ Yamane، Toshiyuki؛ Héroux، Jean Benoit؛ Nakane، Ryosho؛ Kanazawa، Naoki؛ Takeda، Seiji؛ Numata، Hidetoshi؛ Nakano، Daiju؛ Hirose، Akira (2019). "Recent advances in physical reservoir computing: A review". Neural Networks. ج. 115: 100–123. arXiv:1808.04962. DOI:10.1016/j.neunet.2019.03.005. ISSN:0893-6080. PMID:30981085.
- ↑ Röhm، André؛ Lüdge، Kathy (3 أغسطس 2018). "Multiplexed networks: reservoir computing with virtual and real nodes". Journal of Physics Communications. ج. 2 ع. 8: 085007. arXiv:1802.08590. Bibcode:2018JPhCo...2h5007R. DOI:10.1088/2399-6528/aad56d. ISSN:2399-6528.
- ↑ Benjamin Schrauwen, David Verstraeten, and Jan Van Campenhout. "An overview of reservoir computing: theory, applications, and implementations." Proceedings of the European Symposium on Artificial Neural Networks ESANN 2007, pp. 471–482.