الفرق بين المراجعتين لصفحة: «حوسبة الخزان»
المزيد من الإجراءات
عبد العزيز (نقاش | مساهمات) (←الخزان) |
عبد العزيز (نقاش | مساهمات) |
||
(8 مراجعات متوسطة بواسطة نفس المستخدم غير معروضة) | |||
سطر 40: | سطر 40: | ||
تعتبر حواسيب الخزان المادية ممكنة بسبب الطبيعة غير الخطية المتأصلة في بعض الأنظمة الطبيعية، على سبيل المثال، تفاعل التموجات على سطح الماء يعكس الديناميات غير الخطية اللازمة لإنشاء خزان، وهذا ما استُغل في تطوير نظام للتعرف على الأنماط عن طريق إدخال تموجات بواسطة محركات كهربائية ةمن ثم تحليلها.<ref name=":4" /> | تعتبر حواسيب الخزان المادية ممكنة بسبب الطبيعة غير الخطية المتأصلة في بعض الأنظمة الطبيعية، على سبيل المثال، تفاعل التموجات على سطح الماء يعكس الديناميات غير الخطية اللازمة لإنشاء خزان، وهذا ما استُغل في تطوير نظام للتعرف على الأنماط عن طريق إدخال تموجات بواسطة محركات كهربائية ةمن ثم تحليلها.<ref name=":4" /> | ||
===القراءة=== | |||
تعتبر القراءة طبقة شبكية عصبونية تقوم بتحويل خطي لإخراج الخزان.<ref name=":4" /> حيث تُدرب أوزان طبقة القراءة بتحليل الأنماط المكانية الزمنية للخزان بعد تنبيهها بواسطة مدخلات معروفة باستخدام طريقة تدريب مثل الانحدار الخطي أو انحدار ريدج.<ref name=":4" /> | |||
تُكيف تفاصيل طرق القراءة مع كل نوع من أنواع الخزانات نظرًا لاعتماد تنفيذها على أنماط الخزان المكانية الزمنية.<ref name=":4" /> على سبيل المثال، قد تتضمن القراءة لحاسوب خزان يستخدم حاوية سائل كخزانه مراقبة الأنماط المكانية الزمنية على سطح هذا السائل.<ref name=":4" /> | |||
===أنواع حوسبة الخزان الكلاسيكية=== | |||
====شبكة الرنين السياقي==== | |||
تُعد شبكة الرنين السياقي من أوائل أمثلة حوسبة الخزان.<ref> | |||
Kevin Kirby. "Context dynamics in neural sequential learning." | |||
Proceedings of the Florida Artificial Intelligence Research Symposium FLAIRS (1991), 66–70. | |||
</ref> تتغذى طبقة الإدخال في هذه البنية في نظام ديناميكي عالي الأبعاد يقرؤه بيرسيبترون {{إنج|Perceptron}} قابل للتدريب ذو طبقة واحدة. | |||
حُدد نوعان من النظام الديناميكي: | |||
# شبكة عصبونية متكررة ذات أوزان عشوائية ثابتة. | |||
# نظام تفاعل-انتشار مستمر مستوحى من نموذج آلان تورينج للتشكل الحيوي. | |||
يربط البيرسيبترون المدخلات الحالية بالإشارات التي ترتد في النظام الديناميكي وذلك في الطبقة القابلة للتدريب؛ وقيل إن الأخيرين يوفران "سياقًا" ديناميكيًا للمدخلات. | |||
====شبكة حالة الصدى==== | |||
يمثل نموذج شبكة حالة صدى الصدى الشجرة (TreeESN) تعميمًا لإطار عمل حوسبة الخزان للبيانات الشجرية المنظمة.<ref>{{Cite journal|last1=Gallicchio|first1=Claudio|last2=Micheli|first2=Alessio|year=2013|title=Tree Echo State Networks|journal=Neurocomputing|volume=101|pages=319–337|doi=10.1016/j.neucom.2012.08.017|hdl=11568/158480|hdl-access=free}}</ref> | |||
====آلة الحالة السائلة الفوضوية==== | |||
====الحوسبة العابرة غير الخطية==== | |||
====حوسبة الخزان العميقة==== | |||
==حوسبة الخزان الكمومية== | |||
===أنواع حوسبة الخزان الكمومية=== | |||
====الحالات الغاوسية للمذبذبات التوافقية الكمومية المتفاعلة==== | |||
==المراجع== | ==المراجع== |
مراجعة 20:21، 18 سبتمبر 2024
حوسبة الخزان أو حوسبة المُكْنز هي إطار للحوسبة مشتق من نظرية الشبكات العصبونية المتكررة التي تربط إشارات الإدخال إلى مساحات حوسبة ذات أبعاد أعلى من خلال ديناميات نظام ثابت غير خطي يدعى الخزان.[1] تُدرب آلية قراءة بسيطة لقراءة حالة الخزان وربطها إلى المخرجات المطلوبة، بعد إدخال إشارة الدخل إلى الخزان، الذي يُعامل كـ "صندوق أسود".[1] تكمن الفائدة الأولى من فوائد هذا الإطار في أن التدريب يكون أثناء مرحلة القراءة فقط، حيث تكون ديناميات الخزان ثابتة.[1] أما الفائدة الثانية فتكمن في إمكانية استخدام الموارد الحاسوبية المتاحة، سواء الكلاسيكية أو الميكانيكية الكمومية، لتقليل الكلفة الحوسبية الفعالة.[2]
حوسبة الخزان - لمحة تاريخية
ينبع مفهوم حوسبة الخزان من استخدام التوصيلات التكرارية داخل الشبكات العصبية لإنشاء نظام ديناميكي معقد.[3] وهو تعميم لبُنى الشبكات العصبية السابقة مثل الشبكات العصبية التكرارية، وآلات الحالة السائلة (بالإنجليزية: liquid state machine (LSM))، وشبكات حالة الصدى.
تمتد حوسبة الخزان أيضًا إلى الأنظمة الفيزيائية التي لا تعتبر شبكات بالمعنى التقليدي، بل هي أنظمة مستمرة في المكان والزمان: على سبيل المثال، يمكن استخدام "دلو من الماء" كخزان يقوم بالحسابات على المدخلات المقدمة كاضطرابات للسطح.[4]
وُجِد أن التعقيد الناتج عن هذه الشبكات العصبية المتكررة مفيد في حل مجموعة متنوعة من المشكلات، بما في ذلك معالجة اللغة ومحاكاة الأنظمة الديناميكية. ومع ذلك، فإن تدريب الشبكات العصبية المتكررة أمرًا صعب ومكلف من الناحية الحاسوبية.[3]
تُقلّل حوسبة الخزان من تلك التحديات المتعلقة بالتدريب عن طريق تثبيت ديناميات الخزان وتدريب الطبقة الخطية للخرج فقط.[3]
يمكن أن تعمل مجموعة كبيرة ومتنوعة من الأنظمة الديناميكية غير الخطية كخزان يقوم بالحسابات. وفي السنوات الأخيرة، جَذب الليزر شبه الموصل اهتمامًا كبيرًا نظرًا لفعالية استخدامه في الحوسبة السريعة من حيث استهلاك الطاقة مقارنة بالمكونات الكهربائية التقليدية.
قدمت التطورات الأخيرة في مجال الذكاء الاصطناعي ونظرية المعلومات الكمومية مفهوم الشبكات العصبية الكمومية.[5] تعد هذه الشبكات العصبية الكمومية واعدة في معالجة المعلومات الكمومية، التي تمثل تحديًا للشبكات التقليدية، كما يمكن تطبيقها أيضا في حل المشكلات التقليدية.[5][6]
عُرض أول تجسيد فيزيائي لهندسة حوسبة الخزان الكمومية في شكل دوارات نووية داخل جسم جزيئي في عام 2018.[6] ومع ذلك، لم تثبت تجارب الدوران النووي حوسبة الخزان الكمومية في حد ذاتها، حيث لم تتضمن معالجة البيانات التسلسلية.[6] كانت البيانات مدخلات متجهة بدلاً من ذلك، مما يجعل هذا عرضًا أكثر دقة للتطبيق الكمي لخوارزمية حوض المطبخ العشوائي -(بالإنجليزية: random kitchen sink) (وتسمى أيضًا آلات التعلم القصوى في بعض المجتمعات).[7]
اقتُرح تطبيق محتمل آخر لمعالجات الخزان الكمومي في شكل شبكات فرميونية ثنائية الأبعاد في عام 2019.[6]
كما اقتُرح ووُضِّح تحقيق حوسبة الخزان على أجهزة الكمبيوتر الكمومية القائمة على البوابة - (بالإنجليزية: gate-based quantum computers) على أجهزة الكمبيوتر الكمومية القريبة المدى فائقة التوصيل (بالإنجليزية: near-term quantum computers) التي تعمل على السحابة من IBM في عام 2020.[8]
استخدمت أجهزة الكمبيوتر الخزانية لأغراض تحليل السلاسل الزمنية. وتتضمن بعض استخداماتها التنبؤ بالسلاسل الزمنية الفوضوية (بالإنجليزية: chaotic time-series)،[9][10] وفصل الإشارات الفوضوية (بالإنجليزية: chaotic signals)،[11] واستنتاج الروابط بين الشبكات من دينامياتها.[12]
حوسبة الخزان الكلاسيكية
الخزان
يعتبر "الخزان" أو المُكْنِز في الحوسبة الخزانية هو البنية الداخلية للحاسوب، ويجب أن يكون له خاصيتان:
- أن يتكون من وحدات فردية غير خطية.
- يجب أن يكون قادرًا على تخزين المعلومات.
تصف اللاخطية استجابة كل وحدة للمدخلات، وهو ما يسمح لأجهزة حوسبة الخزان بحل المشكلات المعقدة. الخزانات قادرة على تخزين المعلومات من خلال توصيل الوحدات في حلقات متكررة، حيث يؤثر الإدخال السابق على الاستجابة التالية. ويسمح التغيير في التفاعل بسبب الإدخالات السابقة لهذه الحواسيب بالتدريب لإكمال مهام محددة.[13]
يمكن أن تكون حواسيب الخزان افتراضية أو مادية.[13] وعادةً ما تُبنى الخزانات الافتراضية عشوائيا وتصمم مثل الشبكات العصبونية.[13] [3] يمكن تصميم الخزانات الافتراضية لتكون غير خطية بحلقات متكررة، ولكن، وبخلاف الشبكات العصبونية، تكون الاتصالات بين الوحدات عشوائية وتبقى دون تغيير طوال الحساب.[13]
تعتبر حواسيب الخزان المادية ممكنة بسبب الطبيعة غير الخطية المتأصلة في بعض الأنظمة الطبيعية، على سبيل المثال، تفاعل التموجات على سطح الماء يعكس الديناميات غير الخطية اللازمة لإنشاء خزان، وهذا ما استُغل في تطوير نظام للتعرف على الأنماط عن طريق إدخال تموجات بواسطة محركات كهربائية ةمن ثم تحليلها.[1]
القراءة
تعتبر القراءة طبقة شبكية عصبونية تقوم بتحويل خطي لإخراج الخزان.[1] حيث تُدرب أوزان طبقة القراءة بتحليل الأنماط المكانية الزمنية للخزان بعد تنبيهها بواسطة مدخلات معروفة باستخدام طريقة تدريب مثل الانحدار الخطي أو انحدار ريدج.[1]
تُكيف تفاصيل طرق القراءة مع كل نوع من أنواع الخزانات نظرًا لاعتماد تنفيذها على أنماط الخزان المكانية الزمنية.[1] على سبيل المثال، قد تتضمن القراءة لحاسوب خزان يستخدم حاوية سائل كخزانه مراقبة الأنماط المكانية الزمنية على سطح هذا السائل.[1]
أنواع حوسبة الخزان الكلاسيكية
شبكة الرنين السياقي
تُعد شبكة الرنين السياقي من أوائل أمثلة حوسبة الخزان.[14] تتغذى طبقة الإدخال في هذه البنية في نظام ديناميكي عالي الأبعاد يقرؤه بيرسيبترون (بالإنجليزية: Perceptron) قابل للتدريب ذو طبقة واحدة.
حُدد نوعان من النظام الديناميكي:
- شبكة عصبونية متكررة ذات أوزان عشوائية ثابتة.
- نظام تفاعل-انتشار مستمر مستوحى من نموذج آلان تورينج للتشكل الحيوي.
يربط البيرسيبترون المدخلات الحالية بالإشارات التي ترتد في النظام الديناميكي وذلك في الطبقة القابلة للتدريب؛ وقيل إن الأخيرين يوفران "سياقًا" ديناميكيًا للمدخلات.
شبكة حالة الصدى
يمثل نموذج شبكة حالة صدى الصدى الشجرة (TreeESN) تعميمًا لإطار عمل حوسبة الخزان للبيانات الشجرية المنظمة.[15]
آلة الحالة السائلة الفوضوية
الحوسبة العابرة غير الخطية
حوسبة الخزان العميقة
حوسبة الخزان الكمومية
أنواع حوسبة الخزان الكمومية
الحالات الغاوسية للمذبذبات التوافقية الكمومية المتفاعلة
المراجع
- ↑ 1٫0 1٫1 1٫2 1٫3 1٫4 1٫5 1٫6 1٫7 Tanaka، Gouhei؛ Yamane، Toshiyuki؛ Héroux، Jean Benoit؛ Nakane، Ryosho؛ Kanazawa، Naoki؛ Takeda، Seiji؛ Numata، Hidetoshi؛ Nakano، Daiju؛ Hirose، Akira (2019). "Recent advances in physical reservoir computing: A review". Neural Networks. ج. 115: 100–123. arXiv:1808.04962. DOI:10.1016/j.neunet.2019.03.005. ISSN:0893-6080. PMID:30981085.
- ↑ Röhm، André؛ Lüdge، Kathy (3 أغسطس 2018). "Multiplexed networks: reservoir computing with virtual and real nodes". Journal of Physics Communications. ج. 2 ع. 8: 085007. arXiv:1802.08590. Bibcode:2018JPhCo...2h5007R. DOI:10.1088/2399-6528/aad56d. ISSN:2399-6528.
- ↑ 3٫0 3٫1 3٫2 3٫3 Benjamin Schrauwen, David Verstraeten, and Jan Van Campenhout. "An overview of reservoir computing: theory, applications, and implementations." Proceedings of the European Symposium on Artificial Neural Networks ESANN 2007, pp. 471–482.
- ↑ Fernando، C.؛ Sojakka، Sampsa (2003). "Pattern Recognition in a Bucket". Advances in Artificial Life. Lecture Notes in Computer Science. ج. 2801. ص. 588–597. DOI:10.1007/978-3-540-39432-7_63. ISBN:978-3-540-20057-4. S2CID:15073928.
- ↑ 5٫0 5٫1 Ghosh، Sanjib؛ Opala، Andrzej؛ Matuszewski، Michał؛ Paterek، Tomasz؛ Liew، Timothy C. H. (ديسمبر 2019). "Quantum reservoir processing". npj Quantum Information. ج. 5 ع. 1: 35. arXiv:1811.10335. Bibcode:2019npjQI...5...35G. DOI:10.1038/s41534-019-0149-8. ISSN:2056-6387. S2CID:119197635.
- ↑ 6٫0 6٫1 6٫2 6٫3 Negoro، Makoto؛ Mitarai، Kosuke؛ Fujii، Keisuke؛ Nakajima، Kohei؛ Kitagawa، Masahiro (28 يونيو 2018). "Machine learning with controllable quantum dynamics of a nuclear spin ensemble in a solid". arXiv:1806.10910 [quant-ph].
- ↑ Rahimi، Ali؛ Recht، Benjamin (ديسمبر 2008). "Weighted Sums of Random Kitchen Sinks: Replacing minimization with randomization in Learning" (PDF). NIPS'08: Proceedings of the 21st International Conference on Neural Information Processing Systems: 1313–1320.
- ↑ Chen، Jiayin؛ Nurdin، Hendra؛ Yamamoto، Naoki (24 أغسطس 2020). "Temporal Information Processing on Noisy Quantum Computers". Physical Review Applied. ج. 14 ع. 2: 024065. arXiv:2001.09498. Bibcode:2020PhRvP..14b4065C. DOI:10.1103/PhysRevApplied.14.024065. S2CID:210920543.
- ↑ Pathak، Jaideep؛ Hunt، Brian؛ Girvan، Michelle؛ Lu، Zhixin؛ Ott، Edward (12 يناير 2018). "Model-Free Prediction of Large Spatiotemporally Chaotic Systems from Data: A Reservoir Computing Approach". Physical Review Letters. ج. 120 ع. 2: 024102. Bibcode:2018PhRvL.120b4102P. DOI:10.1103/PhysRevLett.120.024102. PMID:29376715.
- ↑ Vlachas، P.R.؛ Pathak، J.؛ Hunt، B.R.؛ Sapsis، T.P.؛ Girvan، M.؛ Ott، E.؛ Koumoutsakos، P. (21 مارس 2020). "Backpropagation algorithms and Reservoir Computing in Recurrent Neural Networks for the forecasting of complex spatiotemporal dynamics". Neural Networks. ج. 126: 191–217. arXiv:1910.05266. DOI:10.1016/j.neunet.2020.02.016. ISSN:0893-6080. PMID:32248008. S2CID:211146609.
- ↑ Krishnagopal، Sanjukta؛ Girvan، Michelle؛ Ott، Edward؛ Hunt، Brian R. (1 فبراير 2020). "Separation of chaotic signals by reservoir computing". Chaos: An Interdisciplinary Journal of Nonlinear Science. ج. 30 ع. 2: 023123. arXiv:1910.10080. Bibcode:2020Chaos..30b3123K. DOI:10.1063/1.5132766. ISSN:1054-1500. PMID:32113243. S2CID:204823815.
- ↑ Banerjee، Amitava؛ Hart، Joseph D.؛ Roy، Rajarshi؛ Ott، Edward (20 يوليو 2021). "Machine Learning Link Inference of Noisy Delay-Coupled Networks with Optoelectronic Experimental Tests". Physical Review X. ج. 11 ع. 3: 031014. arXiv:2010.15289. Bibcode:2021PhRvX..11c1014B. DOI:10.1103/PhysRevX.11.031014.
- ↑ 13٫0 13٫1 13٫2 13٫3 Soriano, Miguel C. (6 Feb 2017). "Viewpoint: Reservoir Computing Speeds Up". Physics (بEnglish). 10: 12. DOI:10.1103/Physics.10.12. hdl:10261/173181.
- ↑ Kevin Kirby. "Context dynamics in neural sequential learning." Proceedings of the Florida Artificial Intelligence Research Symposium FLAIRS (1991), 66–70.
- ↑ Gallicchio، Claudio؛ Micheli، Alessio (2013). "Tree Echo State Networks". Neurocomputing. ج. 101: 319–337. DOI:10.1016/j.neucom.2012.08.017. hdl:11568/158480.