تحلیل و مقایسه ۲۱ قید محدودسازی در الگوریتم گرادیان نزولی اتفاقی به روش کرنل

Publish Year: 1401
نوع سند: مقاله ژورنالی
زبان: Persian
View: 173

This Paper With 8 Page And PDF Format Ready To Download

  • Certificate
  • من نویسنده این مقاله هستم

این Paper در بخشهای موضوعی زیر دسته بندی شده است:

استخراج به نرم افزارهای پژوهشی:

لینک ثابت به این Paper:

شناسه ملی سند علمی:

JR_JIAE-19-3_015

تاریخ نمایه سازی: 16 مهر 1401

Abstract:

مقیدسازی الگوریتم گرادیان نزولی باهدف آموزش شبکه عصبی با وزن­هایی محدودشده در کاربردهایی نظیر  شفاف سازی شبکه، کاهش حجم شبکه ازنظر ذخیره سازی و افزایش سطح عمومیت پذیری آن موثر است. همچنین می تواند در افزایش سرعت همگرایی، سرعت استنتاج و یافتن جوابی بهینه نیز مناسب باشد. در این نوشتار با استفاده از ترفند کرنل به عنوان روشی برای تحمیل انواع قیود بر الگوریتم آموزش، تعداد ۲۱ قید مختلف با یکدیگر مقایسه شده است که تعداد ۱۶ قید آن با الهام از عدم قطعیت موجود در شبکه های عصبی زیستی برای اولین بار در این مقاله ارائه شده است. مقایسه قید ها بدون هیچ گونه افزایش داده و منظم سازی، صورت گرفته است تا اثر قید ها بر فرآیند بهینه سازی واضح باشد. به منظور ارزیابی، برای هر قید در حل مسائل طبقه بندی MNIST، CIFAR-۱۰ و CIFAR-۱۰۰ با شبکه های عصبی عمیق مختص آن، ۶۳ آزمایش شبیه سازی شده است. نتایج نشان می دهد هر قید در هر مجموعه داده تاثیر متفاوتی بر فرآیند آموزش دارد و به طور مشخص قیدهای پیشنهادی که از عدم قطعیت حاضر در شبکه های عصبی زیستی الهام گرفته شده است، می­تواند بهتر از قیدهای ارائه شده در تحقیقات پیشین باشد و باعث بهبود عملکرد شبکه عصبی عمیق ازنظر دقت طبقه بندی شود.

Authors

حسین علی غیاثی راد

Department of Computer Engineering, Science & Research Branch, Islamic Azad University

مهدی علیاری شوره دلی

Faculty of Electrical Engineering, Department of Mechatronics Engineering, Industrial Control Center of Excellence, APAC Research Group, K. N. Toosi University of Technology

فائزه فریور

Department of Computer Engineering, Science & Research Branch, Islamic Azad University

مراجع و منابع این Paper:

لیست زیر مراجع و منابع استفاده شده در این Paper را نمایش می دهد. این مراجع به صورت کاملا ماشینی و بر اساس هوش مصنوعی استخراج شده اند و لذا ممکن است دارای اشکالاتی باشند که به مرور زمان دقت استخراج این محتوا افزایش می یابد. مراجعی که مقالات مربوط به آنها در سیویلیکا نمایه شده و پیدا شده اند، به خود Paper لینک شده اند :
  • D. E. Rumelhart, G. E. Hinton, and R. J. Williams, ...
  • L. Bottou, “Online learning and stochastic approximations,” On-line Learn. neural ...
  • J. H. Lee, T. Delbruck, and M. Pfeiffer, “Training deep ...
  • A. Morro, V. Canals, A. Oliver, M. Alomar, P. Galan-Prado, ...
  • P. O’Connor and M. Welling, “Deep Spiking Networks,” no. Nips, ...
  • H. Mostafa, “Supervised learning based on temporal coding in spiking ...
  • S. Sen, S. Venkataramani, and A. Raghunathan, “Approximate computing for ...
  • E. Hunsberger and C. Eliasmith, “Training Spiking Deep Networks for ...
  • B. Rueckauer, I.-A. Lungu, Y. Hu, and M. Pfeiffer, “Theory ...
  • D. Zambrano and S. M. Bohte, “Fast and Efficient Asynchronous ...
  • D. Huh and T. J. Sejnowski, “Gradient Descent for Spiking ...
  • J. Humble, S. Furber, S. L. Denham, and T. Wennekers, ...
  • H. A. Ghiassirad, M. Aliyari Shoorehdeli, and F. Farivar, “Application ...
  • S. S. Liew, M. Khalil-Hani, and R. Bakhteri, “Bounded activation ...
  • J. R. McDonnell, “Training Neural Networks with Weight Constraints,” Proc. ...
  • Y. Yi, Z. Hangping, and Z. Bin, “A new learning ...
  • M. Wang, Y. Chen, J. Liu, and Y. Gu, “Random ...
  • G. Di Muro and S. Ferrari, “A constrained-optimization approach to ...
  • B. O. Ayinde and J. M. Zurada, “Deep Learning of ...
  • F. Han, Q. H. Ling, and D. S. Huang, “Modified ...
  • S. J. Perantonis, N. Ampazis, and S. Varoufakis, “Constrained learning ...
  • J. Chorowski and J. M. Zurada, “Learning understandable neural networks ...
  • M. Courbariaux, Y. Bengio, and J.-P. David, “BinaryConnect: Training Deep ...
  • A. Bouzerdoum and T. R. Pattison, “Neural Network for Quadratic ...
  • Y. Mu, W. Ding, T. Zhou, and D. Tao, “Constrained ...
  • A. Tewari, “(Exponentiated) Stochastic Gradient Descent for L۱ Constrained Problems,” ...
  • J. Zylberberg, J. Cafaro, M. H. Turner, E. Shea-Brown, and ...
  • W. Maass and W. Maass, “To Spike or Not to ...
  • A. A. Faisal, L. P. J. Selen, and D. M. ...
  • T. Branco and K. Staras, “The probability of neurotransmitter release: ...
  • M. D. McDonnell, J. H. Goldwyn, and B. Lindner, “Editorial: ...
  • D. J. Tolhurst, J. A. Movshon, and A. F. Dean, ...
  • J. M. Beck et al., “Probabilistic Population Codes for Bayesian ...
  • R. Moreno-Bote, “Poisson-Like Spiking in Circuits with Probabilistic Synapses,” PLoS ...
  • C. Gulcehre, M. Moczulski, M. Denil, and Y. Bengio, “Noisy ...
  • M. Abadi et al., “TensorFlow: Large-Scale Machine Learning on Heterogeneous ...
  • Q. Le, J. Ngiam, Z. Chen, D. H. Chia, and ...
  • K. He, X. Zhang, S. Ren, and J. Sun, “Deep ...
  • حکم آبادی, ع., ذاکری, آ., & شرافت, ا. (۲۰۱۷). ...
  • L. Bottou, “Online learning and stochastic approximations,” On-line Learn. neural ...
  • J. H. Lee, T. Delbruck, and M. Pfeiffer, “Training deep ...
  • A. Morro, V. Canals, A. Oliver, M. Alomar, P. Galan-Prado, ...
  • P. O’Connor and M. Welling, “Deep Spiking Networks,” no. Nips, ...
  • H. Mostafa, “Supervised learning based on temporal coding in spiking ...
  • S. Sen, S. Venkataramani, and A. Raghunathan, “Approximate computing for ...
  • E. Hunsberger and C. Eliasmith, “Training Spiking Deep Networks for ...
  • B. Rueckauer, I.-A. Lungu, Y. Hu, and M. Pfeiffer, “Theory ...
  • D. Zambrano and S. M. Bohte, “Fast and Efficient Asynchronous ...
  • D. Huh and T. J. Sejnowski, “Gradient Descent for Spiking ...
  • J. Humble, S. Furber, S. L. Denham, and T. Wennekers, ...
  • H. A. Ghiassirad, M. Aliyari Shoorehdeli, and F. Farivar, “Application ...
  • S. S. Liew, M. Khalil-Hani, and R. Bakhteri, “Bounded activation ...
  • J. R. McDonnell, “Training Neural Networks with Weight Constraints,” Proc. ...
  • Y. Yi, Z. Hangping, and Z. Bin, “A new learning ...
  • M. Wang, Y. Chen, J. Liu, and Y. Gu, “Random ...
  • G. Di Muro and S. Ferrari, “A constrained-optimization approach to ...
  • B. O. Ayinde and J. M. Zurada, “Deep Learning of ...
  • F. Han, Q. H. Ling, and D. S. Huang, “Modified ...
  • S. J. Perantonis, N. Ampazis, and S. Varoufakis, “Constrained learning ...
  • J. Chorowski and J. M. Zurada, “Learning understandable neural networks ...
  • M. Courbariaux, Y. Bengio, and J.-P. David, “BinaryConnect: Training Deep ...
  • A. Bouzerdoum and T. R. Pattison, “Neural Network for Quadratic ...
  • Y. Mu, W. Ding, T. Zhou, and D. Tao, “Constrained ...
  • A. Tewari, “(Exponentiated) Stochastic Gradient Descent for L۱ Constrained Problems,” ...
  • J. Zylberberg, J. Cafaro, M. H. Turner, E. Shea-Brown, and ...
  • W. Maass and W. Maass, “To Spike or Not to ...
  • A. A. Faisal, L. P. J. Selen, and D. M. ...
  • T. Branco and K. Staras, “The probability of neurotransmitter release: ...
  • M. D. McDonnell, J. H. Goldwyn, and B. Lindner, “Editorial: ...
  • D. J. Tolhurst, J. A. Movshon, and A. F. Dean, ...
  • J. M. Beck et al., “Probabilistic Population Codes for Bayesian ...
  • R. Moreno-Bote, “Poisson-Like Spiking in Circuits with Probabilistic Synapses,” PLoS ...
  • C. Gulcehre, M. Moczulski, M. Denil, and Y. Bengio, “Noisy ...
  • M. Abadi et al., “TensorFlow: Large-Scale Machine Learning on Heterogeneous ...
  • Q. Le, J. Ngiam, Z. Chen, D. H. Chia, and ...
  • K. He, X. Zhang, S. Ren, and J. Sun, “Deep ...
  • حکم آبادی, ع., ذاکری, آ., & شرافت, ا. (۲۰۱۷). ...
  • نمایش کامل مراجع