A Proximal Method of Stochastic Gradient for Convex Optimization

Publish Year: 1402
نوع سند: مقاله ژورنالی
زبان: English
View: 145

This Paper With 14 Page And PDF Format Ready To Download

  • Certificate
  • من نویسنده این مقاله هستم

استخراج به نرم افزارهای پژوهشی:

لینک ثابت به این Paper:

شناسه ملی سند علمی:

JR_COAM-8-1_002

تاریخ نمایه سازی: 21 خرداد 1402

Abstract:

‎The Proximal Stochastic Average Gradient (Prox-SAG+) is a primary method used for solving optimization problems that contain the sum of two convex functions. This kind of problem usually arises in machine learning, which utilizes a large amount of data to create component functions from a dataset. A proximal operation is applied to obtain the optimal value due to its appropriate properties. The Prox-SAG+ algorithm is faster than some other methods and has a simpler algorithm than previous ones. Moreover, using this specific operator can help to reassure that the achieved result is optimal. Additionally, it has been proven that the proposed method has an approximately geometric rate of convergence. Implementing the proposed operator makes the method more practical than other algorithms found in the literature. Numerical analysis also confirms the efficiency of the proposed scheme.

Keywords:

Authors

Zeinab Saeidian

‎Department of Mathematics‎, ‎University of Kashan‎, ‎Kashan‎, ‎Iran.

Maryam Mahmoudoghli

‎K.N‎. ‎Toosi University of Technology‎, ‎Tehran‎, ‎Iran‎.

مراجع و منابع این Paper:

لیست زیر مراجع و منابع استفاده شده در این Paper را نمایش می دهد. این مراجع به صورت کاملا ماشینی و بر اساس هوش مصنوعی استخراج شده اند و لذا ممکن است دارای اشکالاتی باشند که به مرور زمان دقت استخراج این محتوا افزایش می یابد. مراجعی که مقالات مربوط به آنها در سیویلیکا نمایه شده و پیدا شده اند، به خود Paper لینک شده اند :
  • Hastie, T., Tibshirani, R., Friedman, J. (۲۰۰۹). “The elements of ...
  • Hu, C., Kwok, J.T., Pan, W. (۲۰۰۹). “Accelerated gradient methods ...
  • Le Roux, N., Schmidt, M., Bach, F. (۲۰۱۲). “A stochastic ...
  • Li, Z., Li, J. (۲۰۱۸). “A simple proximal stochastic gradient ...
  • Nesterov, Y. (۲۰۰۴). “Introductory lectures on convex optimization‎: ‎A basic ...
  • Nesterov, Y. (۲۰۱۳). “Gradient methods for minimizing composite functions”, Mathematical ...
  • Parikh, N., Boyd, S. (۲۰۱۳). “Proximal algorithms”, Foundations and Trends ...
  • Rockafellar, R.T. (۱۹۷۰). “Convex analysis”, Princeton University Press ...
  • Schmidt, M., Le Roux, N., Bach F. (۲۰۱۷). “Minimizing finite ...
  • Shalev-Shwartz, S., Zhang, T. (۲۰۱۲). “Proximal stochastic dual coordinate ascent”, ...
  • Shalev-Shwartz, S., Zhang, T. (۲۰۱۳). “Stochastic dual coordinate ascent methods ...
  • Wojtowytsch, S. (۲۰۲۳). “Stochastic gradient descent with noise of machine ...
  • Wojtowytsch, S. (۲۰۲۱). “Stochastic gradient descent with noise of machine ...
  • Xiao, L., Zhang, T. (۲۰۱۴). “A proximal stochastic gradient method ...
  • Yuan, W., Hu, F. Lu, L. (۲۰۲۲). ”A new non-adaptive ...
  • Yun, J., Lozano, A.C., Yang, E. (۲۰۲۰). “A general family ...
  • نمایش کامل مراجع