تخمین شبکه های عصبی با تعداد محدود نورون ها در لایه های مخفی

Publish Year: 1394
نوع سند: مقاله کنفرانسی
زبان: Persian
View: 3,033

This Paper With 6 Page And PDF and WORD Format Ready To Download

  • Certificate
  • من نویسنده این مقاله هستم

این Paper در بخشهای موضوعی زیر دسته بندی شده است:

استخراج به نرم افزارهای پژوهشی:

لینک ثابت به این Paper:

شناسه ملی سند علمی:

FBFI01_084

تاریخ نمایه سازی: 9 مرداد 1395

Abstract:

انتخاب ساختار مناسب و ایده آل، هنگام کار با شبکه های عصبی مصنوعی، همواره موضوعی چالش برانگیز و مورد بحث میان صاحب نظران علم هوش مصنوعی بوده است. تعیین تعداد نورون های میانی هر ساختار، از اهمیت بالایی برخوردار است؛ افزایش هزینه تحمیل شده بر شبکه از یک سو و کاهش خطای خروجی پیش بینی شده از سوی دیگر، همواره در دو سمت یک طیف قرار دارند. ما در این مقاله از یک شبکه عصبی با دولایه پنهان و تعداد d ورودی استفاده کردیم. لایه پنهان اول شامل d نورون، لایه پنهان دوم شامل 2d+2 نورون می باشد. تابع فعال سازی، به طور خاص، یک تابع سیگموئید بی نهایت مشتق پذیر است. نشان دادیم که شبکه عصبی با چنین ساختار و ویژگی هایی توانایی دارد، هر تابع پیوسته چندجمله ای را با هر میزان دقت دلخواه، تخمین زند.

Keywords:

شبکه عصبی , مدل پرسپترون پیش خور چندلایه , تابع سیگموئید , تخمین , انطباق

Authors

علی قزلباش

گروه آموزشی فنی و مهندسی، دانشگاه جیرفت، جیرفت

عمید خطیبی

عضو هیات علمی گروه کامپیوتر، دانشگاه آزاد اسلامی واحد بردسیر، بردسیر

مریم شریفی

دانشجوی کارشناسی ارشد نرم افزار، دانشگاه آزاد اسلامی واحد بردسیر، بردسیر

مراجع و منابع این Paper:

لیست زیر مراجع و منابع استفاده شده در این Paper را نمایش می دهد. این مراجع به صورت کاملا ماشینی و بر اساس هوش مصنوعی استخراج شده اند و لذا ممکن است دارای اشکالاتی باشند که به مرور زمان دقت استخراج این محتوا افزایش می یابد. مراجعی که مقالات مربوط به آنها در سیویلیکا نمایه شده و پیدا شده اند، به خود Paper لینک شده اند :
  • Akad. Nauk SSSR 114, pp. 679-681, 1957; English transl: Amer. ...
  • Barron. A. , App roximation and estimation bounds for artificial ...
  • Cybenko. G, App roximation by superpositions of a sigmoidal function, ...
  • Fridman. B. L, An improvement in the smoothnes of the ...
  • Girosi. F, Poggio. T, Rep resentation properties of networks: Kolmogorov's ...
  • Hecht- Nielsen. R, Kolmogorov's mapping neural network existence theorem, in: ...
  • Hornik. K, App roximation capabilities of multilayer feedforward. networks, Neural ...
  • Ismailov. V. E, On the representation by linear superpositions, J. ...
  • Ismailov. V. E, App roximation by neural networks wvith weights ...
  • Kahane. J, Sur le theoreme de superposition de Kolmogorov, collection ...
  • Kolmogorov. A. N, On the representation of continuous functions of ...
  • Kurkova. _ Kolmogorov's theorem is relevant, Neural Comput. 3, pp. ...
  • K@rkova. V, Kolmogorov's theorem and multilayer neural networks, Neural Networks ...
  • Leshno. M, Lin. _ Ya, Pinkus. _ Schocken. S, polynomial ...
  • Lorentz. G. G, Metric entropy, widths, and superpositions of functions, ...
  • Maiorov. V, Pinkus. A, Lower bounds for networks, ...
  • Neuro computing 25, pp. 81-91, 1999. ...
  • Ostrand. P. A, Dimension of metric spaces and Hilbert's problem ...
  • Pinkus. A, App roximation theory of the MLP model in ...
  • Sprecher. D. A, On the structure _ continuous functions of ...
  • Sprecher. _ A, An improvement in the superposition theorem of ...
  • Sternfeld. Y, Uniformly separating families of functions, Israel J. Math. ...
  • نمایش کامل مراجع