استفاده از آنتروپی شانون در پیش پردازش ورودی شبکه بیزین جهت مدل سازی سری های زمانی
Publish place: Journal of Watershed Management Research، Vol: 9، Issue: 18
Publish Year: 1397
نوع سند: مقاله ژورنالی
زبان: Persian
View: 350
This Paper With 12 Page And PDF Format Ready To Download
- Certificate
- من نویسنده این مقاله هستم
استخراج به نرم افزارهای پژوهشی:
شناسه ملی سند علمی:
JR_JWMR-9-18_016
تاریخ نمایه سازی: 4 مهر 1400
Abstract:
انتخاب ورودی های مناسب برای مدل های هوشمند از اهمیت بسزایی برخوردار است. زیرا باعث کاهش هزینه و صرفه جویی در وقت و افزایش دقت و کارایی مدل ها می شود. هدف از این مطالعه، کاربرد آنتروپی شانون برای انتخاب ترکیب بهینه متغیرهای ورودی در مدل سازی سری زمانی می باشد. سری زمانی ماهانه بارش، دما و تابش در دوره زمانی ۱۳۶۱تا۱۳۸۹ برای ایستگاه سینوپتیک تبریز مورداستفاده قرار گرفت. پارامترهای بارش، دما و تابش با تاخیرهای مختلف به عنوان ورودی به آنتروپی شانون در نظر گرفته شد. نتایج آنتروپی شانون نشان داد که سری زمانی با سه تاخیر، نتایج بهتری را برای مدل سازی ارائه می دهد. شبیه سازی با استفاده از دو مدل شبکهی بیزین و رگرسیون خطی چند متغیره انجام گرفت. کارایی مدل ها با استفاده از سه معیار: ضریب تبیین (R۲)، ریشه جذر میانگین خطا (RMSE) و شاخص پراکندگی (SI) محاسبه گردید. از میان این دو مدل با ساختار ورودی های یکسان، مدل شبکه عصبی بیزین عملکرد بهتری برای شبیه سازی سری زمانی بارش، دما و تابش در مقایسه با رگرسیون چندمتغیره داشته است. نتایج تحقیق نشان داد که آنتروپی شانون در انتخاب ترکیب ورودی مناسب برای مدل های هوشمند می تواند کارایی بهتری داشته باشد.
Keywords:
Authors
فاطمه آخونی پورحسینی
Water Resources Engineering, University of Tabriz
محمد علی قربانی
Water Resources Engineering, University of Tabriz
کاکا شاهدی
Faculty of Natural Resources, Sari Agricultural Sciences and Natural Resources, University
مراجع و منابع این Paper:
لیست زیر مراجع و منابع استفاده شده در این Paper را نمایش می دهد. این مراجع به صورت کاملا ماشینی و بر اساس هوش مصنوعی استخراج شده اند و لذا ممکن است دارای اشکالاتی باشند که به مرور زمان دقت استخراج این محتوا افزایش می یابد. مراجعی که مقالات مربوط به آنها در سیویلیکا نمایه شده و پیدا شده اند، به خود Paper لینک شده اند :