بررسی و مقایسه روش های استخراج نمونه های تکراری در داده های حجیم

Publish Year: 1396
نوع سند: مقاله کنفرانسی
زبان: Persian
View: 693

This Paper With 11 Page And PDF and WORD Format Ready To Download

  • Certificate
  • من نویسنده این مقاله هستم

استخراج به نرم افزارهای پژوهشی:

لینک ثابت به این Paper:

شناسه ملی سند علمی:

CITCOMP02_181

تاریخ نمایه سازی: 7 اسفند 1396

Abstract:

با توجه به گسترش اینترنت و فراگیر شدن آن روزانه حجم بالایی از اطلاعات ایجاد می شود. پردازش این حجم از داده ها نیاز به سیستمی با قدرت پردازشی بالا دارد. سیستم های رایج امروزی قادر به پردازش چنین داده هایی با حجم زیاد نمی باشند و از طرف دیگر تامین سیستم هایی با توان پردازشی بالا به دلیل هزینه های زیاد از عهده سازمان ها خارج است. استخراج الگوهای تکراری منافع تحقیقاتی متعددی را در دو دهه گذشته جذب کرده از جمله استخراج مجموعه نمونه های تکراری از معاملات و استخراج توالی تکرار. استخراج الگوهای تکراری پیامدهایی را به دنبال خود دارد از جمله پیچیدگی فضا: داده های ورودی، نتایج میانی و الگوهای خروجی می توانند برای قرارگیری در حافظه بسیار بزرگ باشند که مانع اجرای تعداد زیادی از الگوریتم ها می شود و همچنین پیچیدگی زمانی: بسیاری از روش های موجود روی جستجو کامل یا ساختارهای داده ای پیچیده برای استخراج الگوهای تکراری تکیه می کنند که این کار برای داده های حجیم غیرقابل اجراست. تاکنون روش های گوناگونی برای مقابله با این چالش ها بیان شده که در اینجا چند مورد از آن ها را بیان کرده و مورد مقایسه قرار می دهیم و در آخر نیز از روش های ارایه شده جمع بندی می کنیم.

Authors

ستار مرادی

دانشجوی کارشناسی ارشد کارشناسی ارشد، دانشگاه جامع امام حسین(ع)، تهران، تهران

مهدی نقوی

استادیار گروه کامپیوتر، دانشگاه جامع امام حسین(ع)، تهران، تهران