Publisher of Iranian Journals and Conference Proceedings

Please waite ..
Publisher of Iranian Journals and Conference Proceedings
Login |Register |Help |عضویت کتابخانه ها
Paper
Title

پردازش تصاویر پزشکی با استفاده از شبکه های عصبی کانولوشن عمیق

Year: 1397
COI: JR_KEEE-3-11_006
Language: PersianView: 762
This Paper With 6 Page And PDF Format Ready To Download

Buy and Download

با استفاده از پرداخت اینترنتی بسیار سریع و ساده می توانید اصل این Paper را که دارای 6 صفحه است به صورت فایل PDF در اختیار داشته باشید.
آدرس ایمیل خود را در کادر زیر وارد نمایید:

Authors

علی کارساز - موسسه آموزش عالی خراسان
صبورا محمدیان روشن - موسسه آموزش عالی خراسان

Abstract:

حوزه پردازش تصاویر پزشکی بازه وسیعی از کاربردها از تشخیص دیابت چشمی از روی تصاویر شبکیه چشم تا بخش ­بندی تصاویر MRI جهت تشخیص تومورهای مغر انسان را در بر می ­گیرد. نگرش­ های متعدد دسته­ بندی و خوشه ­بندی مبتنی بر یادگیری ماشین در مقالات جهت بهبود دقت در غربال­گری بیماری­ ها ارائه شده است. بعضی از این روش­ ها مبتنی بر استخراج ویژگی­ ها از روی تصاویر پزشکی به ­صورت دستی بوده و توسط متخصصین پردازش تصویر با صرف زمان و انرژی زیاد، صورت می­ پذیرد. در سال­ های اخیر روشی جدید برای تشخیص و طبقه ­بندی تصاویر پزشکی بدون نیاز به استخراج ویژگی­ ها به­ صورت دستی، مبتنی بر شبکه­ های عصبی کانولوشن ارائه شده است. این دسته از شبکه­ های عصبی که مبتنی بر فرآیند یادگیری عمیق ارائه شده ­اند نسبت به شبکه ­های عصبی معمولی به علت داشتن لایه­ های کانولوشن و مخفی بیشتر در زمینه کار با ورودی ­های با ابعاد بالاتر مانند تصاویر دارای توانمندی بیشتری هستند. یک معضل جدی در آموزش یک شبکه عصبی کانولوشن با یادگیری عمیق، به موضوع آموزش آنها از ابتدا باز می­ گردد این معضل ناشی از کمبود داده ­های طبقه­ بندی شده جهت آموزش و زمان­ بر بودن فرآیند آموزش تا یک همگرایی مناسب است. بنابراین یک روش متداول برای آموزش شبکه­ های عصبی کانولوشن بر روی داده ­های پزشکی، بر اساس باز تنظیم شبکه ­های از پیش آموزش یافته، می ­باشد. برخی از مهمترین و نیرومندترین شبکه­ های عصبی کانولوشن که بر روی بانک­ های اطلاعات تصاویر، نظیر بانک اطلاعات تصاویر ImageNet با بیش از یک میلیون تصویر، آموزش دیده ­اند شامل شبکه سیفارنت (CifarNet)، الکس­نت (AlexNet) و گوگل­نت(GoogleNet) است. که جهت بازتنظیم آنها در تشخیص تصاویر پزشکی با کاربردهای خاص و با تعداد محدودی از تصاویر، می ­توان بهره برد.  

Keywords:

شبکه های عصبی کانولوشن , شبکه کانولوشن گوگل نت , شبکه الکس نت , شبکه سیفارنت , بانک اطلاعات تصاویر ImageNet.

Paper COI Code

This Paper COI Code is JR_KEEE-3-11_006. Also You can use the following address to link to this article. This link is permanent and is used as an article registration confirmation in the Civilica reference:

https://civilica.com/doc/1155131/

How to Cite to This Paper:

If you want to refer to this Paper in your research work, you can simply use the following phrase in the resources section:
کارساز، علی و محمدیان روشن، صبورا،1397،پردازش تصاویر پزشکی با استفاده از شبکه های عصبی کانولوشن عمیق،https://civilica.com/doc/1155131

مراجع و منابع این Paper:

لیست زیر مراجع و منابع استفاده شده در این Paper را نمایش می دهد. این مراجع به صورت کاملا ماشینی و بر اساس هوش مصنوعی استخراج شده اند و لذا ممکن است دارای اشکالاتی باشند که به مرور زمان دقت استخراج این محتوا افزایش می یابد. مراجعی که مقالات مربوط به آنها در سیویلیکا نمایه شده و پیدا شده اند، به خود Paper لینک شده اند :

  • [1] C. Szegedy et al., "Going deeper with convolutions,"IEEE Conference ...
  • [2] C. Szegedy et al., "Rethinking the Inception Architecture for ...
  • [3] Y. Wanga, G. Caoa, B. Weib and G. Yang, "Hierarchical ...
  • [4] F. C. Harry Pratta, Deborah M. Broadbentc, P. Simon P. ...
  • [5] H. H. Vo and A. Verma, "New deep neural nets ...
  • [6] Y. M. S. Reddy, R. E. Ravindran and K. H. ...
  • [7] B. a. Antal and A. a. Hajdu, "An ensemble-based system ...
  • [8] B. v. G. M. Niemeijer, Michael J. Cree, "Retinopathy online ...
  • [9] S. S. Rahim, C. Jayne, V. Palade, and J. Shuttleworth, ...
  • [10] L. G. L. Giancardo, F. Meriaudeaub, T. P. Karnowskic, Y. ...
  • [11] N. Tajbakhsh, S. R. Gurudu, and J. Liang, “A ...
  • [12] R. Zhang, Y. Zheng, T. Mak, R. ...
  • [13] N. Tajbakhsh, “Computer-aided pulmonary embolism detection using a ...
  • [14] D. C. Cireşan, A. Giusti, L. M. Gambardella ...
  • [15] H. Roth et al., “A new 2.5D ...
  • [16] H. Shin, H. Roth, M. Gao, ...
  • [17] Y. Zheng, D. Liu, B. Georgescu, H. ...
  • [18] H. Roth, L. Lu, N. Lay, A. Harrison, ...
  • [19] D. Vo "Semantic image segmentation using fully convolutional neural ...
  • [20] W. Zhang et al., “Deep convolutional neural networks ...
  • [21] D. C. Ciresan, A. Giusti, L. M. Gambardella, ...
  • [22] A. Prasoon, K. Petersen, C. Igel, F. Lauze ...
  • [23] J. Y. Shin, N. Tajbakhsh, R. T. Hurst, ...
  • [24] D. H. Hubel and T. N. Wiesel, "Receptive fields ...
  • [25] K. Fukushima, "Neocognitron: A self-organizing neural network model for ...
  • [26] A. Krizhevsky, I. Sutskever, and G. E. Hinton, "ImageNet ...
  • [27] Y. LeCun, L. Bottou, Y. Bengio, and P. Haffner, ...
  • [28] [Online]. Available: https://arxiv.org/abs/ 1207.0580. Accessed: Nov. 10, 2016. ...
  • [29] N. Tajbakhsh et al., “ Convolutional neural networks ...
  • [30] A. Krizhevsky, “Learning multiple layers of features from tiny ...
  • [31] J. Deng, W. Dong, R. Socher, L.-J. Li, K. ...

Research Info Management

Certificate | Report | من نویسنده این مقاله هستم

اطلاعات استنادی این Paper را به نرم افزارهای مدیریت اطلاعات علمی و استنادی ارسال نمایید و در تحقیقات خود از آن استفاده نمایید.

Reviews

3.00
1 تعداد پژوهشگران نظر دهنده
5 0
4 0
3 1
2 0
1 0

Scientometrics

The specifications of the publisher center of this Paper are as follows:
Type of center: موسسه غیرانتفاعی
Paper count: 191
In the scientometrics section of CIVILICA, you can see the scientific ranking of the Iranian academic and research centers based on the statistics of indexed articles.

Share this page

More information about COI

COI stands for "CIVILICA Object Identifier". COI is the unique code assigned to articles of Iranian conferences and journals when indexing on the CIVILICA citation database.

The COI is the national code of documents indexed in CIVILICA and is a unique and permanent code. it can always be cited and tracked and assumed as registration confirmation ID.

Support