مطالعه مروری بر روشهای تشخیص زبان اشاره مبتنی بر یادگیریعمیق
عنوان مقاله: مطالعه مروری بر روشهای تشخیص زبان اشاره مبتنی بر یادگیریعمیق
شناسه ملی مقاله: CRIAL01_011
منتشر شده در اولین کنفرانس ملی پژوهش و نوآوری در هوش مصنوعی در سال 1402
شناسه ملی مقاله: CRIAL01_011
منتشر شده در اولین کنفرانس ملی پژوهش و نوآوری در هوش مصنوعی در سال 1402
مشخصات نویسندگان مقاله:
سید مصیب عربی - دانشجوی کارشناسی ارشد، گروه مهندسی کامپیوتر ، دانشگاه آزاد اسلامی واحد کرج، ایران
امینه امینی - استادیار ، گروه مهندسی کامپیوتر ، دانشگاه آزاد اسلام ی واحد کرج، ا یران
خلاصه مقاله:
سید مصیب عربی - دانشجوی کارشناسی ارشد، گروه مهندسی کامپیوتر ، دانشگاه آزاد اسلامی واحد کرج، ایران
امینه امینی - استادیار ، گروه مهندسی کامپیوتر ، دانشگاه آزاد اسلام ی واحد کرج، ا یران
امروزه بخشی از افراد جامعه ناشنوا بوده و یا دارای اختلال گفتار می باشند و ارتباط آنها با دیگران دشوار می باشد. روش های تشخیص زبان اشاره سعی کرده تا این مشکل را رفع نموده و بتواند این ارتباط را فراهم و آسان نماید. با توجه به اینکه هر کشور دارای زبان اشاره مختص به خود است ، دقت تشخیص زبان اشاره برای هر کدام متفاوت می باشد. همچن ی ن با توجه به اینکه در روش های جدید سعی شده تا با پردازش تصویر و استخراج ویژگی های آن بتوان زبان اشاره را تشخیص داد بنابراین ممکن است به دلیل شرایط نوری و رنگ پوست و رنگ پس ز مینه دقت تشخیص آن کاهش پیدا کند. در این مقاله سعی شده است تا مقایسه ای روی روش های تشخیص زبان اشاره مبت نی بر یادگیری عمیق انجام شود و دقت تشخیص برای زبان های اشاره مختلف از جمله زبان اشاره آمریکایی و هندی و چینی در شرایط مختلف بررسی شود. روش های تشخیص زبان اشاره مبتنی بر یادگیری عمیق به شبکه عصبی پیچشی(CNN)، مدل اصلاح شده حافظه ی کوتاه مدت طولانی(LSTM)، شبکه های توجه عمیق مدل سازی شده( M۲DA- Net) شبکه عصبی پیچ شی سه بعدی (۳DCNN) و مدل شبکه عصبی پیچشی هندسی (G-CNN) دسته بندی شده اند. روش ها از جنبه دقت و زمان تشخیص مقایسه شده اند و در نتیجه مشخص شد که روش شبکه عصبی پیچشی سه بعدی عملکرد بهتری دارد .همچنین مزایا و معایب روش های مختلف همراه با چالش ها در تشخیص زبان اشاره مشخص شد .
کلمات کلیدی: زبان اشاره ، یادگیری عمیق ، شبکه عصبی پیچشی
صفحه اختصاصی مقاله و دریافت فایل کامل: https://civilica.com/doc/2035135/