مرور جامع بر ترنسفورمرهای دوسویه برای درک زبان طبیعی

Publish Year: 1404
نوع سند: مقاله کنفرانسی
زبان: Persian
View: 4

This Paper With 15 Page And PDF Format Ready To Download

  • Certificate
  • من نویسنده این مقاله هستم

استخراج به نرم افزارهای پژوهشی:

لینک ثابت به این Paper:

شناسه ملی سند علمی:

CICTC04_049

تاریخ نمایه سازی: 21 بهمن 1404

Abstract:

پیشرفت های چشمگیر در حوزه یادگیری عمیق به ویژه با معرفی معماری ترنسفورمر منجر به توسعه مدل هایی شده اند که تحول بنیادینی در درک زبان طبیعی ایجاد کرده اند. مدل BERT نمایش های رمزگذار دو سویه از ترنسفورمرها به عنوان یکی از اثرگذارترین این مدل ها توانسته با بهره گیری از رمزگذاری دوسویه و پیش آموزش بر روی حجم عظیمی از داده های متنی، استانداردهای جدیدی در فهم بافت محور زبان ارائه دهد. این مقاله با هدف مرور جامع مدل BERT و مشتقات آن تدوین شده و به تحلیل ساختار، معماری، اهداف آموزشی، مکانیزم تنظیم دقیق، کاربردهای کلیدی در حوزه هایی نظیر پزشکی، حقوق و جستجو و همچنین محدودیت ها و چالش های فنی و اخلاقی این مدل می پردازد. علاوه بر نسخه های بهینه سازی شده نظیر TinyBERT، DistilBERT، ALBERT، ROBERTA و مدل های دامنه محور مانند BioBERT، BERT نیز بررسی شده اند. در نهایت چشم اندازهای آینده پژوهش در زمینه مدل های زبان ترنسفورمری شامل فشرده سازی، یادگیری چندوجهی و تلفیق دانش بیرونی مورد بحث قرار می گیرد. هدف این مقاله، تبیین جایگاه BERT به عنوان یک مدل بنیادین و بررسی قابلیت های آن در توسعه سیستم های زبانی هوشمند نسل آینده است.

Authors

مجید سلیمانی راد

گروه علمی کامپیوتر واحد قم دانشگاه آزاد اسلامی، قم، ایران

احمد شریف

گروه علمی کامپیوتر واحد قم دانشگاه آزاد اسلامی، قم، ایران