راهنمای جامع الزویر برای استفاده از هوش مصنوعی در تحقیقات علمی
مقدمه
در سپتامبر ۲۰۲۵، انتشارات الزویر (Elsevier) به عنوان یکی از بزرگ ترین و معتبرترین ناشران علمی جهان، آخرین نسخه از راهنماهای خود را درباره استفاده از هوش مصنوعی در فرآیند تحقیق و نگارش مقالات علمی منتشر کرد. این راهنما که مخاطبان آن نویسندگان، داوران و ویراستاران علمی هستند، نقطه عطفی در تعامل دنیای علم با فناوری های نوظهور محسوب می شود. الزویر با اتخاذ رویکردی متوازن، در حالی که پتانسیل های هوش مصنوعی را به رسمیت می شناسد، بر اصول اخلاقی، شفافیت و مسئولیت پذیری تاکید ویژه ای دارد.
در این یادداشت، به بررسی جامع و دقیق این راهنماها می پردازیم و تمامی جنبه های استفاده مجاز، محدودیت ها، تعهدات نویسندگان و داوران، و نحوه صحیح اعلام استفاده از هوش مصنوعی را تشریح خواهیم کرد.
فلسفه کلی الزویر: هوش مصنوعی دستیار است، نه نویسنده
یکی از مهم ترین اصول راهنمای الزویر این است که هوش مصنوعی باید به عنوان یک ابزار کمکی و دستیار در نظر گرفته شود، نه به عنوان نویسنده یا پژوهشگر اصلی. این تمایز بنیادین است و بر تمامی دستورالعمل های بعدی سایه افکنده است.
الزویر معتقد است که هوش مصنوعی می تواند در بسیاری از مراحل تحقیق مفید واقع شود، اما نباید جایگزین تفکر انتقادی، خلاقیت و مسئولیت پذیری انسانی گردد. بنابراین، استفاده از ابزارهای هوش مصنوعی در چارچوب های مشخصی مجاز است که در ادامه به تفصیل بررسی می شوند.
موارد مجاز استفاده از هوش مصنوعی
الف) سنتز و تحلیل متون پیچیده
یکی از کاربردهای مجاز هوش مصنوعی، کمک به سنتز و تحلیل متون علمی پیچیده است. محققان می توانند از ابزارهایی مانند AI Agents و Deep Research برای خلاصه سازی مقالات متعدد، استخراج نکات کلیدی، و درک بهتر ادبیات موضوع استفاده کنند. این کاربرد به ویژه زمانی مفید است که پژوهشگر با حجم عظیمی از منابع علمی مواجه است و نیاز به مرور سریع و جامع دارد.
ب) شناسایی شکاف های پژوهشی
هوش مصنوعی می تواند با تحلیل گسترده ادبیات موجود، به شناسایی حوزه هایی که کمتر مورد مطالعه قرار گرفته اند کمک کند. این قابلیت به محققان امکان می دهد تا موضوعات نوآورانه و کم کار شده را سریع تر کشف کنند و پژوهش خود را در مسیری با اهمیت علمی بالاتر هدایت نمایند.
ج) ایده پردازی و طوفان فکری
در مراحل اولیه تحقیق، استفاده از هوش مصنوعی برای تولید ایده های اولیه، پیشنهاد چارچوب های نظری، یا ارائه دیدگاه های متفاوت مجاز است. البته باید توجه داشت که این ایده ها باید توسط پژوهشگر ارزیابی، تصحیح و توسعه یابند.
د) بهبود خوانایی و روان سازی متن
یکی از کاربردهای رایج و مفید هوش مصنوعی، کمک به بهبود ساختار جملات، افزایش روانی متن، و اصلاح مشکلات زبانی است. این امر به ویژه برای پژوهشگرانی که زبان انگلیسی زبان مادری آنها نیست، بسیار مفید واقع می شود.
ه) ترجمه و تبدیل زبانی
استفاده از هوش مصنوعی برای ترجمه اولیه متون یا تبدیل متن از یک زبان به زبان دیگر مجاز است، مشروط بر اینکه نویسنده ترجمه نهایی را بررسی، ویرایش و تایید کند.
محدودیت ها و خطوط قرمز
الف) ممنوعیت استفاده مستقیم از خروجی هوش مصنوعی به عنوان متن مقاله
مهم ترین محدودیتی که الزویر وضع کرده این است که خروجی مستقیم هوش مصنوعی نباید به عنوان متن اصلی مقاله استفاده شود. به عبارت دیگر، نویسندگان نمی توانند صرفا متنی که توسط ابزارهایی مانند ChatGPT، Jasper، یا سایر مدل های زبانی تولید شده است را کپی کرده و در مقاله خود قرار دهند.
خروجی هوش مصنوعی باید صرفا به عنوان الهام بخش، پیش نویس اولیه، یا نقطه شروع در نظر گرفته شود. نویسنده موظف است که این خروجی را به طور کامل بازنگری، تحلیل، تکمیل و با دانش و تخصص خود غنی کند.
ب) ممنوعیت ذکر هوش مصنوعی به عنوان نویسنده یا همکار
الزویر صراحتا اعلام کرده است که هوش مصنوعی نمی تواند به عنوان نویسنده (Author) یا همکار پژوهش (Co-author) در مقاله ذکر شود. نویسندگی مستلزم مسئولیت پذیری کامل، تفکر انتقادی و خلاقیت انسانی است که هوش مصنوعی فاقد آن است. تنها افراد حقیقی که به طور فعال در طراحی، اجرا، تحلیل و نگارش پژوهش مشارکت داشته اند می توانند به عنوان نویسنده شناخته شوند.
ج) نگرانی درباره مالکیت فکری و حریم خصوصی
الزویر به نویسندگان هشدار می دهد که هنگام استفاده از ابزارهای هوش مصنوعی، به ویژه پلتفرم های آنلاین، باید از شرایط و ضوابط استفاده آن ها مطمئن شوند. برخی از ابزارها ممکن است داده های ورودی کاربران را برای آموزش مدل های خود استفاده کنند، که این امر می تواند منجر به نقض حقوق مالکیت فکری پژوهشگر شود.
به همین دلیل، نویسندگان نباید اطلاعات محرمانه، داده های خام پژوهش، یا بخش های اصلی مقاله خود را در پلتفرم های عمومی هوش مصنوعی وارد کنند، مگر اینکه مطمئن شوند آن پلتفرم حریم خصوصی را رعایت می کند و از داده های کاربران برای آموزش مجدد استفاده نمی کند.
مسئولیت های سنگین نویسندگان: اصل پاسخگویی (Accountability)
یکی از محورهای اساسی راهنمای الزویر، تاکید بر مسئولیت کامل نویسنده است. حتی اگر هوش مصنوعی در بخش هایی از فرآیند تحقیق استفاده شده باشد، نویسنده مسئولیت کامل محتوای نهایی را بر عهده دارد. این مسئولیت شامل موارد زیر است:
الف) تایید صحت اطلاعات
نویسنده باید تمامی خروجی های تولید شده توسط هوش مصنوعی را به دقت بررسی و صحت آن ها را تایید کند. یکی از مشکلات شناخته شده مدل های زبانی بزرگ، پدیده ای به نام "توهم" (Hallucination) است که در آن مدل اطلاعات نادرست، منابع جعلی، یا داده های ساختگی تولید می کند.
الزویر به صراحت هشدار می دهد که منابع تولید شده توسط هوش مصنوعی ممکن است کاملا ساختگی باشند. بنابراین، نویسنده موظف است تک تک منابع را بررسی و از صحت آن ها اطمینان حاصل کند. استفاده از منابع تایید نشده یا جعلی می تواند به رد مقاله یا حتی لکه دار شدن اعتبار علمی پژوهشگر منجر شود.
ب) اصالت و بیان ایده های شخصی
نویسنده باید اطمینان حاصل کند که مقاله نهایی نشان دهنده تحلیل، تفسیر و ایده های اصیل خود اوست. هرچند هوش مصنوعی می تواند در مراحل اولیه کمک کند، اما دیدگاه های نظری، تحلیل داده ها، نتیجه گیری ها و بحث علمی باید کاملا برخاسته از تفکر و تخصص خود نویسنده باشد.
ج) حفظ حریم خصوصی و محرمانگی داده ها
نویسندگان نباید داده های شخصی، اطلاعات حساس بیماران، اطلاعات محرمانه شرکت ها، یا هر نوع داده ای که مشمول قوانین حریم خصوصی است را در ابزارهای هوش مصنوعی وارد کنند. این کار علاوه بر نقض اخلاق پژوهشی، می تواند پیامدهای قانونی جدی به همراه داشته باشد.
د) اجتناب از تبعیض و سوگیری
هوش مصنوعی ممکن است سوگیری های موجود در داده های آموزشی خود را در خروجی هایش بازتاب دهد. این سوگیری ها می تواند مربوط به جنسیت، نژاد، فرهنگ، یا هر عامل دیگری باشد. نویسنده مسئول است که خروجی های هوش مصنوعی را از این منظر بررسی کرده و اطمینان حاصل کند که هیچ گونه تبعیض یا سوگیری غیرمنصفانه ای در محتوای نهایی وجود ندارد.
قوانین سخت گیرانه درباره تصاویر و اشکال
یکی از حساس ترین بخش های راهنمای الزویر، مربوط به استفاده از هوش مصنوعی در تولید، تغییر یا دستکاری تصاویر و اشکال علمی است.
الف) ممنوعیت کامل تولید یا دستکاری تصاویر
الزویر به صراحت اعلام کرده است که استفاده از هوش مصنوعی برای تولید تصاویر جدید، تغییر تصاویر موجود، حذف یا اضافه کردن عناصر به تصویر، یا هر نوع دستکاری که محتوای علمی تصویر را تغییر دهد، اکیدا ممنوع است.
دلیل این ممنوعیت روشن است: یکپارچگی و صداقت داده های علمی از اهمیت بالایی برخوردار است. دستکاری تصاویر می تواند به تحریف نتایج، گمراهی خوانندگان، و در نهایت تخریب اعتبار علمی منجر شود.
ب) تغییرات مجاز: تنظیمات اساسی تصویر
الزویر تنها تغییرات محدودی را در تصاویر مجاز می داند که شامل موارد زیر است:
- تنظیم روشنایی (Brightness): برای بهبود وضوح تصویر
- تنظیم کنتراست (Contrast): برای تمایز بهتر عناصر تصویر
- توازن رنگ (Color Balance): برای تصحیح رنگ های نامناسب
شرط مهم این است که این تغییرات نباید اطلاعات اصلی و علمی تصویر را محو، تحریف یا تغییر دهند. تمامی تنظیمات باید به طور یکنواخت بر کل تصویر اعمال شوند، نه بر بخش های خاصی از آن.
ج) ابزارهای تشخیص دستکاری: Image Forensics
الزویر هشدار می دهد که از ابزارهای پیشرفته Image Forensics (جرم شناسی تصویر) برای شناسایی دستکاری های انجام شده توسط هوش مصنوعی استفاده می کند. این ابزارها قادرند تغییرات دیجیتال، حذف یا اضافه شدن عناصر، و حتی استفاده از تصاویر تولید شده توسط هوش مصنوعی را تشخیص دهند.
در صورت کشف دستکاری، مقاله ممکن است رد شود، منتشر نشود، یا در صورت انتشار قبلی، پس گرفته (Retract) شود که این امر لطمه جدی به اعتبار علمی پژوهشگر وارد می کند.
د) استثناء: زمانی که هوش مصنوعی بخشی از متدولوژی است
تنها استثنای این قانون زمانی است که استفاده از هوش مصنوعی خود بخشی از روش شناسی تحقیق باشد. به عنوان مثال، در پژوهش های تصویربرداری پزشکی که از الگوریتم های هوش مصنوعی برای تشخیص بیماری یا تحلیل تصاویر استفاده می شود، استفاده از این ابزارها مجاز است.
اما در این صورت، نویسنده باید در بخش روش شناسی (Methods) با جزئیات کامل، نام مدل هوش مصنوعی، نسخه آن، سازنده، نحوه آموزش، پارامترهای استفاده شده، و محدودیت های آن را شرح دهد. این اطلاعات برای تکرارپذیری پژوهش و ارزیابی دقیق نتایج ضروری است.
بیانیه الزام آور اعلام استفاده از هوش مصنوعی
یکی از مهم ترین تغییرات در راهنمای جدید الزویر، الزام به ارائه بیانیه رسمی درباره استفاده از هوش مصنوعی است.
الف) چه زمانی باید بیانیه ارائه شود؟
هرگاه نویسنده از ابزارهای هوش مصنوعی مولد (Generative AI) مانند ChatGPT، GPT-4، Claude، Jasper، AI Agents، یا هر ابزار مشابه دیگری در فرآیند تحقیق یا نگارش استفاده کرده باشد، باید بیانیه ای رسمی در مقاله درج کند.
ب) محل قرارگیری بیانیه
این بیانیه باید در بخشی مجزا با عنوان زیر، قبل از لیست منابع و مراجع قرار گیرد:
Declaration of Generative AI and AI-assisted technologies in the writing process
ج) محتوای دقیق بیانیه
الزویر قالب مشخصی برای این بیانیه ارائه کرده است:
During the preparation of this work the author(s) used [NAME TOOL / SERVICE] in order to [REASON]. After using this tool/service, the author(s) reviewed and edited the content as needed and take(s) full responsibility for the content of the publication
در این قالب:
- [NAME TOOL / SERVICE]: نام دقیق ابزار یا سرویس استفاده شده (مثلا ChatGPT-4، Claude 3، Jasper AI)
- [REASON]: دلیل استفاده از آن ابزار (مثلا برای بهبود خوانایی متن، ترجمه اولیه، یا خلاصه سازی ادبیات)
مثال عملی:
During the preparation of this work the author(s) used ChatGPT-4 in order to improve the readability and language quality of the manuscript. After using this tool/service, the author(s) reviewed and edited the content as needed and take(s) full responsibility for the content of the publication
د) اهمیت جمله پایانی
جمله پایانی بیانیه که تاکید بر مسئولیت کامل نویسنده دارد، بسیار حیاتی است. این جمله نشان می دهد که نویسنده تمامی محتوای نهایی را بررسی، ویرایش و تایید کرده و مسئولیت کامل آن را می پذیرد.
مواردی که نیاز به اعلام ندارند
الزویر برای جلوگیری از بروکراسی بیش از حد و تمرکز بر موارد واقعا مهم، برخی ابزارها را از الزام اعلام معاف کرده است:
الف) ابزارهای بررسی گرامر و املا
ابزارهایی مانند Grammarly، ProWritingAid، یا ابزارهای مشابه که صرفا برای تصحیح گرامر، املا و نقطه گذاری استفاده می شوند، نیازی به اعلام ندارند. این ابزارها مدت هاست که به عنوان ابزارهای استاندارد نگارش پذیرفته شده اند.
ب) نرم افزارهای مدیریت منابع
نرم افزارهایی مانند EndNote، Mendeley، Zotero، یا RefWorks که برای سازماندهی و مدیریت منابع استفاده می شوند نیز نیازی به اعلام ندارند.
ج) ابزارهای آماری و تحلیل داده
نرم افزارهای استاندارد آماری مانند SPSS، R، Python، MATLAB و مانند آن ها که سال هاست در پژوهش های علمی استفاده می شوند، نیازی به ذکر در بیانیه هوش مصنوعی ندارند (هرچند باید در بخش Methods ذکر شوند).
د) نکته مهم: تفاوت بین بیانیه و بخش Methods
اگر هوش مصنوعی بخشی از فرآیند تحلیل داده یا روش شناسی تحقیق باشد، نباید در بیانیه انتهای مقاله ذکر شود، بلکه باید به طور کامل در بخش Methods توضیح داده شود. بیانیه اعلام هوش مصنوعی صرفا برای ابزارهایی است که در فرآیند نگارش و آماده سازی متن استفاده شده اند، نه برای ابزارهایی که جزء اصلی روش تحقیق هستند.
محدودیت های ویژه برای داوران و ویراستاران
الزویر نگرانی های جدی درباره استفاده داوران و ویراستاران از هوش مصنوعی دارد و قوانین سخت گیرانه ای در این زمینه وضع کرده است.
الف) ممنوعیت آپلود مقالات در ابزارهای هوش مصنوعی
داوران و ویراستاران به هیچ وجه نباید تمام یا بخش هایی از مقالات در حال بررسی را در ابزارهای هوش مصنوعی عمومی (مانند ChatGPT، Claude، یا دیگر پلتفرم ها) آپلود کنند. دلایل این ممنوعیت عبارتند از:
- نقض محرمانگی: مقالات در حال بررسی محرمانه هستند و نباید با طرف سوم به اشتراک گذاشته شوند.
- تهدید حقوق مالکیت فکری: آپلود متن مقاله در پلتفرم هایی که ممکن است از آن برای آموزش مدل های خود استفاده کنند، می تواند حقوق مالکیت فکری نویسنده را نقض کند.
- احتمال نشت اطلاعات: داده های حساس یا نتایج نوآورانه ممکن است به طور ناخواسته افشا شوند.
ب) ممنوعیت استفاده از هوش مصنوعی برای نوشتن گزارش داوری
داوران نباید از هوش مصنوعی برای نوشتن گزارش داوری یا ارزیابی مقالات استفاده کنند. دلیل این ممنوعیت این است که داوری علمی مستلزم تفکر انتقادی عمیق، قضاوت تخصصی، و درک دقیق زمینه علمی است که فراتر از توانایی های فعلی هوش مصنوعی است.
هوش مصنوعی ممکن است نظرات سطحی، عمومی یا حتی نادرست ارائه دهد که نه تنها به بهبود کیفیت مقاله کمکی نمی کند، بلکه می تواند به تصمیم گیری های نادرست درباره پذیرش یا رد مقالات منجر شود.
ج) ابزارهای داخلی الزویر
الزویر توضیح می دهد که خود از ابزارهای هوش مصنوعی داخلی و ایمن برای برخی کارها استفاده می کند، از جمله:
- تشخیص سرقت علمی و استفاده غیرمجاز از متون
- کمک به انتخاب داوران مناسب
- شناسایی تبعیض یا سوگیری احتمالی در فرآیند داوری
این ابزارها طوری طراحی شده اند که محرمانگی را حفظ کنند و از اطلاعات مقالات برای هیچ منظور دیگری استفاده نشود.
مقایسه با سایر ناشران علمی بزرگ
الف) همگرایی در اصول کلی
اکثر ناشران علمی بزرگ از جمله Springer Nature، Wiley، Taylor & Francis، PLOS، و دیگران، از دستورالعمل های کمیته اخلاق در انتشار (COPE - Committee on Publication Ethics) پیروی می کنند. این دستورالعمل ها بر اصول کلی مشابهی تاکید دارند:
- شفافیت در استفاده از هوش مصنوعی
- مسئولیت کامل نویسنده
- ممنوعیت ذکر هوش مصنوعی به عنوان نویسنده
- ضرورت اعلام استفاده از ابزارهای مولد
ب) تفاوت ها در جزئیات
با وجود همگرایی کلی، ناشران مختلف ممکن است در جزئیات تفاوت هایی داشته باشند:
- قالب دقیق بیانیه اعلام
- سطح جزئیات مورد نیاز
- نحوه برخورد با موارد خاص
بنابراین همیشه توصیه می شود که نویسندگان قبل از ارسال مقاله، بخش "راهنمای نویسندگان" (Guide for Authors) مجله هدف را به دقت مطالعه کنند.
ج) الزویر به عنوان استاندار طلایی
با این حال، الزویر به دلیل جایگاه برجسته خود در دنیای انتشارات علمی و سخت گیری های دقیق تر، اغلب به عنوان استاندار طلایی در نظر گرفته می شود. رعایت دستورالعمل های الزویر معمولا تضمین می کند که مقاله استانداردهای اکثر مجلات دیگر را نیز برآورده خواهد کرد.
چالش های پیش رو و نکات عملی
الف) دشواری تشخیص مرز
یکی از چالش های اصلی برای نویسندگان، تشخیص دقیق مرز بین استفاده مجاز و غیرمجاز از هوش مصنوعی است. به عنوان مثال:
- استفاده برای بازنویسی یک پاراگراف: آیا مجاز است؟ پاسخ بستگی به این دارد که آیا نویسنده محتوا را به طور کامل درک کرده و بازنویسی را تایید کرده است یا خیر.
- استفاده برای تولید پیش نویس اولیه: مجاز است، به شرطی که نویسنده پیش نویس را به طور کامل بازنگری، تحلیل و با دانش خود غنی کند.
- استفاده برای تولید نتیجه گیری: این کار خطرناک است زیرا نتیجه گیری باید مستقیما از یافته های پژوهش و تحلیل نویسنده سرچشمه بگیرد.
ب) توصیه های عملی برای نویسندگان
برای اطمینان از رعایت کامل دستورالعمل های الزویر، نویسندگان می توانند نکات زیر را رعایت کنند:
۱. استفاده مرحله ای و آگاهانه
از هوش مصنوعی تنها در مراحلی استفاده کنید که درک کاملی از کار آن دارید. هرگز به طور کورکورانه به خروجی ها اعتماد نکنید.
۲. مستندسازی دقیق
یادداشت هایی از نحوه استفاده خود از هوش مصنوعی نگه دارید. این کار هم برای نوشتن بیانیه دقیق مفید است و هم در صورت پرسش از سوی ویراستار یا داور، می توانید پاسخ شفافی ارائه دهید.
۳. بررسی چندباره منابع
هر منبعی که از طریق هوش مصنوعی به دست آورده اید را شخصا بررسی کنید. به سایت اصلی منبع مراجعه کرده و از وجود واقعی آن اطمینان حاصل کنید.
۴. استفاده از ابزارهای معتبر
در صورت امکان از ابزارهای هوش مصنوعی معتبر و حرفه ای استفاده کنید که سیاست های شفاف حریم خصوصی دارند و از داده های کاربران برای آموزش مجدد استفاده نمی کنند.
۵. مشورت با همکاران
در مورد نحوه استفاده از هوش مصنوعی با همکاران و مشاوران خود مشورت کنید. دیدگاه های متفاوت می تواند به درک بهتر مرزهای اخلاقی کمک کند.
ج) پیامدهای نقض دستورالعمل ها
نقض دستورالعمل های الزویر می تواند پیامدهای جدی داشته باشد:
۱. رد مقاله در مرحله بررسی اولیه
اگر ویراستار یا داور متوجه استفاده نامناسب از هوش مصنوعی شود، مقاله بدون بررسی بیشتر رد می شود.
۲. پس گرفت مقاله منتشر شده
اگر پس از انتشار مقاله، نقض دستورالعمل ها کشف شود، مقاله ممکن است رسما پس گرفته (Retracted) شود که این امر لکه ماندگاری بر سابقه علمی محقق می گذارد.
۳. آسیب به اعتبار علمی
اعتبار علمی پژوهشگر که با سال ها تلاش به دست می آید، می تواند به سرعت آسیب ببیند.
۴. محرومیت از ارسال مقاله
در موارد شدید، پژوهشگر ممکن است برای مدتی از ارسال مقاله به مجلات الزویر محروم شود.
۵. پیامدهای دانشگاهی و شغلی
نقض اخلاق پژوهشی می تواند پیامدهای جدی در محیط دانشگاهی یا شغلی نیز داشته باشد.
آینده هوش مصنوعی در انتشارات علمی
الف) تکامل مستمر دستورالعمل ها
دستورالعمل های فعلی الزویر نقطه پایان نیستند، بلکه آغاز یک فرآیند پویاست. همان طور که فناوری های هوش مصنوعی تکامل می یابند، دستورالعمل ها نیز باید به روز شوند. الزویر متعهد شده است که این دستورالعمل ها را به طور منظم بازنگری و به روزرسانی کند.
ب) ابزارهای پیشرفته تر تشخیص
انتظار می رود که ابزارهای تشخیص استفاده از هوش مصنوعی در متون علمی پیشرفته تر شوند. این ابزارها نه تنها می توانند استفاده از هوش مصنوعی را تشخیص دهند، بلکه ممکن است بتوانند میزان دخالت انسانی در محتوا را نیز ارزیابی کنند.
ج) یکپارچه سازی هوش مصنوعی در فرآیند انتشار
احتمالا در آینده، خود ناشران ابزارهای هوش مصنوعی مجاز و کنترل شده ای را در اختیار نویسندگان قرار خواهند داد که از استانداردهای اخلاقی تبعیت می کنند و محرمانگی را حفظ می کنند.
د) آموزش و فرهنگ سازی
یکی از مهم ترین نیازهای فعلی، آموزش پژوهشگران، به ویژه دانشجویان تحصیلات تکمیلی، درباره استفاده اخلاقی و مسئولانه از هوش مصنوعی است. دانشگاه ها و مراکز پژوهشی باید دوره های آموزشی و کارگاه هایی در این زمینه برگزار کنند.
مطالعات موردی: سناریوهای واقعی
برای درک بهتر نحوه اعمال دستورالعمل های الزویر، به چند سناریوی واقعی می پردازیم:
سناریو ۱: محقق غیربومی زبان انگلیسی
وضعیت: دکتر احمدی یک پژوهشگر ایرانی است که زبان مادری اش فارسی است. او مقاله خود را به فارسی نوشته و سپس با استفاده از ChatGPT به انگلیسی ترجمه کرده است. پس از آن، از همان ابزار برای بهبود ساختار جملات و روان تر کردن متن استفاده کرده است.
تحلیل: این استفاده مجاز است، به شرطی که:
- دکتر احمدی ترجمه را به دقت بررسی کرده و اطمینان حاصل کند که معنای دقیق متن اصلی حفظ شده است
- محتوای علمی، ایده ها و تحلیل ها کاملا متعلق به خود او باشد
- او بیانیه ای در پایان مقاله درج کند که از ChatGPT برای ترجمه و بهبود خوانایی استفاده کرده است
بیانیه مناسب:
During the preparation of this work the authors used ChatGPT-4 in order to translate the manuscript from Persian to English and improve the readability and language quality. After using this tool, the authors reviewed and edited the content as needed and take full responsibility for the content of the publication
سناریو ۲: استفاده برای مرور ادبیات
وضعیت: دکتر محمدی می خواهد مروری جامع بر ۲۰۰ مقاله اخیر در زمینه خود داشته باشد. او عناوین و چکیده های این مقالات را به یک AI Agent می دهد و از آن می خواهد موضوعات اصلی، شکاف های پژوهشی، و روندهای کلی را شناسایی کند.
تحلیل: این استفاده مجاز است، اما:
- دکتر محمدی نباید خروجی هوش مصنوعی را مستقیما در بخش مرور ادبیات کپی کند
- او باید خود مقالات کلیدی را بخواند و تحلیل خود را ارائه دهد
- می تواند از یافته های هوش مصنوعی به عنوان راهنما برای تمرکز بر موضوعات خاص استفاده کند
- باید بیانیه ای درباره استفاده از AI Agent برای سازماندهی اولیه ادبیات ارائه دهد
سناریو ۳: تولید نمودار با هوش مصنوعی
وضعیت: دکتر رضایی می خواهد یک نمودار مفهومی برای توضیح چارچوب نظری خود ایجاد کند. او از یک ابزار هوش مصنوعی برای تولید این نمودار استفاده می کند.
تحلیل: این موضوع پیچیده است:
- اگر نمودار صرفا یک تصویر تزئینی یا نمادین است که هیچ داده علمی در آن نیست، ممکن است مشکلی نباشد، اما بهتر است از ابزارهای استاندارد طراحی استفاده شود
- اگر نمودار حاوی داده ها یا نتایج علمی است، استفاده از هوش مصنوعی برای تولید آن ممنوع است
- بهترین رویکرد این است که از نرم افزارهای استاندارد علمی مانند R، Python (matplotlib)، GraphPad، یا Origin برای تولید نمودارها استفاده شود
سناریو ۴: تحلیل آماری با کمک هوش مصنوعی
وضعیت: دکتر کریمی داده های پیچیده ای دارد و از یک مدل هوش مصنوعی برای انتخاب آزمون آماری مناسب و تفسیر نتایج استفاده می کند.
تحلیل: این استفاده خطرناک است:
- انتخاب آزمون آماری مناسب نیازمند درک عمیق از طبیعت داده ها و فرضیات آماری است
- هوش مصنوعی ممکن است توصیه های نامناسبی ارائه دهد
- اگر دکتر کریمی خود تخصص آماری کافی ندارد، باید با یک متخصص آمار مشورت کند، نه با هوش مصنوعی
- استفاده از هوش مصنوعی برای تفسیر نتایج آماری بسیار خطرناک است و می تواند به نتیجه گیری های اشتباه منجر شود
توصیه: در این موارد، همکاری با یک آماردان واجد شرایط که می تواند به عنوان همکار پژوهش شناخته شود، بسیار مناسب تر است.
سناریو ۵: داور مقاله
وضعیت: دکتر نوری یک مقاله برای داوری دریافت کرده است. او برخی بخش های فنی مقاله را کاملا درک نمی کند و می خواهد از ChatGPT برای توضیح آن ها استفاده کند.
تحلیل: این کار اکیدا ممنوع است:
- دکتر نوری نباید هیچ بخشی از مقاله را در ابزارهای هوش مصنوعی عمومی قرار دهد
- اگر او تخصص لازم برای ارزیابی مقاله را ندارد، باید به ویراستار اطلاع دهد و از پذیرش داوری خودداری کند
- در صورت نیاز به توضیحات، باید با همکاران متخصص مشورت کند، نه با هوش مصنوعی
نقش دانشگاه ها و مراکز پژوهشی
الف) ایجاد سیاست های سازمانی
دانشگاه ها و مراکز پژوهشی باید سیاست های روشنی درباره استفاده از هوش مصنوعی در پژوهش تدوین کنند که:
- با دستورالعمل های ناشران علمی همسو باشد
- برای اعضای هیئت علمی و دانشجویان شفاف و قابل فهم باشد
- به طور منظم به روز شود
ب) آموزش و توانمندسازی
مراکز پژوهشی باید:
- دوره های آموزشی درباره استفاده اخلاقی از هوش مصنوعی برگزار کنند
- کارگاه های عملی برای آشنایی با ابزارها و نحوه صحیح استفاده از آن ها ارائه دهند
- منابع آموزشی مکتوب و ویدیویی تولید کنند
ج) ایجاد زیرساخت های ایمن
دانشگاه ها می توانند:
- ابزارهای هوش مصنوعی مطمئن و ایمن را برای اعضای خود فراهم کنند
- قراردادهایی با شرکت های ارائه دهنده هوش مصنوعی منعقد کنند که حریم خصوصی را تضمین می کنند
- پلتفرم های داخلی برای استفاده ایمن از هوش مصنوعی راه اندازی کنند
د) ایجاد کمیته های اخلاق
کمیته های اخلاق پژوهش باید:
- راهنماهای خود را برای پوشش موضوع هوش مصنوعی به روز کنند
- در صورت بروز ابهام، مشاوره ارائه دهند
- موارد نقض را بررسی و در صورت لزوم پیگیری کنند
جمع بندی و توصیه های نهایی
آپدیت سپتامبر ۲۰۲۵ الزویر نشان می دهد که دنیای انتشارات علمی به سمت پذیرش واقع بینانه و مسئولانه هوش مصنوعی حرکت می کند. این رویکرد نه بر اساس ترس و ممانعت، بلکه بر پایه شفافیت حداکثری و پاسخگویی استوار است.
نکات کلیدی برای موفقیت:
۱. شفافیت کامل: همیشه در مورد استفاده از هوش مصنوعی صادق باشید. پنهان کردن این موضوع می تواند پیامدهای بسیار جدی تری نسبت به اعلام آن داشته باشد.
۲. مسئولیت پذیری: به یاد داشته باشید که مسئولیت کامل محتوای نهایی بر عهده شماست، نه هوش مصنوعی. هرگز به طور کورکورانه به خروجی ها اعتماد نکنید.
۳. استفاده هوشمندانه: از هوش مصنوعی به عنوان یک دستیار قدرتمند استفاده کنید، نه به عنوان جایگزین تفکر و تحلیل شخصی خود.
۴. یادگیری مستمر: دستورالعمل ها دائما در حال تکامل هستند. همیشه آخرین نسخه راهنماهای ناشران را بررسی کنید.
۵. مشورت و همکاری: در مواجهه با ابهام، با همکاران، مشاوران یا ویراستاران مجله مشورت کنید.
۶. اخلاق بر فناوری: اصول اخلاق پژوهشی همیشه بر استفاده از فناوری های جدید اولویت دارد.
در نهایت، هوش مصنوعی ابزاری است که می تواند پژوهش علمی را تسهیل کند، اما نمی تواند و نباید جایگزین استعداد، خلاقیت و صداقت انسانی شود. پژوهشگرانی که این تعادل را درک کرده و رعایت می کنند، هم از مزایای این فناوری بهره مند خواهند شد و هم اعتبار علمی خود را حفظ خواهند کرد.
با رعایت این دستورالعمل ها، می توان در عصر هوش مصنوعی به تولید علم با کیفیت بالا، شفاف و قابل اعتماد ادامه داد و به پیشرفت دانش بشری کمک کرد.