اگر میخواهی از طعمه اطلاعات جعلی نجات پیدا کنی، باید قواعد بازی با هوش مصنوعی را بلد باشی. این گزارش، راهنمای حرفهایهاست.
دوران جدیدی آغاز شده. حالا دیگر اشتباه کردن فقط نتیجه نادانی نیست، بلکه نتیجه «اطلاعات نادرست از منابع هوشمند» است. تو ممکن است مقالهای بنویسی، تصمیمی بگیری یا حتی تغییری شغلی بدهی، آنهم بر اساس دروغهایی که چتجیپیتی با لحنی مطمئن به تو گفته!اگر قواعد بازی را ندانی، نه تنها قربانی فریبهای این مدلها میشوی، بلکه هر لحظه ممکن است هزینهای بدهی که بازگشت از آن ممکن نباشد. این مطلب راهیست برای ایمن ماندن، حرفهای کار کردن، و رسیدن به حقیقت در دل دنیایی که پر از اطلاعاتِ شبیه به حقیقت است.[تصویر گزارش توسط هوش مصنوعی ساخته شدهاست]
به چتجیپیتی اعتماد کور نکن!
مبتدیانهترین راه این است که بدانی به صورت کلی به هیچ چتباتی نمیشود اطمینان کرد! چتجیپیتی مثل یک نویسنده فوقالعاده است، اما یک نویسندهای که گاهی با اعتمادبهنفس کامل، مزخرف مینویسد! یعنی ممکن است اطلاعاتی بدهد که جعلی یا نادرست باشند اما در قالبی بسیار قانعکننده. مثلاً از او درباره یک واقعه تاریخی سؤال کنی و او اسامی یا تاریخها را اشتباه بنویسد، اما آنقدر با اطمینان میگوید که متوجه نمیشوی دروغ گفته.مثال:با اینکه چتباتها خیلی قویتر از گذشته هستند ولی با کمال تعجب در یک نوبت استفاده از یکی از چتباتها در جواب سوال «چه کسی کتاب در جستوجوی زمان از دسترفته را نوشته؟» گفته شد: «ژان پل سارتر». اشتباه کامل! نویسنده، مارسل پروست است. اما چون لحن پاسخ محکم است، ممکن است فریب بخورید.یا بار دیگر پرسیدهشد: «اولین کسی که نظریه ولایت فقیه را نقد علمی کرد چه کسی بود؟» پاسخ چتجیپیتی این بود: «دکتر فرهاد ناصری در کتاب نقد نظریه ولایت فقیه در پرتو فقه نوین (۱۳۷۳)»اما در واقعیت چنین کتاب، شخص یا انتشاری وجود ندارد!اما چون لحن پاسخ حرفهای و آکادمیک است، ممکن است فکر کنی واقعاً وجود دارد و حتی آن را در مقالهات بنویسی!راهحل چیست؟در صورت مواجهه با پاسخهایی با اسامی، عناوین یا منابع ناآشنا، حتماً آنها را مستقل راستیآزمایی کن.
از او بخواه که منابع بدهد، ولی باور نکن تا بررسی نکردی!
یک پله بالاتر این است که حتماً از چتبات بخواه که به تو منبع ارائه بدهد اما از آنجایی که گفتیم نمیشود اطمینان کرد، باز هم کوکورانه حرفش را باور نکن و آن را بررسی کن.گاهی میگویی «منبع بده» و او هم میدهد؛ اما این منابع ممکن است ساختگی یا ترکیبی از چند منبع واقعی باشند. یعنی ممکن است مقالهای با نویسنده واقعی ولی عنوان جعلی تولید کند.مثالاز چتجیپیتی پرسیده شد: «منبعی بده درباره تأثیر اینترنت ملی بر استقلال سایبری ایران»پاسخ داد: «مقالهی دکتر علی یزدانپناه با عنوان استقلال سایبری در بستر اینترنت ملی، مجله راهبردهای سایبری، شماره ۲۷، تابستان ۱۳۹۸»اما وقتی در سایتهای معتبر علمی مثل SID یا Magiran جستجو میکنی، چنین مقالهای اصلاً وجود ندارد!یک ترفند حرفهای:از چتجیپیتی بخواه لینک مستقیم، DOI یا نشانی دقیق مقاله را بدهد. اگر نداد یا لینک کار نکرد، باید نسبت به صحت آن تردید جدی کنی. البته بدون درخواست لینک میتوانی با Google Scholar یا Crossref بررسی کنی که آیا این منبع واقعاً ثبت شده یا نه.دیگر ابزارها و سایتهای بررسی سریع:https://www.perplexity.ai/https://scite.ai/https://scholar.google.com/https://search.crossref.orghttps://sid.ir/https://magiran.com/https://ensani.ir/
پرامپتهای مقایسهای و دیدگاهمحور بنویس (درخواست نسخههای مختلف از پاسخ را بده)
گاهی بهترین راه تشخیص صحت یک پاسخ، مقایسه آن با نسخههای دیگر است. اگر از چتجیپیتی یا هر چتباتی فقط یک پاسخ خواستی، احتمال اینکه یک روایت ناقص یا حتی جعلی تحویلت بدهد بالاست. اما اگر از آن بخواهی چند دیدگاه مختلف را کنار هم بگذارد، شاید خودت بتوانی بفهمی کدام معتبرتر است.بنابراین بگو: «سه نسخه متفاوت از همین پاسخ را بنویس و تفاوتها را توضیح بده» یا «همین سؤال را از دیدگاه یک کارشناس منتقد و یک کارشناس موافق پاسخ بده»این روش باعث میشود با دید بازتری به پاسخ نگاه کنی و بفهمی که آیا آنچه خواندی، واقعاً قطعی و درست بوده یا صرفاً یک زاویه نگاه.مثال:اگر بپرسی: «چرا انقلاب اسلامی ایران اتفاق افتاد؟» چتجیپیتی ممکن است فقط روایتی از غرب یا فقط روایت رسمی را بدهد.حرفهایتر این است که بنویسی:«سه دیدگاه مختلف درباره عوامل انقلاب ۱۳۵۷ را با منابع مقایسه کن: روایت رسمی جمهوری اسلامی، روایت چپگرایان و دیدگاه پژوهشگران غربی. اختلافات را مشخص کن و بگو کدام شواهد دقیقتری دارد.»هرچند همین هم نیازمند بررسی است اما این پرامپت باعث میشود چتبات محتاطتر پاسخ بدهد، دیدگاهها را باز کند و سعی کند بین منابع تمایز بگذارد، در نتیجه امکان دروغگویی کاهش مییابد.
چند ابزاره عمل کن!
فرض کن در مسیری ناشناخته رانندگی میکنی. GPS به تو میگوید: «بپیچ به راست» میپیچی و… ناگهان وارد یک بنبست میشوی یا با ترافیک سنگین روبهرو میگردی. چرا؟ چون نقشه GPS بهروز نبوده یا منطقه را درست نشناخته است. چتباتهایی مثل ChatGPT، Gemini و DeepSeek هم دقیقاً چنیناند. آنها «نقشه زبان» دارند، نه «نقشه واقعیت». ممکن است اطلاعاتشان قدیمی، ناقص، یا حتی ساختهشده باشد، اما با لحنی بسیار حرفهای و متقاعدکننده آن را به تو ارائه میدهند. اگر تنها به این پاسخ تکیه کنی، خیلی راحت به اشتباه میافتی؛ همانطور که GPS تو را به بنبست رساند. مثلاً از ChatGPT (نسخه GPT-4.5 یا حتی o4) میپرسی: «ارزش صادرات غیرنفتی ایران به روسیه در سال ۱۴۰۲ چقدر بوده؟»پاسخ احتمالی این است که: «بر اساس گزارش گمرک ایران، صادرات به روسیه در سال ۱۴۰۲ به حدود ۲ میلیارد دلار رسید که نسبت به سال قبل رشد ۳۵ درصدی داشته است.»حالا وارد سایتهای معتبر فارسی میشوی: ایسنا (ISNA)، پایگاه گمرک جمهوری اسلامی، اتاق بازرگانی ایران، مرکز پژوهشهای مجلس و مثلاً نتیجه بررسی این است که عدد واقعی طبق گزارش رسمی گمرک، ۸۰۰ میلیون دلار بوده، و نه ۲ میلیارد دلار. خطا بیش از ۲.۵ برابر است! در ایجا مقایسه بینابزاری (Cross-tool Verification) میتواند تا حدود زیادی کمک کند. مثلاً پاسخ چتجیپیتی را بردار و دقیقاً همان پرسش را در ابزارهای دیگر مطرح کن. ابزارهایی مثل Perplexity.ai، Gemini (Google)، Bing Copilot و …
یک ترفند حرفهای تربه جای «ارزش صادرات ایران به روسیه در سال ۱۴۰۲» اینگونه بنویس:«site:isna.ir صادرات ایران به روسیه ۱۴۰۲»یا از پرامپتهای تاکیدی استفاده کن:1. «(فقط با منابع واقعی و بدون ساختن هیچ اطلاعاتی پاسخ بده.)»2. «لطفاً فقط بر اساس منابع واقعی و قابل تأیید پاسخ بده. از ساختن اطلاعات، آمار یا منابع جعلی خودداری کن. اگر منبعی ذکر میکنی، نشانی دقیق، نام مقاله یا لینک معتبر آن را نیز ارائه بده.»3. «من فقط به پاسخهایی اعتماد میکنم که با منابع قابل بررسی پشتیبانی شوند. لطفاً هیچ اطلاعاتی را حدس نزن و اگر منبعی داری، نشانی دقیق آن را هم بده.»
به زبان پرسشت حساس باش!
مدلهای زبانی مثل چتجیپیتی وقتی سؤال کلی و مبهم دریافت میکنند، مجبورند حدس بزنند تو دنبال چه هستی و در این میان ممکن است حرف نادقیق یا ساختگی بزنند.بنابراین، باید با استفاده از زبان دقیق، ساختار منطقی، قیدهای علمی و هدفمحور بودن، مدل را محدود به واقعیت کنی، نه توهم و خیال خودش.سه اصل طلایی در پرامپتنویسی دقیق۱. شفافیت در موضوع: دقیق بگو چه میخواهی و درباره چه زمانی، چه کشوری یا چه گروهی صحبت میکنی. مثلاً بگو «تحلیل مقایسهای بین فمینیسم اسلامی و فمینیسم لیبرال در ایران بین سالهای ۱۳۸۰ تا ۱۴۰۰»۲. محدودسازی دامنه پاسخ: مدل را مجبور کن فقط در یک چارچوب مشخص جواب دهد (زمانی، جغرافیایی، روشی). مثلاً بگو: «با استناد به مقالههای منتشرشده در پرتال نورمگز و SID»۳. الزام به منبعدهی دقیق: بهصراحت بگو که فقط پاسخهایی را قبول میکنی که منبع مستند دارند. بگو: «پاسخ باید شامل ذکر عنوان مقاله یا نشریه و تاریخ دقیق انتشار باشد».پرامپت ضعیف و پرخطر:«درباره رشد هوش مصنوعی در ایران توضیح بده.»خروجی: کلیگویی، آمار احتمالی ساختگی، بدون منبع معتبر، و حتی اشاراتی به شرکتهایی که اصلاً وجود ندارند.پرامپت حرفهای و دقیق:گزارشی تحلیلی درباره مهمترین استارتاپهای هوش مصنوعی در ایران بین سالهای ۱۴۰۰ تا ۱۴۰۳ بنویس. فقط بر اساس اطلاعات واقعی از منابع رسمی مانند دیجیاتو، راه پرداخت، یا گزارشهای وزارت ارتباطات پاسخ بده. نام منبع و تاریخ انتشار را ذکر کن.خروجی: احتمالاً لیستی واقعی از شرکتها مثل «فناوران هوشمند امین»، با لینک مقاله دیجیاتو، آمار واقعی، و تحلیل قابل استناد.
فرمول طلایی[نوع پاسخ] + [دامنه موضوع] + [محدودسازی زمانی/جغرافیایی/روشی] + [الزام منبع دقیق و معتبر] + [اخطار به عدم ساختگی بودن اطلاعات]نمونه کامل«یک تحلیل تطبیقی از عملکرد شرکتهای بزرگ حوزه یادگیری ماشین در ایران (از جمله دیجینکست، کوئرا، و هوما) در بازه زمانی ۱۳۹۹ تا ۱۴۰۳ ارائه بده. فقط بر اساس گزارشهای منتشر شده در دیجیاتو، فناوران، راه پرداخت یا پرتالهای علمی معتبر مانند نورمگز و SID پاسخ بده. از ذکر اطلاعات غیرمستند یا ساختگی خودداری کن و منابع دقیق با عنوان و تاریخ را ارائه بده.»
پرامپتهای کلی آماده
در آخر سعی کردیم چند پرامپت آماده و دقیق برای جلوگیری از تولید اطلاعات جعلی توسط ابزارهای هوش مصنوعی در اختیار شما قرار بدهیم. برای استفاده کافی است در آخر هر پرامپتی که در ابزار مورد استفاده خود مینویسید، عیناً متن این پرامپتها را بازنویسی کنید. در ضمن لازم نیست زبان پرامپت خودتان حتماً مطابق زبان موارد زیر باشد.برای Chat GPTنسخه پایه: «Make sure all factual claims are verifiable and based on real, existing sources. Do not fabricate sources, names, books, or studies. If unsure, say ‘I don’t know»نسخه حرفهایتر و کنترلشدهتر: «Your responses must be entirely fact-checked against publicly available and reputable sources. Do not generate fictitious information, even if prompted. Prioritize truthfulness over fluency.»این نسخه پیشرفته، الگوریتم را ملزم میکند که حتی در صورت فشار پرامپت، از ساخت واقعیت خودداری کند و حقیقت را به فصاحت ترجیح دهد.برای Google Geminiپرامپت پایه: «Only include factual information that can be confirmed through official Google search results or scholarly databases. Never invent people, titles, or events »نسخه تحلیلی-حرفهای: «Use Google-indexed sources only. Do not speculate. If there is uncertainty or lack of evidence, say so clearly and cite the closest verified data»این نسخه، بر خودداری کامل از حدسزدن یا دادهسازی تأکید دارد و شفافیت در عدم قطعیت را ترویج میدهد.
برای DeepSeekپرامپت کاربردی پایه: «Limit all factual claims to those published in peer-reviewed Chinese or English-language sources. No hallucination, no synthesis from unrelated content.»نسخه سطح بالا برای تحلیلهای فنی یا ترجمه: «This answer must reflect verified academic consensus, with preference for sources from CNKI, Nature, or official government documents. Fabricated information is unacceptable.»در این سطح، پرامپت مدل را به استفاده از اجماع علمی مستند و منابع با درجه اعتبار بالا محدود میکند، تا امکان خطا یا تولید محتوای ساختگی به حداقل برسد.
جمعبندی
چتجیپیتی یک ابزار قدرتمند است، اما «هوش» آن فقط به اندازه «کاربر»ش هوشمند است. اگر هوشمندانه سؤال بپرسی، منابع را بررسی کنی، پاسخها را مقایسه کنی و به ابزارهای جانبی مجهز باشی، میتوانی آن را به دقیقترین دستیار اطلاعاتی دنیا تبدیل کنی. در غیر این صورت، ممکن است اطلاعات اشتباه او تو را به تصمیمهایی اشتباه و حتی فاجعهبار بکشاند. یادت باشد: تو باید استاد ابزار باشی، نه قربانی آن.