چتباتهای هوش مصنوعی عناوین جعلی میسازند که مردم ادعا میکنند واقعی هستند.

همه میدانند که چتباتهای هوش مصنوعی مانند ChatGPT، Grok و Gemini میتوانند بهطور مکرر منابع تخیلی ارائه دهند. اما برای افرادی که مأموریت یافتن کتابها و مقالات ژورنالی برای عموم را دارند، این ادعای جعلی هوش مصنوعی واقعاً فشار زیادی وارد میکند. بر اساس مقالهای جدید از Scientific American، کتابداران کاملاً خسته به نظر میرسند از درخواستهای عناوینی که وجود ندارند.
این مجله با سارا فالس، مسئول تعامل پژوهشگران در کتابخانه ویرجینیا، گفتوگو کرد که برآورد میکند حدود ۱۵٪ از تمام پرسشهای ارجاعی ایمیلی که دریافت میکنند، توسط چتباتهای هوش مصنوعی مانند ChatGPT تولید میشوند. همچنین این درخواستها اغلب شامل سؤالهایی درباره ارجاعهای جعلی هستند.
همچنین فالس اشاره میکند که بهنظر میرسد مردم وقتی کتابداران توضیح میدهند یک رکورد خاص وجود ندارد، به آنها باور ندارند؛ این روند در منابع دیگری مانند 404 Media نیز گزارش شده است. بسیاری از افراد واقعاً به چتبات احمق خود بیش از انسانی که تمام روز بهدنبال اطلاعات قابل اعتماد میگردد، اعتماد میکنند.
یک پست اخیر از کمیته بینالمللی صلیب سرخ (ICRC) با عنوان «اطلاعیه مهم: ارجاع آرشیوی تولید شده توسط هوش مصنوعی»، شواهد بیشتری ارائه میدهد که کتابداران از این وضعیت کاملاً خسته شدهاند.
«اگر یک مرجع قابل یافتن نباشد، این به این معنا نیست که صلیب سرخ اطلاعات را مخفی میکند. سوانح مختلف میتوانند این مشکل را توضیح دهند، از جمله ارجاعهای ناقص، اسنادی که در مؤسسات دیگر نگهداری میشوند، یا— بهطور فزاینده— توهمات تولید شده توسط هوش مصنوعی»، سازمان اعلام کرد. «در چنین مواردی ممکن است نیاز باشد تا تاریخچهٔ اداری مرجع را بررسی کنید تا مشخص شود آیا آن به یک منبع آرشیوی واقعی منطبق است یا نه.»
بله، این برای من هم اتفاق افتاد 🫠، من برای یک کتاب متافوریک فرانسوی قدیمی که یک سال پیش توسط ChatGPT بهطرز کاملاً قابلاعتماد توصیف شد، به یک کتابفروشی رفتم، اما متوجه شدم که وجود ندارد.
[تصویر یا تعبیه]
— Joanne Boisson (@joanneboisson.bsky.social) ۹ دسامبر ۲۰۲۵، ساعت ۴:۳۱ صبح
به نظر میرسد امسال پر از مثالهای کتابها و مقالات ژورنالی جعلی است که توسط هوش مصنوعی ساخته شدهاند. یک نویسنده آزاد برای روزنامه Chicago Sun‑Times فهرست خواندنیهای تابستانی شامل ۱۵ کتاب پیشنهادی تولید کرد. اما ده کتاب از این فهرست وجود نداشتند. اولین گزارش از کمیسیون «آمریکا را دوباره سالم کنیم» بهزعم منشی بهداشت رابرت اف. کندی جونیور در ماه مه منتشر شد. یک هفته پس از آن، خبرنگاران در NOTUS نتایج خود را پس از بررسی تمام ارجاعات منتشر کردند. حداقل هفت مورد وجود نداشتند.
نمیتوانید همه چیز را به هوش مصنوعی مقصر بدانید. مقالاتی بهدلیل ارائه ارجاعهای جعلی از زمان طولانی پیش از ظهور ChatGPT یا هر چتبات دیگری پس گرفته شدهاند. در سال ۲۰۱۷، استادی در دانشگاه میدلسکس حداقل ۴۰۰ مقاله یافت که به یک مقاله پژوهشی غیرواقعی ارجاع میدادند، که در واقع متن پرکننده بود.
این ارجاع:
Van der Geer, J., Hanraads, J.A.J., Lupton, R.A., 2010. هنر نوشتن مقاله علمی. J Sci. Commun. 163 (2) 51‑59.
بدیهی است که این یک آشفتگی است. بهنظر میرسد این ارجاع در بسیاری از مقالات کمکیفیت گنجانده شده است — احتمالاً بهدلیل تنبلی و بیدقتی نه بهدلیل قصد فریب. اما میتوان با اطمینان گفت که هر نویسندهای که در آن مقالات پیش از هوش مصنوعی این ارجاع را درج کرده باشد، احتمالاً از این کار خجالتکشیده بوده است. نکتهٔ ابزارهای هوش مصنوعی این است که تعداد زیادی از افراد به این باور رسیدهاند که چتباتهای ما از انسانها قابل اعتمادترند.
بهعنوان کسی که مقدار زیادی پرسشهای تاریخ محلی دریافت میکند، میتوانم بگویم که تعداد افرادی که تحقیقات تاریخی خود را با GenAI/LLM آغاز میکنند (که صرفاً حقایق جعلی و زبالههای توهمی تولید میکند) بهطور قابلتوجهی افزایش یافته است و سپس سؤال میکنند چرا نمیتوانند چیزی برای تأیید این حقایق پیدا کنند.
[تصویر یا تعبیه]
— Huddersfield Exposed (@huddersfield.exposed) ۹ دسامبر ۲۰۲۵، ساعت ۲:۲۸ صبح
چرا کاربران ممکن است هوش مصنوعی خود را بر انسانها ترجیح دهند؟ یکی از دلایل این است که بخشی از “تریک جادویی” که هوش مصنوعی بهکار میبرد، صحبت کردن با صدای مقتدر است. شما به چه کسی باور میکنید: چتباتی که تمام روز از آن استفاده میکنید یا کتابدار تصادفی در تلفن؟ مشکل دیگر ممکن است به این حقیقت مربوط باشد که مردم ترفندهایی که فکر میکنند برای افزایش اطمینان از هوش مصنوعی مؤثر هستند، توسعه میدهند.
برخی افراد حتی فکر میکنند افزودن عباراتی مانند «توهم نکن» و «کد تمیز بنویس» به درخواست (پرامپت) خود، باعث میشود هوش مصنوعی صرفاً خروجی با بالاترین کیفیت را ارائه دهد. اگر این واقعاً کار میکرد، تصور میکنیم شرکتهایی مثل Google و OpenAI این دستورات را بهصورت پیشفرض برای هر پرسش اضافه میکردند. اگر این روش مؤثر باشد، چه ترفند زندهای برای تمام شرکتهای فناوری که از ترکیدن حباب هوش مصنوعی میترسند، در اختیار داریم!