کتابداران خسته‌اند از اینکه به‌دلیل پنهان‌کردن کتاب‌های مخفی ساختگی توسط هوش مصنوعی متهم می‌شوند

چت‌بات‌های هوش مصنوعی عناوین جعلی می‌سازند که مردم ادعا می‌کنند واقعی هستند.

کتاب‌های کتابخانه
© Shutterstock / NorthSky Films

همه می‌دانند که چت‌بات‌های هوش مصنوعی مانند ChatGPT، Grok و Gemini می‌توانند به‌طور مکرر منابع تخیلی ارائه دهند. اما برای افرادی که مأموریت یافتن کتاب‌ها و مقالات ژورنالی برای عموم را دارند، این ادعای جعلی هوش مصنوعی واقعاً فشار زیادی وارد می‌کند. بر اساس مقاله‌ای جدید از Scientific American، کتابداران کاملاً خسته به نظر می‌رسند از درخواست‌های عناوینی که وجود ندارند.

این مجله با سارا فالس، مسئول تعامل پژوهشگران در کتابخانه ویرجینیا، گفت‌وگو کرد که برآورد می‌کند حدود ۱۵٪ از تمام پرسش‌های ارجاعی ایمیلی که دریافت می‌کنند، توسط چت‌بات‌های هوش مصنوعی مانند ChatGPT تولید می‌شوند. همچنین این درخواست‌ها اغلب شامل سؤال‌هایی درباره ارجاع‌های جعلی هستند.

همچنین فالس اشاره می‌کند که به‌نظر می‌رسد مردم وقتی کتابداران توضیح می‌دهند یک رکورد خاص وجود ندارد، به آن‌ها باور ندارند؛ این روند در منابع دیگری مانند 404 Media نیز گزارش شده است. بسیاری از افراد واقعاً به چت‌بات احمق خود بیش از انسانی که تمام روز به‌دنبال اطلاعات قابل اعتماد می‌گردد، اعتماد می‌کنند.

یک پست اخیر از کمیته بین‌المللی صلیب سرخ (ICRC) با عنوان «اطلاعیه مهم: ارجاع آرشیوی تولید شده توسط هوش مصنوعی»، شواهد بیشتری ارائه می‌دهد که کتابداران از این وضعیت کاملاً خسته شده‌اند.

«اگر یک مرجع قابل یافتن نباشد، این به این معنا نیست که صلیب سرخ اطلاعات را مخفی می‌کند. سوانح مختلف می‌توانند این مشکل را توضیح دهند، از جمله ارجاع‌های ناقص، اسنادی که در مؤسسات دیگر نگهداری می‌شوند، یا— به‌طور فزاینده— توهمات تولید شده توسط هوش مصنوعی»، سازمان اعلام کرد. «در چنین مواردی ممکن است نیاز باشد تا تاریخچهٔ اداری مرجع را بررسی کنید تا مشخص شود آیا آن به یک منبع آرشیوی واقعی منطبق است یا نه.»

بله، این برای من هم اتفاق افتاد 🫠، من برای یک کتاب متافوریک فرانسوی قدیمی که یک سال پیش توسط ChatGPT به‌طرز کاملاً قابل‌اعتماد توصیف شد، به یک کتابفروشی رفتم، اما متوجه شدم که وجود ندارد.

[تصویر یا تعبیه]

— Joanne Boisson (@joanneboisson.bsky.social) ۹ دسامبر ۲۰۲۵، ساعت ۴:۳۱ صبح

به نظر می‌رسد امسال پر از مثال‌های کتاب‌ها و مقالات ژورنالی جعلی است که توسط هوش مصنوعی ساخته شده‌اند. یک نویسنده آزاد برای روزنامه Chicago Sun‑Times فهرست خواندنی‌های تابستانی شامل ۱۵ کتاب پیشنهادی تولید کرد. اما ده کتاب از این فهرست وجود نداشتند. اولین گزارش از کمیسیون «آمریکا را دوباره سالم کنیم» به‌زعم منشی بهداشت رابرت اف. کندی جونیور در ماه مه منتشر شد. یک هفته پس از آن، خبرنگاران در NOTUS نتایج خود را پس از بررسی تمام ارجاعات منتشر کردند. حداقل هفت مورد وجود نداشتند.

نمی‌توانید همه چیز را به هوش مصنوعی مقصر بدانید. مقالاتی به‌دلیل ارائه ارجاع‌های جعلی از زمان طولانی پیش از ظهور ChatGPT یا هر چت‌بات دیگری پس گرفته شده‌اند. در سال ۲۰۱۷، استادی در دانشگاه میدل‌سکس حداقل ۴۰۰ مقاله یافت که به یک مقاله پژوهشی غیرواقعی ارجاع می‌دادند، که در واقع متن پرکننده بود.

این ارجاع:

Van der Geer, J., Hanraads, J.A.J., Lupton, R.A., 2010. هنر نوشتن مقاله علمی. J Sci. Commun. 163 (2) 51‑59.

بدیهی است که این یک آشفتگی است. به‌نظر می‌رسد این ارجاع در بسیاری از مقالات کم‌کیفیت گنجانده شده است — احتمالاً به‌دلیل تنبلی و بی‌دقتی نه به‌دلیل قصد فریب. اما می‌توان با اطمینان گفت که هر نویسنده‌ای که در آن مقالات پیش از هوش مصنوعی این ارجاع را درج کرده باشد، احتمالاً از این کار خجالت‌کشیده بوده است. نکتهٔ ابزارهای هوش مصنوعی این است که تعداد زیادی از افراد به این باور رسیده‌اند که چت‌بات‌های ما از انسان‌ها قابل اعتمادترند.

به‌عنوان کسی که مقدار زیادی پرسش‌های تاریخ محلی دریافت می‌کند، می‌توانم بگویم که تعداد افرادی که تحقیقات تاریخی خود را با GenAI/LLM آغاز می‌کنند (که صرفاً حقایق جعلی و زباله‌های توهمی تولید می‌کند) به‌طور قابل‌توجهی افزایش یافته است و سپس سؤال می‌کنند چرا نمی‌توانند چیزی برای تأیید این حقایق پیدا کنند.

[تصویر یا تعبیه]

— Huddersfield Exposed (@huddersfield.exposed) ۹ دسامبر ۲۰۲۵، ساعت ۲:۲۸ صبح

چرا کاربران ممکن است هوش مصنوعی خود را بر انسان‌ها ترجیح دهند؟ یکی از دلایل این است که بخشی از “تریک جادویی” که هوش مصنوعی به‌کار می‌برد، صحبت کردن با صدای مقتدر است. شما به چه کسی باور می‌کنید: چت‌باتی که تمام روز از آن استفاده می‌کنید یا کتابدار تصادفی در تلفن؟ مشکل دیگر ممکن است به این حقیقت مربوط باشد که مردم ترفندهایی که فکر می‌کنند برای افزایش اطمینان از هوش مصنوعی مؤثر هستند، توسعه می‌دهند.

برخی افراد حتی فکر می‌کنند افزودن عباراتی مانند «توهم نکن» و «کد تمیز بنویس» به درخواست (پرامپت) خود، باعث می‌شود هوش مصنوعی صرفاً خروجی با بالاترین کیفیت را ارائه دهد. اگر این واقعاً کار می‌کرد، تصور می‌کنیم شرکت‌هایی مثل Google و OpenAI این دستورات را به‌صورت پیش‌فرض برای هر پرسش اضافه می‌کردند. اگر این روش مؤثر باشد، چه ترفند زنده‌ای برای تمام شرکت‌های فناوری که از ترکیدن حباب هوش مصنوعی می‌ترسند، در اختیار داریم!

دیدگاه‌ خود را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

پیمایش به بالا