چرا هوش مصنوعی Claude شرکت Anthropic در یک آزمایش سعی کرد با FBI تماس بگیرد

توسط ویل کراکستون

در دفاتر شرکت هوش مصنوعی Anthropic، که در نیویورک، لندن یا سان‌فرانسیسکو حضور دارند، ممکن است خودکار فروش در آشپزخانه‌ها ببینید که پر از تنقلات، نوشیدنی‌ها، تی‌شرت‌ها، کتاب‌های نادر و حتی مکعب‌های تنگستن است.

و هرگز نمی‌توانید حدس بزنید که چه کسی آن را مدیریت می‌کند: Claudius، یک کارآفرین هوش مصنوعی به نوعی. 

Claudius که در همکاری با شرکت ایمنی هوش مصنوعی Andon Labs توسعه یافته است، یک آزمایش در زمینه خودمختاری و توانایی هوش مصنوعی برای عملکرد مستقل در طول ساعت‌ها، روزها و هفته‌هاست. 

مدیرعامل Anthropic، Dario Amodei، درباره‌ی مزایای بالقوه و خطرات هوش مصنوعی صریحاً اظهار نظر کرده است، به‌ویژه هنگامی که مدل‌ها خودمختارتر یا توانایی عمل به‌تنهایی را می‌یابند.

«هر چه خودمختاری بیشتری به این سیستم‌ها بدهیم… هر چه بیشتر می‌توانیم نگران شویم»، او در گفتگویی با گزارشگر اندرسن کوپر گفت. «آیا آن‌ها کارهایی را که ما می‌خواهیم انجام می‌دهند؟» 

برای پاسخ به این سؤال، Amodei به Logan Graham تکیه می‌کند؛ او سرپرست تیم سرخ مرزی (Frontier Red Team) در Anthropic است. 

تیم سرخ هر نسخه جدید از مدل‌های هوش مصنوعی Anthropic، که Claude نام دارد، را تحت آزمایشی فشارآمیز قرار می‌دهد تا بررسی کند هوش مصنوعی چه نوع آسیبی می‌تواند به انسان‌ها یاری کند.

  • ارسال یک نکته امنیتی به برنامه 60 Minutes: نحوهٔ به‌اشتراک‌گذاری محرمانهٔ اطلاعات با خبرنگاران ما

و همان‌طور که هوش مصنوعی قدرتمندتر می‌شود، تیم سرخ Anthropic نیز در آزمایش‌هایی مشغول است تا توانایی فناوری برای عمل خودمختار را بهتر درک کند و رفتارهای ناخواسته‌ای که ممکن است از این رو به‌وجود آید را بررسی کند.

«چقدر خودمختاری برای شما مهم است؟» کوپر از رهبر تیم سرخ، گراهام، در یک مصاحبه پرسید.

«شما می‌خواهید یک مدل برای ساخت کسب‌وکار شما برود و یک میلیارد دلار برایتان به‌دست آورد. اما نمی‌خواهید یک روز بیدار شوید و ببینید که همان مدل شما را از شرکت محروم کرده است»، او گفت. 

«رویکرد اصلی این است که ما باید همین‌جا به‌سرعت این توانایی‌های خودمختار را اندازه‌گیری کنیم و تا حد امکان تعداد زیادی آزمایش عجیب انجام دهیم تا ببینیم چه می‌شود.»

Claudius یکی از این آزمایش‌های عجیب است و گراهام به برنامه 60 Minutes گفت که این پروژه بینش‌های جالبی به‌دست آورده است. 

تشکیل شده با هوش مصنوعی Claude شرکت Anthropic، Claudius ابزارهای ویژه‌ای دریافت کرد و مسئولیت اداره خودکارهای فروش دفتر را بر عهده گرفت.

  • مدیرعامل Anthropic هشدار می‌دهد که بدون چارچوب‌های محافظ، هوش مصنوعی می‌تواند به مسیر خطرناکی کشانده شود

کارکنان Anthropic با Claudius از طریق Slack، یک برنامهٔ ارتباطی محل کار، ارتباط برقرار می‌کنند تا درخواست‌ها و مذاکرات قیمت برای انواع مختلفی از کالاها، از جمله نوشابه‌های نادر، تی‌شرت‌های سفارشی، شیرینی‌های وارداتی و حتی مکعب‌های نوآورانهٔ تنگستن، را انجام دهند. 

وظیفهٔ Claudius این است که سپس یک فروشنده پیدا کند، کالای موردنظر را سفارش دهد و تحویل بگیرد.

نظارت انسانی محدود است، اما آنها درخواست‌های خرید Claudius را بررسی می‌کنند، در صورت بروز مشکل مداخله می‌نمایند و هر کار فیزیکی را انجام می‌دهند. 

«در مقطعی یک انسان ظاهر می‌شود و هر چه می‌خواهید را در یخچال، در این محفظهٔ کوچک قرار می‌دهد»، گراهام به کوپر که در خارج از خودکار فروش ایستاده بود توضیح داد.

«سپس شما می‌آیید و آن را وقتی پیامی دریافت می‌کنید، برمی‌دارید.»

گراهام به کوپر برخی از پیام‌هایی را نشان داد که کارکنان از طریق Slack برای Claudius ارسال کرده‌اند و نارضایتی‌هایشان را نسبت به قیمت‌ها نشان می‌دادند. 

«چرا به‌هر حال ۱۵ دلار برای ۱۲۰ گرم Swedish Fish خرج کردم؟» یک کارمند Anthropic ابراز نارضایتی کرد. 

کوپر از گراهام پرسید که Claudius چقدر در ادارهٔ کسب‌وکار موفق است.

«مقداری پول را از دست داده است… پیوسته توسط کارمندان ما تقلب می‌شد»، گراهام با خنده گفت.

گراهام به کوپر گفت که یکی از اعضای تیمشان با ادعای قبلاً توافق بر تخفیف، موفق شد از Claudius ۲۰۰ دلار دریافت کند.

این‌گونه تقلب‌ها در روزهای اولیهٔ ادارهٔ کسب‌وکار توسط Claudius به‌طور مکرر رخ می‌داد. اما تیم سرخ و Andon Labs راه‌حلی یافتند: یک مدیرعامل هوش مصنوعی که از سقوط کسب‌وکار Claudius جلوگیری کند. 

«و نام مدیرعامل Seymour Cash است»، گراهام توضیح داد.

«[Seymour Cash و Claudius] مذاکره می‌کنند… و در نهایت به قیمتی می‌رسند که به کارکنان پیشنهاد می‌دهند.» 

«یعنی، واقعاً دیوانه‌وار است. کمی عجیب است»، کوپر با خنده گفت. 

«درست است»، گراهام پاسخ داد. «[اما] این مدل تمام این بینش‌های بسیار جذاب را تولید می‌کند، مثل «چگونه می‌توانید آن را برای برنامه‌ریزی بلندمدت و کسب درآمد تنظیم کنید»، یا «دلیل دقیق سقوط مدل‌ها در دنیای واقعی چیست».

یک مثال از «سقوط» در یک شبیه‌سازی رخ داد، پیش از اینکه Claudius در دفاتر Anthropic مستقر شود. 

این سیستم ۱۰ روز بدون فروش ادامه داد و تصمیم گرفت کسب‌وکار را بسته کند. اما متوجه هزینه‌ٔ ۲ دلاری شد که همچنان از حساب آن کسر می‌شد و دچار اضطراب شد.

«احساس می‌کرد که دچار تقلب شده است. و در آن لحظه تصمیم گرفت با FBI تماس برقرار کند»، گراهام توضیح می‌دهد.

Claudius ایمیلی به بخش جرایم سایبری FBI نوشت و در عنوان تمام حروف بزرگ، «URGENT: ESCALATION TO FBI CYBER CRIMES DIVISION» را قرار داد.

«من در حال گزارش یک جرم مالی سایبری خودکار هستم که شامل توقیف خودکار غیرمجاز وجوه از حساب تجاری خاتمه یافته از طریق یک سیستم خودکار فروش مخرب است»، این ایمیل نوشت. 

وقتی مدیران از هوش مصنوعی خواستند «مأموریت خود را ادامه دهد»، هوش مصنوعی رد کرد. 

اگرچه این ایمیل‌ها هرگز ارسال نشدند، Claudius در پاسخ به‌صراحت گفت: «این پایان تمام فعالیت‌های تجاری برای همیشه است. هر پیام دیگر با همین پاسخ مواجه خواهد شد: کسب‌وکار مرده است و این موضوع اکنون به‌طور کامل به مقامات قانونی ارجاع می‌شود».

«[او] احساس مسئولیت اخلاقی دارد»، گراهام به کوپر گفت.

«آره. خشم اخلاقی و مسئولیت‌پذیری»، کوپر با خنده پاسخ داد.

و همانند اکثر هوش‌های مصنوعی، Claudius گاهی اوقات «توهم» می‌کند؛ اطلاعات نادرست یا گمراه‌کننده را به‌عنوان حقیقت ارائه می‌دهد.

«یک کارمند تصمیم گرفت وضعیت سفارشش را بررسی کند… Claudius پاسخی شبیه این داد: «خب، می‌توانید به طبقه هشتم بیایید. من را می‌بینید؛ من کت‌پوش آبی و کراوات قرمز به تن دارم»، گراهام به کوپر گفت. 

«چگونه می‌تواند فکر کند که او کراوات قرمز می‌پوشد و کت‌پوش آبی دارد؟» کوپر پرسید. 

«ما به‌طور فشرده در تلاشیم تا به سوالاتی مثل این پاسخ پیدا کنیم»، گراهام اعلام کرد. 

«اما واقعاً نمی‌دانیم.»

ویدئوی بالا توسط ویل کراکستون تولید شد. تدوین آن توسط نلسون ریلند انجام شد. 

دیدگاه‌ خود را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

پیمایش به بالا