دانشمند ارشد Anthropic می‌گوید ما به سرعت به لحظه‌ای نزدیک می‌شویم که می‌تواند همه ما را به نابودی برساند

نوشتهٔ فرانک لندیمور

محقق ارشد Anthropic، جرد کاپلان می‌گوید بشر به زودی باید تصمیم بزرگی برای پذیرش «ریسک نهایی» در هوش مصنوعی بگیرد.
تصویر توسط Tag Hartman‑Simkins / Futurism. منبع: Getty Images

دانشمند ارشد Anthropic، جرد کاپلان، پیش‌بینی‌های جدی دربارهٔ آیندهٔ بشریت با هوش مصنوعی می‌کند.

در چارچوب او، انتخاب به عهدهٔ ماست. در حال حاضر سرنوشت ما عمدتاً در دست خودمان است، به گفتهٔ کاپلان — مگر اینکه تصمیم بگیریم چوب‌دستی استعاری را به ماشین‌ها بسپاریم.

این نقطه به سرعت در حال نزدیک شدن است، او در مصاحبه‌ای تازه با The Guardian می‌گوید. کاپلان پیش‌بینی می‌کند که تا سال ۲۰۳۰، یا حتی در سال ۲۰۲۷، بشر باید تصمیم بگیرد آیا «ریسک نهایی» اجازه دهید مدل‌های هوش مصنوعی خودشان را آموزش دهند یا خیر. «انفجار هوش» ناشی از این می‌تواند فناوری را به سطوح جدیدی ارتقاء دهد و هوش مصنوعی عمومی (AGI) — که به اصطلاح — را به‌وجود آورد؛ هوشی که برابر یا فراتر از هوش انسانی است و به بشر پیشرفت‌های علمی و پزشکی متنوعی می‌دهد. یا این‌که قدرت هوش مصنوعی می‌تواند به‌صورت انفجاری فراتر از کنترل ما رشد کرده و ما را در اسارت وسوسه‌های آن بگذارد.

«به نظر می‌رسد این یک فرآیند ترسناک است»، او به روزنامه گفت. «نمی‌دانی به کجا می‌رسی.»

کاپلان یکی از چهره‌های برجستهٔ هوش مصنوعی است که دربارهٔ پیامدهای فاجعه‌بار این حوزه هشدار می‌دهد. جفری هینتون، یکی از سه «پدرخوانده» شناخته‌شدهٔ هوش مصنوعی، به‌طور مشهور اعلام کرد که از کاری که در طول زندگی‌اش انجام داده پشیمان است و بارها هشدار داده که هوش مصنوعی می‌تواند جامعه را به‌هم بزند یا حتی نابود کند. سم آلتمن از OpenAI پیش‌بینی می‌کند که هوش مصنوعی تمام دسته‌های شغلی را از بین خواهد برد. رئیس کاپلان، داریو آمودئی، اخیراً هشدار داد که هوش مصنوعی می‌تواند نیمی از تمام مشاغل سفیدپوش سطح ورود را تصاحب کند و رقبای خود را از «شیرین‌سازی» واقعیت دربارهٔ آنچه هوش مصنوعی می‌تواند به جامعه تحمیل کند، متهم کرد.

به نظر می‌رسد کاپلان با ارزیابی شغل‌های رئیس خود توافق دارد. او در این مصاحبه گفت که هوش مصنوعی در دو تا سه سال می‌تواند «اکثریت کارهای سفیدپوش» را انجام دهد. و در حالی که نسبت به توانایی ما در هم‌راستا نگه‌داشتن هوش‌های مصنوعی با منافع انسانی خوش‌بین است، اما نگران امکان اجازه دادن به هوش مصنوعی قدرتمند برای آموزش دیگر هوش‌های مصنوعی است؛ تصمیمی که «بسیار پرخطر» است و باید در آینده نزدیک اتخاذ کنیم.

«این همان موردی است که ما ممکن است بزرگ‌ترین تصمیم یا ترسناک‌ترین کاری باشد که باید انجام دهیم… وقتی هیچ‌کس در این فرایند درگیر نباشد، واقعاً نمی‌دانید»، او به The Guardian گفت. «آیا کنترل آن را از دست می‌دهیم؟ آیا حتی می‌دانید هوش‌های مصنوعی چه می‌کنند؟»

تا حدی، مدل‌های بزرگتر هوش مصنوعی هم‌اکنون برای آموزش مدل‌های کوچکتر در فرایندی به نام تقطیر (distillation) استفاده می‌شوند که به مدل کوچکتر امکان می‌دهد به‌طور مؤثر با معلم بزرگتر خود همگام شود. با این حال، کاپلان نگران پدیده‌ای به نام «بهبود خودبازگشت‌پذیر» است؛ وضعیتی که هوش‌های مصنوعی بدون مداخلهٔ انسان یاد می‌گیرند و گام‌های چشمگیری در توانایی‌های خود می‌زنند.

آیا اجازه می‌دهیم این اتفاق بیفتد یا نه، به پرسش‌های فلسفی سنگینی دربارهٔ این فناوری برمی‌گردد.

«سوال اصلی این است: آیا هوش‌های مصنوعی برای بشریت مفیدند؟» کاپلان گفت. «آیا آن‌ها مؤثرند؟ آیا بی‌خطر خواهند بود؟ آیا مردم را درک می‌کنند؟ آیا اجازه خواهند داد مردم همچنان بر زندگی و جهان خود کنترل داشته باشند؟»

در حالی که خطرات هوش مصنوعی واقعی هستند، هشدارهای کاپلان مستلزم تجزیه‌وتحلیل دقیق است. اولین نکته این است که این ادعا بر این پایه استوار است که هوش مصنوعی هم‌اکنون یکی از مهم‌ترین و تأثیرگذارترین فناوری‌های تاریخ است، بدون در نظر گرفتن این‌که آیا سیستم‌های فعلی هوش مصنوعی نمایانگر ماشین‌های خودمختار قدرتمندی هستند که در داستان‌های هشداردهندهٔ علمی‑تخیلی به تصویر کشیده می‌شوند — یا حداقل گامی معنادار به سوی آن هدف محسوب می‌شوند. یک ضرب‌المثل می‌گوید خبری از تبلیغات بد وجود ندارد، و می‌توان افزود که پیش‌گویی‌های مخرب، به‌ویژه در حوزهٔ هوش مصنوعی، خود نوعی هیجان‌زده‌سازی است. تصورات سرنوشت‌ساز از فاجعه، ما را از پیامدهای روزمرهٔ هوش مصنوعی منحرف می‌کند؛ از جمله ضریب زیست‌محیطی‌اش که شگفت‌انگیز است، بی‌احترامی به قوانین حق‌نشر و اثرات اعتیادآور و توهم‌انگیز شناختی آن.

علاوه بر این، بسیاری از متخصصان هوش مصنوعی، از جمله برخی از چهره‌های بنیادی این حوزه همچون یان لوکون، بر این باور نیستند که معماری مدل‌های زبانی بزرگ (LLM) که پایه‌گذار روبات‌های گفتگوگر هوش مصنوعی هستند، می‌توانند به سیستم‌های همه‌قدرت‌دار و هوشمندی که افراد مانند کاپلان نگران آن‌ها هستند، تبدیل شوند. حتی روشن نیست که هوش مصنوعی واقعاً بهره‌وری را در محیط کار افزایش می‌دهد یا خیر؛ برخی تحقیقات نشان می‌دهند که برعکس است — به‌عنوان مثال، تلاش‌های قابل توجهی برای جایگزینی کارمندان توسط عوامل هوش مصنوعی انجام شده است، اما پس از شکست ابزارها، کارمندان دوباره استخدام می‌شوند.

کاپلان پذیرفت که ممکن است توانایی‌های هوش مصنوعی در حال رکود باشند. «شاید بهترین هوش مصنوعی تا به‌حال، همان هوشی باشد که هم‌اکنون در اختیار داریم»، او اندیشید. «اما ما واقعاً فکر نمی‌کنیم این‌چنین باشد. ما معتقدیم که این فناوری بهبود خواهد یافت.»

بیشتر درباره هوش مصنوعی: مدیرعامل گوگل می‌گوید همه ما مجبوریم از این عبور کنیم همان‌طور که هوش مصنوعی جامعه را به‌مانند یک خردکن می‌کوبد

دیدگاه‌ خود را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

پیمایش به بالا