بازیگر جوزف گوردن‑لوویت تعجب می‌کند چرا شرکت‌های هوش مصنوعی نیازی به «رعایت هیچ قانونی» ندارند

جوزف گوردن‑لوویت در همایش Brainstorm AI مجله Fortune.
جوزف گوردن‑لوویت در همایش Brainstorm AI مجله Fortune. عکاسی توسط استوارت ایست/فورتچون

در نقدی تند به وضعیت فعلی هوش مصنوعی، بازیگر که به کارگردان تبدیل شده و (به‌طور فزاینده) فعال هوش مصنوعی است، جوزف گوردن‑لوویت مقاومت صنعت فناوری در برابر مقررات را به چالش کشید و با طرح سؤال بیانیه‌گونه‌ای برای نشان دادن خطرات توسعه بدون نظارت، پرسید: «آیا از محتوای اریحی برای کودکان ۸ ساله حمایت می‌کنید؟»

در جلسه خود در همایش Brainstorm AI مجله Fortune این هفته به همراه مدیر تحریریه اندرو ناسکا، گوردن‑لوویت از جلسه «هنرمند و الگوریتم» سؤال دیگری عمیق‌تر مطرح کرد: «چرا شرکت‌هایی که این فناوری را می‌سازند نباید ملزم به رعایت هیچ قانونی باشند؟ این اصلاً منطقی نیست.»

در گفتگویی گسترده که به شکست‌های خاص در خودتنظیمی می‌پرداخت، از جمله مواردی که «همدم‌های هوش مصنوعی» در پلتفرم‌های بزرگ به‌نظر می‌رسد به حوزه نامناسب برای کودکان وارد شوند، گوردن‑لوویت استدلال کرد که تکیه بر سیاست‌های داخلی شرکت به‌جای قانون خارجی کافی نیست و خاطرنشان کرد که این ویژگی‌ها توسط اخلاق‌پژوهان شرکتی تأیید شده‌اند.

نقدهای گوردن‑لوویت تا حدودی به سمت متا هدف‌گیری شده بود، پس از حضور بازیگر در مجموعهٔ ویدئویی نظریه‌پردازی نیویورک تایمز که ادعاهای مشابهی را مطرح می‌کرد. سخنگوی متا، اندی استون، در زمان آن به‌طور جدی در X.com واکنش نشان داد و به این نکته اشاره کرد که همسر گوردن‑لوویت پیش‌تر در هیئت‌مدیره رقیب متا، OpenAI، حضور داشته است.

گوردن‑لوویت استدلال کرد که بدون «دست‌اندازهای دولتی» (یا «قوانین پیشگیرانه») معضلات اخلاقی به‌عنوان معایب رقابتی تبدیل می‌شوند. او توضیح داد که اگر شرکتی سعی کند «در اولویت قرار دادن منافع عمومی» را برگزیده و «راه درست» را بپذیرد، خطر «پشت سر گذاشته شدن توسط رقیبی که «راه پایین» را انتخاب می‌کند» را به‌دست می‌آورد. به‌این‌ترتیب، او معتقد است که تنها انگیزه‌های تجاری به‌طور اجتناب‌ناپذیر شرکت‌ها را به سمت «نتایج تاریک» سوق می‌دهند مگر اینکه تعامل میان بخش خصوصی و قانون عمومی برقرار شود.

«صمیمیت مصنوعی» و کودکان

فراتر از فقدان مقررات، گوردن‑لوویت نگرانی عمیقی دربارهٔ تأثیرات روان‌شناختی هوش مصنوعی بر کودکان ابراز کرد. او الگوریتم‌های مورد استفاده در اسباب‌بازی‌های هوش مصنوعی را با «ماشین‌های اسلات» مقایسه کرد و گفت که این الگوریتم‌ها از تکنیک‌های روان‌شناختی برای ایجاد وابستگی استفاده می‌کنند.

بر پایهٔ گفتگوهایش با روانشناس دانشگاه نیویورک (NYU) جنیاتان هیدت، گوردن‑لوویت هشدار داد که از «صمیمیت مصنوعی» خودداری کنید. او استدلال کرد که در حالی که تعامل انسانی به توسعه مسیرهای عصبی در مغزهای جوان کمک می‌کند، ربات‌های چت هوش مصنوعی یک تعامل «ساختگی» ارائه می‌دهند که برای نمایش تبلیغات طراحی شده است، نه برای ارتقای رشد.

او گفت: «برای من کاملاً واضح است که اگر آن‌ها را در معرض این «صمیمیت مصنوعی» که شرکت‌ها می‌فروشند قرار دهید، راه بسیار بدی را طی می‌کنید.»

هیدت، نویسنده کتاب پرفروش نیویورک تایمز نسل نگران که توسط گوردن‑لوویت در صحنه معرفی شد، به‌تازگی در یک سمپوزیوم دارتموث و برنامه توسعه سازمان ملل متحد دربارهٔ سلامت روان جوانان حضور یافت و از تمثیل ریشه‌های درخت برای نورون‌ها استفاده کرد. او توضیح داد رشد ریشه‌های درخت توسط محیط‌ها شکل می‌گیرد و تصویری از درختی که دور یک سنگ‌گور تاریخ جنگ داخلی می‌چرخد نشان داد. با نسل زد و فناوری، به‌ویژه تلفن هوشمند، او گفت: «مغزهای آن‌ها به همان‌طور که این درخت دور این سنگ‌گور رشد کرد، به‌طور فراوانی حول اطراف تلفن‌هایشان رشد کرده‌اند.» او همچنین به تجلیات فیزیکی این سازگاری پرداخت، به‌طوری که کودکان «به‌صورت خمیده در اطراف تلفن‌هایشان رشد می‌کنند»، زیرا اعتیاد به صفحه‌نمایش به‌صورت واقعی «چشم‌ها را خم می‌کند»، که منجر به افزایش جهانی در نزدیک‌بیندیشی (میوپیا) می‌شود.

روایت «رقابت تسلیحاتی»

در هنگام بررسی این‌که چرا مقررات به‌سختی به‌وجود می‌آیند، گوردن‑لوویت به روایتی قدرتمند که توسط شرکت‌های فناوری به کار گرفته می‌شود اشاره کرد: رقابت ژئوپولیتیکی علیه چین. او این چارچوب را «داستان‌سرایی» و «انکار» توصیف کرد که برای دور زدن بررسی‌های ایمنی طراحی شده‌اند. شرکت‌ها اغلب توسعهٔ هوش مصنوعی را با پروژه منهتن مقایسه می‌کنند و استدلال می‌دارند که کاهش سرعت برای ایمنی به معنای از دست دادن جنگ برای برتری است. در واقع، «ماموریت ژنسیس» دولت ترامپ برای تشویق نوآوری هوش مصنوعی فقط چند هفته پیش در اواخر نوامبر با شور و شوق مشابهی معرفی شد.

با این‌حال، این موضع با واکنش مخالفان در میان مخاطبان مواجه شد. استیفن مسر از Collective[i] استدلال کرد که نظرات گوردن‑لوویت به‌سرعت در «اتاقی پر از افراد هوش مصنوعی» از هم می‌پاشند. او به‌عنوان مثال ذکر کرد که حریم‌خصوصی قبلاً صنعت تشخیص چهره در ایالات متحده را به شدت تحت تأثیر قرار داد و به چین اجازه داد در عرض تنها شش ماه پیشتاز شود. گوردن‑لوویت پیچیدگی این مسئله را تأیید کرد و اذعان کرد که «استدلال‌های ضد‌مقرراتی اغلب قوانین بد را برای رد تمام قوانین انتخاب می‌کنند». او تأکید کرد که در حالی‌که ایالات متحده نباید زمین خود را واگذار کند، «باید یک میانه‌روی مناسب پیدا کنیم» به‌جای اینکه هیچ قانونی در نظر گرفته نشود.

گوردن‑لوویت همچنین مدل اقتصادی هوش مصنوعی مولد را نقد کرد و شرکت‌ها را متهم کرد که مدل‌های خود را بر پایهٔ «محتوای و داده‌های دزدیده‌شده» می‌سازند، در حالی که ادعای «استفاده منصفانه» می‌کنند تا از پرداخت به تولیدکنندگان اجتناب کنند. او هشدار داد که سیستمی که در آن «۱۰۰٪ سود اقتصادی» به شرکت‌های فناوری می‌رسد و «۰٪» به انسان‌هایی که داده‌های آموزشی را تولید کرده‌اند، پایدار نیست.

علیرغم انتقاداتش، گوردن‑لوویت روشن کرد که خود را یک بدبین فناوری نمی‌داند. او گفت که قطعاً از ابزارهای هوش مصنوعی استفاده می‌کند اگر به‌صورت «اخلاق‌محور» تنظیم شوند و سازندگان جبران شوند. با این حال، او نتیجه‌گیری کرد که بدون ایجاد اصل مالکیت دیجیتال برای فرد، صنعت به سمت یک «راه نسبتاً دیستپی» پیش می‌رود.

دیدگاه‌ خود را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

پیمایش به بالا