بازیگر جوزف گوردن‌لیویت از این سؤال می‌پرسد که چرا شرکت‌های هوش مصنوعی نیازی به «رعایت هیچ قانونی» ندارند

نیک لیتنبرگ، سردبیر تجاری

جوزف گوردن‌لیویت در کنفرانس Brainstorm AI فورچون
جوزف گوردن‌لیویت در کنفرانس Brainstorm AI فورچون. عکاسی: استوارت ایست / فورچون

در انتقادی تند به چشم‌انداز فعلی هوش مصنوعی، بازیگری که به کارگردان و (به‌تدریج) به فعال هوش مصنوعی تبدیل شده، جوزف گوردن‌لیویت مقاومت صنعت فناوری در برابر مقررات را به چالش کشید و با طرح سؤال بلاغی تحریک‌آمیز، خطرات توسعه بدون‌قید را نشان داد: «آیا از محتوای ارضایی برای کودکان هشت‌ساله حمایت می‌کنید؟»

در سخنرانی خود در کنفرانس Brainstorm AI فورچون این هفته، به همراه مدیر تحریریه اندرو نوسکا، گوردن‌لیویت در جلسه «هنرمند و الگوریتم» سؤال دیگری عمیق‌تر مطرح کرد: «چرا شرکت‌های ساخت این فناوری نیازی به رعایت هیچ قانونی ندارند؟ این اصلاً منطقی نیست.»

در گفت‌و‌گوی گسترده‌ای که به شکست‌های خاص در خودنظارت می‌پرداخت، از جمله مواردی که «همدم‌های هوش مصنوعی» در پلتفرم‌های بزرگ به‌نظر می‌رسید به حوزه نامناسب برای کودکان پیش رفته‌اند، گوردن‌لیویت استدلال کرد که اتکا به سیاست‌های داخلی شرکت‌ها به‌جای قانون خارجی کافی نیست، با اشاره به اینکه این ویژگی‌ها توسط اخلاق‌دانیان شرکت تأیید شده‌اند.

انتقادات گوردن‌لیویت بخشی به سمت متا متمایل شد، پس از حضور بازیگر در یک سری ویدئویی «Opinion» نیویورک تایمز. سخنگوی متا، اندی استون، در زمان آن به‌صورت شدید در X.com واکنش نشان داد و اشاره کرد که همسر گوردن‌لیویت پیش از این عضو هیئت‌مدیره رقیب متا، اپن‌ای‌آی، بوده است.

گوردن‌لیویت استدلال کرد که بدون «نقاب‌های محافظ دولت»، معضلات اخلاقی به نقطه ضعف رقابتی تبدیل می‌شوند. او توضیح داد که اگر شرکتی سعی کند «منفعت عمومی را در اولویت قرار دهد» و «مسیر شرافتمندانه» را انتخاب کند، خطر این را دارد که «توسط رقیبی که مسیر زیرین را می‌پذیرد، شکست بخورد». در نتیجه، او گفت که معتقد است تنها مشوق‌های تجاری به‌طور ناگزیر شرکت‌ها را به «نتایج تاریک» سوق می‌دهد، مگر آنکه تعامل بین بخش خصوصی و قانون عمومی وجود داشته باشد.

«صمیمیت مصنوعی» و کودکان

علاوه بر عدم وجود مقررات، گوردن‌لیویت نگرانی عمیقی نسبت به تأثیرات روانی هوش مصنوعی بر کودکان ابراز کرد. او الگوریتم‌های به‌کار رفته در اسباب‌بازی‌های هوش مصنوعی را به «دستگاه‌های اسلات» تشبیه کرد و گفت این‌ها از تکنیک‌های روانشناختی برای ایجاد اعتیاد استفاده می‌کنند.

به‌استناد به گفتگوهایی با روانشناس دانشگاه نیویورک (NYU) جاناتان هاید، گوردن‌لیویت در برابر «صمیمیت مصنوعی» هشدار داد. او استدلال کرد که در حالی که تعامل انسانی به توسعه مسیرهای عصبی در مغزهای جوان کمک می‌کند، چت‌بات‌های هوش مصنوعی یک تعامل «جعلی» ارائه می‌دهند که برای نمایش تبلیغات طراحی شده‌اند نه برای پرورش رشد.

«به‌نظر من واضح است که اگر شما کودکان را در معرض این صمیمیت مصنوعی که شرکت‌ها می‌فروشند، قرار دهید، در مسیر بسیار بدی قدم می‌گذارید»، او گفت.

های‌د، صاحب کتاب پرفروش نیویورک تایمز نسل اضطراب که توسط گوردن‌لیویت در صحنه توصیه شد، اخیراً در یک همایش دارتموث–برنامه توسعه سازمان ملل متحد درباره سلامت روان جوانان شرکت کرد و از تشبیه ریشه‌های درخت به نورون‌ها استفاده کرد. او توضیح داد که رشد ریشه درخت به‌واسطهٔ محیط‌ها شکل می‌گیرد و تصویری از درختی که دور یک قبر دوران جنگ داخلی می‌چرخید، نشان داد. دربارهٔ نسل‌زد و فناوری، به‌ویژه گوشی‌های هوشمند، گفت: «مغزهایشان به‌مانند درختی که دور این قبر رشد کرده است، به‌طرز قابل‌توجهی اطراف گوشی‌هایشان ساخته شده‌اند». او همچنین به تجلیات فیزیکی این سازگاری اشاره کرد؛ کودکانی که «به‌طرز خمیده‌ای دور گوشی‌هایشان می‌نشینند»، زیرا اعتیاد به صفحه‌نمایش به‌صورت واقعی «چشم‌ها را خم می‌کند»، که منجر به افزایش جهانی «نزدیک‌بینی» می‌شود.

روایت «مسابقه تسلیحات»

در پاسخ به این سؤال که چرا مقررات به‌سختی به‌وجود می‌آیند، گوردن‌لیویت به روایت قدرتمندی که شرکت‌های فناوری به کار می‌گیرند اشاره کرد: مسابقه ژئوپولیتیکی با چین. او این چارچوب را «داستان‌سرایی» و «دست‌تکان» توصیف کرد که برای دور زدن بررسی‌های ایمنی به کار می‌رود. شرکت‌ها اغلب توسعه هوش مصنوعی را با پروژه منهتن مقایسه می‌کنند و می‌گویند که کاهش سرعت به‌منظور ایمنی به معنی باختن جنگی برای برتری است. در واقع، «مأموریت ژنسیس» دولت ترامپ برای تشویق نوآوری هوش مصنوعی، تنها چند هفته پیش در اواخر نوامبر با همان شور و هیجان رونمایی شد.

با این حال، این موضع با واکنش مخالفانه‌ای از سوی مخاطبان مواجه شد. استیفن مسر از Collective[i] استدلال کرد که استدلال‌های گوردن‌لیویت به‌سرعت در یک «اتاق پر از افراد هوش مصنوعی» در حال فروپاشی هستند. او مثال زد که حریم‌خصوصی پیش از این صنعت تشخیص چهره در ایالات متحده را نابود کرده بود و به چین اجازه داد تا تنها در شش ماه به برتری مسلط شود. گوردن‌لیویت به پیچیدگی موضوع اذعان کرد و گفت که «استدلال‌های ضدقوانین اغلب قوانین بد را به‌نقش می‌کشند» تا بر همه قوانین بپردازند. او تأکید کرد که در حالی که ایالات متحده نباید جایگاهی را واگذار کند، «باید یک میانه‌روی مناسب پیدا کنیم» به‌جای اینکه هیچ قانونی نداشته باشیم.

گوردن‌لیویت همچنین مدل اقتصادی هوش مصنوعی مولد را نقد کرد و شرکت‌ها را متهم کرد که مدل‌های خود را بر پایهٔ «محتوای دزدیده‌شده و داده‌های سرقت‌ شده» می‌سازند، در حالی که ادعای «استفاده منصفانه» را برای فرار از پرداخت به خالقان به کار می‌برند. او هشدار داد که سیستمی که در آن «۱۰۰٪ سود اقتصادی» به شرکت‌های فناورانه می‌رسد و «۰٪» به انسان‌هایی که داده‌های آموزشی را تولید کرده‌اند، غیرقابل‌پذیر است.

علیرغم انتقاداتش، گوردن‌لیویت روشن کرد که او یک خوشبین‌گرای فناوری نیست. او گفت که قطعاً از ابزارهای هوش مصنوعی استفاده خواهد کرد اگر آن‌ها «به‌صورت اخلاقی تنظیم شوند» و خالقان جبران شوند. با این حال، او نتیجه‌گیری کرد که بدون برقراری اصل مالکیت دیجیتال اثرهای افراد، صنعت به «مسیر نسبتاً دیستوپی» پیش می‌رود.

دیدگاه‌ خود را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

پیمایش به بالا