
در نقدی تند به وضعیت فعلی هوش مصنوعی، بازیگر که به کارگردان تبدیل شده و (بهطور فزاینده) فعال هوش مصنوعی است، جوزف گوردن‑لوویت مقاومت صنعت فناوری در برابر مقررات را به چالش کشید و با طرح سؤال بیانیهگونهای برای نشان دادن خطرات توسعه بدون نظارت، پرسید: «آیا از محتوای اریحی برای کودکان ۸ ساله حمایت میکنید؟»
در جلسه خود در همایش Brainstorm AI مجله Fortune این هفته به همراه مدیر تحریریه اندرو ناسکا، گوردن‑لوویت از جلسه «هنرمند و الگوریتم» سؤال دیگری عمیقتر مطرح کرد: «چرا شرکتهایی که این فناوری را میسازند نباید ملزم به رعایت هیچ قانونی باشند؟ این اصلاً منطقی نیست.»
در گفتگویی گسترده که به شکستهای خاص در خودتنظیمی میپرداخت، از جمله مواردی که «همدمهای هوش مصنوعی» در پلتفرمهای بزرگ بهنظر میرسد به حوزه نامناسب برای کودکان وارد شوند، گوردن‑لوویت استدلال کرد که تکیه بر سیاستهای داخلی شرکت بهجای قانون خارجی کافی نیست و خاطرنشان کرد که این ویژگیها توسط اخلاقپژوهان شرکتی تأیید شدهاند.
نقدهای گوردن‑لوویت تا حدودی به سمت متا هدفگیری شده بود، پس از حضور بازیگر در مجموعهٔ ویدئویی نظریهپردازی نیویورک تایمز که ادعاهای مشابهی را مطرح میکرد. سخنگوی متا، اندی استون، در زمان آن بهطور جدی در X.com واکنش نشان داد و به این نکته اشاره کرد که همسر گوردن‑لوویت پیشتر در هیئتمدیره رقیب متا، OpenAI، حضور داشته است.
گوردن‑لوویت استدلال کرد که بدون «دستاندازهای دولتی» (یا «قوانین پیشگیرانه») معضلات اخلاقی بهعنوان معایب رقابتی تبدیل میشوند. او توضیح داد که اگر شرکتی سعی کند «در اولویت قرار دادن منافع عمومی» را برگزیده و «راه درست» را بپذیرد، خطر «پشت سر گذاشته شدن توسط رقیبی که «راه پایین» را انتخاب میکند» را بهدست میآورد. بهاینترتیب، او معتقد است که تنها انگیزههای تجاری بهطور اجتنابناپذیر شرکتها را به سمت «نتایج تاریک» سوق میدهند مگر اینکه تعامل میان بخش خصوصی و قانون عمومی برقرار شود.
«صمیمیت مصنوعی» و کودکان
فراتر از فقدان مقررات، گوردن‑لوویت نگرانی عمیقی دربارهٔ تأثیرات روانشناختی هوش مصنوعی بر کودکان ابراز کرد. او الگوریتمهای مورد استفاده در اسباببازیهای هوش مصنوعی را با «ماشینهای اسلات» مقایسه کرد و گفت که این الگوریتمها از تکنیکهای روانشناختی برای ایجاد وابستگی استفاده میکنند.
بر پایهٔ گفتگوهایش با روانشناس دانشگاه نیویورک (NYU) جنیاتان هیدت، گوردن‑لوویت هشدار داد که از «صمیمیت مصنوعی» خودداری کنید. او استدلال کرد که در حالی که تعامل انسانی به توسعه مسیرهای عصبی در مغزهای جوان کمک میکند، رباتهای چت هوش مصنوعی یک تعامل «ساختگی» ارائه میدهند که برای نمایش تبلیغات طراحی شده است، نه برای ارتقای رشد.
او گفت: «برای من کاملاً واضح است که اگر آنها را در معرض این «صمیمیت مصنوعی» که شرکتها میفروشند قرار دهید، راه بسیار بدی را طی میکنید.»
هیدت، نویسنده کتاب پرفروش نیویورک تایمز نسل نگران که توسط گوردن‑لوویت در صحنه معرفی شد، بهتازگی در یک سمپوزیوم دارتموث و برنامه توسعه سازمان ملل متحد دربارهٔ سلامت روان جوانان حضور یافت و از تمثیل ریشههای درخت برای نورونها استفاده کرد. او توضیح داد رشد ریشههای درخت توسط محیطها شکل میگیرد و تصویری از درختی که دور یک سنگگور تاریخ جنگ داخلی میچرخد نشان داد. با نسل زد و فناوری، بهویژه تلفن هوشمند، او گفت: «مغزهای آنها به همانطور که این درخت دور این سنگگور رشد کرد، بهطور فراوانی حول اطراف تلفنهایشان رشد کردهاند.» او همچنین به تجلیات فیزیکی این سازگاری پرداخت، بهطوری که کودکان «بهصورت خمیده در اطراف تلفنهایشان رشد میکنند»، زیرا اعتیاد به صفحهنمایش بهصورت واقعی «چشمها را خم میکند»، که منجر به افزایش جهانی در نزدیکبیندیشی (میوپیا) میشود.
روایت «رقابت تسلیحاتی»
در هنگام بررسی اینکه چرا مقررات بهسختی بهوجود میآیند، گوردن‑لوویت به روایتی قدرتمند که توسط شرکتهای فناوری به کار گرفته میشود اشاره کرد: رقابت ژئوپولیتیکی علیه چین. او این چارچوب را «داستانسرایی» و «انکار» توصیف کرد که برای دور زدن بررسیهای ایمنی طراحی شدهاند. شرکتها اغلب توسعهٔ هوش مصنوعی را با پروژه منهتن مقایسه میکنند و استدلال میدارند که کاهش سرعت برای ایمنی به معنای از دست دادن جنگ برای برتری است. در واقع، «ماموریت ژنسیس» دولت ترامپ برای تشویق نوآوری هوش مصنوعی فقط چند هفته پیش در اواخر نوامبر با شور و شوق مشابهی معرفی شد.
با اینحال، این موضع با واکنش مخالفان در میان مخاطبان مواجه شد. استیفن مسر از Collective[i] استدلال کرد که نظرات گوردن‑لوویت بهسرعت در «اتاقی پر از افراد هوش مصنوعی» از هم میپاشند. او بهعنوان مثال ذکر کرد که حریمخصوصی قبلاً صنعت تشخیص چهره در ایالات متحده را به شدت تحت تأثیر قرار داد و به چین اجازه داد در عرض تنها شش ماه پیشتاز شود. گوردن‑لوویت پیچیدگی این مسئله را تأیید کرد و اذعان کرد که «استدلالهای ضدمقرراتی اغلب قوانین بد را برای رد تمام قوانین انتخاب میکنند». او تأکید کرد که در حالیکه ایالات متحده نباید زمین خود را واگذار کند، «باید یک میانهروی مناسب پیدا کنیم» بهجای اینکه هیچ قانونی در نظر گرفته نشود.
گوردن‑لوویت همچنین مدل اقتصادی هوش مصنوعی مولد را نقد کرد و شرکتها را متهم کرد که مدلهای خود را بر پایهٔ «محتوای و دادههای دزدیدهشده» میسازند، در حالی که ادعای «استفاده منصفانه» میکنند تا از پرداخت به تولیدکنندگان اجتناب کنند. او هشدار داد که سیستمی که در آن «۱۰۰٪ سود اقتصادی» به شرکتهای فناوری میرسد و «۰٪» به انسانهایی که دادههای آموزشی را تولید کردهاند، پایدار نیست.
علیرغم انتقاداتش، گوردن‑لوویت روشن کرد که خود را یک بدبین فناوری نمیداند. او گفت که قطعاً از ابزارهای هوش مصنوعی استفاده میکند اگر بهصورت «اخلاقمحور» تنظیم شوند و سازندگان جبران شوند. با این حال، او نتیجهگیری کرد که بدون ایجاد اصل مالکیت دیجیتال برای فرد، صنعت به سمت یک «راه نسبتاً دیستپی» پیش میرود.