نیک لیتنبرگ، سردبیر تجاری

در انتقادی تند به چشمانداز فعلی هوش مصنوعی، بازیگری که به کارگردان و (بهتدریج) به فعال هوش مصنوعی تبدیل شده، جوزف گوردنلیویت مقاومت صنعت فناوری در برابر مقررات را به چالش کشید و با طرح سؤال بلاغی تحریکآمیز، خطرات توسعه بدونقید را نشان داد: «آیا از محتوای ارضایی برای کودکان هشتساله حمایت میکنید؟»
در سخنرانی خود در کنفرانس Brainstorm AI فورچون این هفته، به همراه مدیر تحریریه اندرو نوسکا، گوردنلیویت در جلسه «هنرمند و الگوریتم» سؤال دیگری عمیقتر مطرح کرد: «چرا شرکتهای ساخت این فناوری نیازی به رعایت هیچ قانونی ندارند؟ این اصلاً منطقی نیست.»
در گفتوگوی گستردهای که به شکستهای خاص در خودنظارت میپرداخت، از جمله مواردی که «همدمهای هوش مصنوعی» در پلتفرمهای بزرگ بهنظر میرسید به حوزه نامناسب برای کودکان پیش رفتهاند، گوردنلیویت استدلال کرد که اتکا به سیاستهای داخلی شرکتها بهجای قانون خارجی کافی نیست، با اشاره به اینکه این ویژگیها توسط اخلاقدانیان شرکت تأیید شدهاند.
انتقادات گوردنلیویت بخشی به سمت متا متمایل شد، پس از حضور بازیگر در یک سری ویدئویی «Opinion» نیویورک تایمز. سخنگوی متا، اندی استون، در زمان آن بهصورت شدید در X.com واکنش نشان داد و اشاره کرد که همسر گوردنلیویت پیش از این عضو هیئتمدیره رقیب متا، اپنایآی، بوده است.
گوردنلیویت استدلال کرد که بدون «نقابهای محافظ دولت»، معضلات اخلاقی به نقطه ضعف رقابتی تبدیل میشوند. او توضیح داد که اگر شرکتی سعی کند «منفعت عمومی را در اولویت قرار دهد» و «مسیر شرافتمندانه» را انتخاب کند، خطر این را دارد که «توسط رقیبی که مسیر زیرین را میپذیرد، شکست بخورد». در نتیجه، او گفت که معتقد است تنها مشوقهای تجاری بهطور ناگزیر شرکتها را به «نتایج تاریک» سوق میدهد، مگر آنکه تعامل بین بخش خصوصی و قانون عمومی وجود داشته باشد.
«صمیمیت مصنوعی» و کودکان
علاوه بر عدم وجود مقررات، گوردنلیویت نگرانی عمیقی نسبت به تأثیرات روانی هوش مصنوعی بر کودکان ابراز کرد. او الگوریتمهای بهکار رفته در اسباببازیهای هوش مصنوعی را به «دستگاههای اسلات» تشبیه کرد و گفت اینها از تکنیکهای روانشناختی برای ایجاد اعتیاد استفاده میکنند.
بهاستناد به گفتگوهایی با روانشناس دانشگاه نیویورک (NYU) جاناتان هاید، گوردنلیویت در برابر «صمیمیت مصنوعی» هشدار داد. او استدلال کرد که در حالی که تعامل انسانی به توسعه مسیرهای عصبی در مغزهای جوان کمک میکند، چتباتهای هوش مصنوعی یک تعامل «جعلی» ارائه میدهند که برای نمایش تبلیغات طراحی شدهاند نه برای پرورش رشد.
«بهنظر من واضح است که اگر شما کودکان را در معرض این صمیمیت مصنوعی که شرکتها میفروشند، قرار دهید، در مسیر بسیار بدی قدم میگذارید»، او گفت.
هاید، صاحب کتاب پرفروش نیویورک تایمز نسل اضطراب که توسط گوردنلیویت در صحنه توصیه شد، اخیراً در یک همایش دارتموث–برنامه توسعه سازمان ملل متحد درباره سلامت روان جوانان شرکت کرد و از تشبیه ریشههای درخت به نورونها استفاده کرد. او توضیح داد که رشد ریشه درخت بهواسطهٔ محیطها شکل میگیرد و تصویری از درختی که دور یک قبر دوران جنگ داخلی میچرخید، نشان داد. دربارهٔ نسلزد و فناوری، بهویژه گوشیهای هوشمند، گفت: «مغزهایشان بهمانند درختی که دور این قبر رشد کرده است، بهطرز قابلتوجهی اطراف گوشیهایشان ساخته شدهاند». او همچنین به تجلیات فیزیکی این سازگاری اشاره کرد؛ کودکانی که «بهطرز خمیدهای دور گوشیهایشان مینشینند»، زیرا اعتیاد به صفحهنمایش بهصورت واقعی «چشمها را خم میکند»، که منجر به افزایش جهانی «نزدیکبینی» میشود.
روایت «مسابقه تسلیحات»
در پاسخ به این سؤال که چرا مقررات بهسختی بهوجود میآیند، گوردنلیویت به روایت قدرتمندی که شرکتهای فناوری به کار میگیرند اشاره کرد: مسابقه ژئوپولیتیکی با چین. او این چارچوب را «داستانسرایی» و «دستتکان» توصیف کرد که برای دور زدن بررسیهای ایمنی به کار میرود. شرکتها اغلب توسعه هوش مصنوعی را با پروژه منهتن مقایسه میکنند و میگویند که کاهش سرعت بهمنظور ایمنی به معنی باختن جنگی برای برتری است. در واقع، «مأموریت ژنسیس» دولت ترامپ برای تشویق نوآوری هوش مصنوعی، تنها چند هفته پیش در اواخر نوامبر با همان شور و هیجان رونمایی شد.
با این حال، این موضع با واکنش مخالفانهای از سوی مخاطبان مواجه شد. استیفن مسر از Collective[i] استدلال کرد که استدلالهای گوردنلیویت بهسرعت در یک «اتاق پر از افراد هوش مصنوعی» در حال فروپاشی هستند. او مثال زد که حریمخصوصی پیش از این صنعت تشخیص چهره در ایالات متحده را نابود کرده بود و به چین اجازه داد تا تنها در شش ماه به برتری مسلط شود. گوردنلیویت به پیچیدگی موضوع اذعان کرد و گفت که «استدلالهای ضدقوانین اغلب قوانین بد را بهنقش میکشند» تا بر همه قوانین بپردازند. او تأکید کرد که در حالی که ایالات متحده نباید جایگاهی را واگذار کند، «باید یک میانهروی مناسب پیدا کنیم» بهجای اینکه هیچ قانونی نداشته باشیم.
گوردنلیویت همچنین مدل اقتصادی هوش مصنوعی مولد را نقد کرد و شرکتها را متهم کرد که مدلهای خود را بر پایهٔ «محتوای دزدیدهشده و دادههای سرقت شده» میسازند، در حالی که ادعای «استفاده منصفانه» را برای فرار از پرداخت به خالقان به کار میبرند. او هشدار داد که سیستمی که در آن «۱۰۰٪ سود اقتصادی» به شرکتهای فناورانه میرسد و «۰٪» به انسانهایی که دادههای آموزشی را تولید کردهاند، غیرقابلپذیر است.
علیرغم انتقاداتش، گوردنلیویت روشن کرد که او یک خوشبینگرای فناوری نیست. او گفت که قطعاً از ابزارهای هوش مصنوعی استفاده خواهد کرد اگر آنها «بهصورت اخلاقی تنظیم شوند» و خالقان جبران شوند. با این حال، او نتیجهگیری کرد که بدون برقراری اصل مالکیت دیجیتال اثرهای افراد، صنعت به «مسیر نسبتاً دیستوپی» پیش میرود.