آبغلت نوستالژی هوش مصنوعی برای چه کسی است؟

ابزارهای تولید ویدئوی مانند Sora بر یک تک‌فرهنگی تکیه می‌کنند که دیگر وجود ندارد — و خروجی‌هایشان صرفاً ضایعه‌اند.

چارلز پالیام‑مور

چارلز پالیام‑مور

ویدیوهای نوستالژیک هوش مصنوعی برای چه کسانی

اخیراً سیلی از ویدئوهای تولیدی توسط هوش مصنوعی ظاهر شده است که نوجوانان جوانی با چهره‌ای تازه و دلپذیر، نوستالژی خود را دربارهٔ بهتر بودن جهان در دهه‌های ۸۰ و ۹۰ بیان می‌کنند. همان‌طور که این «جوانان هوش مصنوعی» با لبخند چشم‌دار و مدل موهای مخصوص دوران خود به نمایش می‌گذارند، کلیپ‌ها به تصاویری رؤیایی از کوچه‌های آفتاب‌خورده و خودروهای کلاسیک می‌پیوندند؛ در حالی که آهنگ‌هایی چون «Everybody Wants to Rule the World» و قطعاتی الهام‌گرفته از موسیقی متن Donkey Kong Country در پس‌زمینه پخش می‌شود. همه‌این‌چیز به‌طرز شگفت‌انگیزی عجیب است — گویی کسی می‌گوید در دوران دبیرستان به اوج رسیده.

هرچند این ویدئوها عجیب‌اند، منطق نسبتاً ساده‌ای پشت آن‌ها نهفته است. از یک سو، این محتوا به وسوسهٔ مردم برای بازگشت به گذشته می‌پردازد — به‌ویژه بینندگان جوان که به‌دلیل نداشتن تجربهٔ مستقیم از آن دوره‌ها، به‌راحتی جزئیات زمان‌ناگسسته‌ای را که مدل‌های هوش مصنوعی در خروجی ویدئویی خود می‌گنجانند، نادیده می‌گیرند. اما این ویدئوها تصویری ایده‌آل‌سازی‌شده از گذشته می‌سازند که در آن همه زیبا، بیش‌ترن مردم سفیدپوست‌اند و همه به‌طرز عجیب می‌دانند زندگی در سال ۲۰۲۵ چقدر استرس‌زا خواهد بود. این‌گونه نوستالژی، یک خیال‌پردازی نوآرمان‌گرا برای افرادی است که از باز کردن کتاب‌های تاریخ می‌گریزند.

اما تحلیل دلایل پشت برخی از کلیپ‌های هوش مصنوعی که افراد مشهورِ مرده‌ای را نشان می‌دهند و کارهای ناحقیقی انجام می‌دهند، بسیار دشوار است. ویدئوهای بی‌نهایتی وجود دارد که ستاره‌ها را در رفتارهایی نشان می‌دهند که با واقعیت همخوانی ندارند: مایکل جکسون که مرغ سرخ‌شده می‌دزد، استیون هاوکینگ که در X Games رقابت می‌کند، اینشتین که به قهرمان UFC تبدیل می‌شود، باب راس که توسط پلیس به‌دلیل کشیدن دیوارهای بزرگ بدون مجوز (؟) دستگیر می‌شود، ملکه الیزابت و پرنسس دیانا که در یک مسابقه تبلیغاتی WWE به‌یکدیگر می‌جنگند. نژادپرستی آشکار، تبعیض ناتوانی‌ستیز و جنسیت‌ستیزی در این کلیپ‌ها باعث می‌شود همهٔ آن‌ها حس قطعات کم‌ارزش Family Guy را القا کنند. اما در برنامه Sora، این نوع «کمدی» زباله‌ای به‌نظر می‌رسد که همه به آن علاقه دارند.

به‌دلیل علتی نامشخص، فرد راجرز (Fred Rogers) غالباً محور این کلیپ‌هاست؛ جایی که می‌توانید او را در حال رپ‌کردن با تپاک، به‌طرز شهوانی به زنانی مانند ماریلین مونرو نگاه کرده و کمدی پر از اسلحه‌ها مشاهده کنید. هیچ‌یک از این دیپ‌فیک‌ها به‌خصوص قانع‌کننده نیستند و بیشتر آن‌ها هنوز واترمارکی دارند که نشان می‌دهد با مدل Sora از OpenAI ساخته شده‌اند. اما هرچند این «آبغلت» چقدر هم بد باشد، در همه‌جا حاضر است و تعداد بازدیدها نشان می‌دهد که — چه از دل‌سوزی، چه از نفرت، چه از بی‌تفاوتی — مردم نمی‌توانند از تماشا کردن خودداری کنند. حداقل این همان چیزی است که تیم پشت برنامه اجتماعی ویدئویی تازه‌راه‌اندازی‌شدهٔ OpenAI می‌خواهد به ما القا کند.

به‌وضوح می‌توان شناخت که OpenAI از پر کردن اینترنت با ویدئوهای تولیدی توسط Sora چه سودی می‌برد. این محتوا راه دیگری برای شرکت است تا فناوری‌اش را تبلیغ کند و ایدهٔ کار کردن در «کارخانهٔ آبغلت» را به‌عنوان سرگرمی عادی‌سازی کند. به‌نظر می‌رسد این هدف نهایی برنامه Sora است؛ جایی که تولید یک ویدئو به سادگی نوشتن چند جمله در جعبهٔ درخواست است. OpenAI و رقبایش می‌خواهند به عنوان منابعی شناخته شوند که از آن‌ها نوعی هنر انقلابی جدید پدید آمده است — هنری که به مردم امکان می‌دهد خلاقیت‌شان را به‌طرزی بیان کنند که پیش از این ممکن نبوده.

افراد سازنده این ویدئوها مانند جیک پائول، اسنپ داغ و شاکی‌ال نیل به‌وضوح این ایده را پذیرفته‌اند یا حداقل برای فریب دادن طرفداران ساده‌دلشان به‌این صورت پرداخت می‌شوند که «پر کردن خود از آبغلت» از یک محفظه چیزی جذاب است. ولی وقتی به اندازه کافی از این محتوا (که زیاد نیست) تماشا می‌کنید، واضح می‌شود که چقدر بی‌خلاق و بی‌مزه است. همچنین به‌وضوح حس می‌کنید که هیچ‌یک از این خالقان توانایی تصور چیزی فراتر از «اگر این ستارهٔ مرده کاری دیوانه‌وار می‌کرد که برای عاملانش دل‌درد می‌آورد» را ندارند.

محتوای این ویدئوها به‌طرز واضحی وضعیت فعلی هوش مصنوعی تولیدی را نشان می‌دهد؛ اما بیش از آن نشان می‌دهد که خروجی این فناوری چطور تحت تأثیر تدریجی از بین رفتن تک‌فرهنگی قرار گرفته است.

مرتبط

  • من به آبغلت لغزندهٔ Sora افتادم
  • Ancestra در واقع دربارهٔ وضعیت فعلی ویدئوهای تولیدی توسط هوش مصنوعی چیزهای زیادی می‌گوید
  • کارگردان می‌خواهد تو را به یک پیشنهاددهندهٔ خوشحال کوچک برای «نت‌فلیکس هوش مصنوعی» تبدیل کند

اگرچه برخی ادعا می‌کردند که جامعه زمانی که همه همان برنامه‌های تلویزیونی و فیلم‌های یکسان را تماشا می‌کردند حس انسجام بیشتری داشت — گفت‌وگوی اسطوره‌ای در اطراف آب‌سردان کاری — تک‌فرهنگی بدون معایب خود نبود. آن زمان قدرت تصمیم‌گیری در حوزه فرهنگِ عامه در دست گروهی محدود — عموماً مردان مسن، سفیدپوست — بوده است. تک‌فرهنگی موانع ساختاری برای تولید هنر برای عموم ایجاد کرده بود و فناوری‌های مدرن مانند اینترنت و شبکه‌های اجتماعی به مردم راهی برای دور زدن این دروازه‌بان‌ها دادند.

اتفاقی نیست که بسیاری از بنیان‌گذاران هوش مصنوعی تولیدی به‌شدت بر این ایده تکیه کرده‌اند که محصولاتشان برای توانمندسازی افراد و «دموکرات‌سازی» خلق هنر طراحی شده‌اند. این همان وعده‌ای بود که از ابتدا مطرح شد. اما وقتی در برنامه Sora مرور می‌کنید و ده‌ها ویدئو را می‌بینید که بر پایهٔ درخواست‌های بنیادی مشابهی مانند «یک سلبریتی یا حیوان توسط پلیس به‌دلیل رانندگی تحت تأثیر الکل متوقف می‌شود» بازآفرینی می‌شوند، سخت است این پلتفرم را به‌عنوان مکانی ببینید که کاربران را تشویق می‌کند تا به الگوهای شناخته‌شده چسبیده بمانند، نه به‌سوی خلق چیزهای واقعاً اصیل یا حتی کمی جالب.

به‌طور دقیق، محتوای «خوب» هوش مصنوعی تولیدی کجا است؟

به‌جز سام آلتمن‌های دنیا که مستقیماً از این محتوا سود می‌برند، دشوار است تشخیص دهیم این ویدئوها برای چه کسانی ساخته شده‌اند و چه چیزی باید در آن‌ها خنده‌دار باشد. استدلالی وجود دارد که این بی‌معنی برای جذب زومرها و کودکان نسل آلفا است که «کاهش توان ذهنی» را به‌عنوان بخشی از هویت خود می‌پذیرند. اما عنصر طنز این ویدئوها دقیقاً کار نمی‌کند اگر شما درکی از این افراد ساخته‌شده توسط هوش مصنوعی نداشته باشید. بدون این زمینه، نکات خنده‌دار به‌سختی قابل‌فهم می‌شوند. به‌عنوان مثال، «فرد روجرز که با ماریلین مونرو رابطهٔ عاشقانه‌ای دارد» حالا به معنای «یک پیرمرد سرکوبگر جنسی» است؛ در حالی که استیون هاوکینگ به «این مرد ALS دارد و از صندلی چرخ‌دار استفاده می‌کند» تبدیل شده است.

اگرچه حامیان هوش مصنوعی ادعا می‌کنند که این فناوری می‌تواند هنر معناداری تولید کند، برنامه Sora در واقع نشان می‌دهد که این ویدئوها از ترکیب‌های قالبی و مشتق‌گرایانه ساخته شده‌اند که به‌راحتی می‌توان آن‌ها را به‌عنوان «آبغلت» رد کرد. تمام این‌ها حسی می‌دهد که محتوا برای جذب ویروسی شدن در شبکه‌های اجتماعی مهندسی شده است نه برای بیان خلاقیت انسانی. ممکن است این کلیپ‌ها تعداد چشمگیری بازدید آنلاین کسب کنند، اما «افزایش عدد» معیاری قابل اعتماد برای سنجش ماندگاری واقعی آن‌ها نیست.

ادعا بر این‌که ویدئوهای هوش مصنوعی که جفری اپستین را در حال ارتکاب جرم نشان می‌دهد «آیندهٔ سرگرمی» است یا نشانگر سلیقهٔ جوانان در حوزهٔ رسانه‌هاست، به‌طور آشکار توهینی سنگین به هوش آن‌هاست. این ایده می‌گوید مردم یا نمی‌توانند یا نمی‌خواهند کیفیت را ارج بنهند یا توجه خود را به‌عنوان امری ارزشمند ببینند. ما دائما می‌شنویم که این فناوری هر روز بهتر می‌شود و محتوای «خوب» هوش مصنوعی تولیدی در دسترس است. پس محتویات «خوب» کجا هستند؟ چه تعداد میلیارد دلاری دیگر باید به این چرخهٔ هیاهوی هوش مصنوعی تزریق شود تا چیزی تولید شود که بیش از لحظهٔ کنونی ارزش فکر کردن یا به یاد ماندن را داشته باشد؟

همه این‌ها بیشتر شبیه یک روند پر زرق‌و‌برق به‌نظر می‌رسند که هدفش متقاعد کردن مردم به این است که هوش مصنوعی تولیدی ارزش هیجان‌زده شدن را دارد. نوآوری‌های این ویدئوها به‌نظر می‌رسد به‌سرعت فرسوده شوند چون تعداد وسیعی از آن‌ها در دسترس است. تا کنون تنها وعده‌ای که هوش مصنوعی به آن دست یافته است، مقیاس وسیع آن است. اما این بدان معناست که ما سریع‌تر از آن خسته می‌شویم چون به‌طور مداوم در معرض آن قرار داریم. و هنگامی که یک مد جدید درخشان هوش مصنوعی پیش می‌آید که مردم به آن دل می‌بندند، به‌راحتی می‌توان تصور کرد که همه فراموش کنند این لحظهٔ «آبغلت» هرگز اتفاق افتاده است.

دیدگاه‌ خود را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

پیمایش به بالا