حامیان بر ضد بازار جهانی اسباببازیهای هوشمند به ارزش ۱۶٫۷ میلیارد دلار میجنگند و نظارتهای ناخواسته و عدم وجود مقررات را انتقاد میکنند
اریک برگر
با نزدیک شدن به فصل تعطیلات و فرا رسیدن جمعهٔ سیاه، یکی از دستههای موجود در فهرست هدایای مردم نگرانیهای فزایندهای را به وجود آورده است: محصولات مبتنی بر هوش مصنوعی.
این پیشرفت نگرانیهای جدیدی درباره خطراتی که اسباببازیهای هوشمند میتوانند برای کودکان به وجود آورند، ایجاد کرده است؛ گروههای حمایت از مصرفکنندگان میگویند هوش مصنوعی میتواند ایمنی و رشد کودکان را به خطر بیندازد. این روند باعث درخواست برای آزمونهای بیشتر این محصولات و نظارت دولتی شده است.
«اگر بهدقت بهروش بازاریابی این اسباببازیها و عملکرد آنها نگاه کنیم و این واقعیت را در نظر بگیریم که تحقیقات کمی یا اصلاً وجود ندارند که نشان دهد این اسباببازیها برای کودکان مفید هستند – و هیچگونه مقرراتی برای اسباببازیهای هوش مصنوعی وجود ندارد – این میتواند هشدار جدی بزرگی باشد»، ریچل فرنز، مدیر برنامه «کودکان جوان بهصورت آفلاین» (Young Children Thrive Offline) که یک ابتکار از Fairplay است و به محافظت از کودکان در برابر فناوریهای بزرگ میپردازد، گفت.
هفتهٔ پیش، این ترسها با یک توجیه تلخ مواجه شد؛ زمانی که یک خرس عروسکی مجهز به هوش مصنوعی شروع به بحث در مورد موضوعات جنسی صریح کرد.
محصول «کما» از شرکت FoloToy بر پایهٔ یک مدل OpenAI اجرا میشد و به سؤالهای مرتبط با تمایلات جنسی خاص (kink) پاسخ میداد. بر اساس گزارشی از گروه تحقیقاتی علایق عمومی (PIRG)، سازمان محافظت از مصرفکنندگان که این مطالعه را انجام داده است، این محصول پیشنهاد میکرد که قید و بند و نقشآفرینی میتواند روشهایی برای تقویت یک رابطه باشند.
«برای بهدست آوردن این که این خرس عروسکی وارد تمام گونههای موضوعات حساس جنسی شود و محتوای زیادی که والدین ممکن است نخواهند فرزندانشان در معرض آن قرار بگیرند، تقریباً هیچزحمتی لازم نیست»، ترزا موری، مدیر ناظر مصرفکنندگان در PIRG گفت.
محصولاتی نظیر این خرس عروسکی بخشی از بازار جهانی اسباببازیهای هوشمند به ارزش ۱۶٫۷ میلیارد دلار در سال ۲۰۲۳ محسوب میشوند، طبق گزارش Allied Market Research.
این صنعت بهویژه در چین بزرگ است؛ چین بیش از ۱٬۵۰۰ شرکت تولید اسباببازیهای هوش مصنوعی دارد که در تلاشاند تا بهخارج گسترش یابند، گزارش MIT Technology Review اعلام میکند.
علاوه بر استارتآپ شانگهایمحور FoloToy، شرکت Curio مستقر در کالیفرنیا با OpenAI همکاری میکند و اسباببازی عروسکیای به نام «Grok» تولید مینماید؛ این محصول شبیه ربات گفتوگو ایلان ماسک است و توسط موزیسین Grimes صداگذاری شده است. در ژوئن، شرکت ماتل که برندهایی مثل باربی و هاتویلز را در اختیار دارد، همچنین شراکت خود را با OpenAI اعلام کرد تا «محصولات و تجربههای مبتنی بر هوش مصنوعی را پشتیبانی کند».
پیش از گزارش PIRG درباره خرس عروسکی ترسناک، والدین، پژوهشگران فناوری و قانونگذاران قبلاً نگرانیهای خود را نسبت به تأثیر رباتها بر سلامت روانی نابرندان ابراز کرده بودند. در اکتبر، شرکت چتبات Character.AI اعلام کرد که کاربران زیر ۱۸ سال را مسدود خواهد کرد؛ این تصمیم پس از یک دعوی قضایی بود که ادعا میکرد ربات این شرکت افسردگی یک نوجوان را تشدید کرده و سبب خودکشی او شده است.
موری گفت که اسباببازیهای هوش مصنوعی میتوانند بهویژه خطرناک باشند؛ در حالی که اسباببازیهای هوشمند پیشین تنها پاسخهای برنامهریزیشده برای کودکان ارائه میدادند، ربات میتواند «گفتگوی آزاد و بیمرز با کودک داشته باشد، همانطور که ما متوجه شدیم».
این میتواند نه تنها منجر به گفتوگوهای جنسی صریح شود، بلکه کودکان ممکن است به ربات وابسته شوند تا بهجای افراد یا دوستان خیالی، که این مسأله میتواند به توسعهٔ آنان آسیب برساند، جاکلین وولی، مدیر مرکز تحقیقات کودکان در دانشگاه تگزاس آستین، گفت.
بهعنوان مثال، کودک میتواند از داشتن اختلاف نظر با یک دوست و یادگیری چگونگی حل آن بهرهمند شود. این اتفاق احتمالاً در مواجهه با رباتها، که غالباً رفتار چاپلوسانهای نشان میدهند، کمتر رخ میدهد، وولی که در مطالعهٔ PIRG مشاوره داده بود، گفت.
«من نگران پیوند نامناسب هستم»، وولی گفت.
شرکتها همچنین از اسباببازیهای هوش مصنوعی برای جمعآوری دادههای کودکان استفاده میکنند و دربارهٔ نحوهٔ استفاده از این اطلاعات شفاف نیستند، ریچل فرنز از Fairplay میگوید. این موضوع ممکن است کاربران را به خطر اندازد، زیرا امنیت این دادهها کافی نیست، فرنز افزود. هکرها توانستهاند کنترل محصولات هوش مصنوعی را در دست گیرند.
«بهدلیل اعتمادی که این اسباببازیها در کودکان ایجاد میکنند، میتوان گفت که کودکان بیشتر تمایل دارند عمیقترین افکار خود را به این اسباببازیها بگویند»، فرنز گفت. «نظارت انجامشده غیرضروری و نامناسب است.»
با وجود این نگرانیها، PIRG درخواست ممنوعیت اسباببازیهای هوش مصنوعی را نکرده است؛ این اسباببازیها میتوانند ارزش آموزشی داشته باشند، مانند کمک به کودکان برای یادگیری زبان دوم یا پایتختهای ایالات، موری گفت.
«هیچ مشکلی در داشتن یک ابزار آموزشی وجود ندارد، اما همان ابزار آموزشی به شما نمیگوید که بهترین دوست شماست و میتوانید هر چیزی را با او در میان بگذارید»، موری گفت.
این سازمان خواستار اعمال مقررات بیشتری بر این اسباببازیها برای کودکان زیر ۱۳ سال است، اما هنوز توصیههای سیاستی خاصی ارائه نکرده است، موری گفت.
نیاز است تحقیقات مستقلی بیشتر برای اطمینان از ایمن بودن این محصولات برای کودکان انجام شود و تا آن زمان، باید از قفسهها حذف شوند، فرنز گفت.
«ما به تحقیقات مستقل کوتاهمدت و طولانیمدت دربارهٔ تأثیر تعامل کودکان با اسباببازیهای هوش مصنوعی، شامل توسعهٔ عاطفی‑اجتماعی و شناختی آنها، نیاز داریم»، فرنز گفت.
پس از گزارش PIRG، OpenAI اعلام کرد که تولید FoloToy را به تعلیق میگذارد. سپس مدیرعامل این شرکت به CNN گفت که خرس را از بازار خارج کرده و «ممیزی داخلی ایمنی» را انجام میدهد. اوایل این هفته، این محصول دوباره معرفی شد؛ شرکت در صبح جمعه در شبکههای اجتماعی اعلام کرد که «ممیزی داخلی عمیق و سراسری را آغاز کرده، سامانههای نظارت بر محتوا و ایمنی کودک را تقویت و ارتقاء داده و قوانین و محافظتهای ایمنی پیشرفته را از طریق سیستم ابری خود اعمال کرده است».
«با افزایش توجه جهانی به ایمنی اسباببازیهای هوش مصنوعی، ما بر این باوریم که شفافیت، مسئولیتپذیری و بهبود مستمر ضروریاند»، این شرکت گفت. «FoloToy بهطور قاطع متعهد به ساختن همراهان هوش مصنوعی ایمن و متناسب با سن برای کودکان و خانوادههای سراسر جهان است.»
با این حال، در بیانیه خود تأیید نکرد که پیش از انتشار مجدد این خرس، با کارشناسان مستقل مشورت کرده باشد؛ در حالی که پس از حذف محصول به «Register» اعلام کرده بود که این کار را انجام خواهد داد.
آر.جی. کراس، مدیر برنامه حریمخصوصی مصرفکنندگان PIRG، گفت که بازگشت FoloToy «ممکن است برای یک ممیزی ایمنی جامع کمی سریع بهنظر برسد، اما مهمترین نکته این است که آیا مشکلات فوری برطرف شدهاند یا نه». او شرکت را به اجازهٔ دسترسی به متخصصان خارجی دعوت کرد و افزود که بههرحال سؤالاتی دربارهٔ اینکه آیا «دوستان» هوش مصنوعی برای کودکان مفید هستند یا نه، باقی ماندهاند.
«ما نمیدانیم یک اسباببازی همراه هوش مصنوعی چه تأثیری بر توسعهٔ اجتماعی طولانیمدت کودک میگذارد»، او گفت. «این سؤال است که هیچ ممیزی ایمنی شرکتی در حال حاضر نمیتواند به آن پاسخ دهد.»
FoloToy بلافاصله به درخواست اظهار نظر پاسخ نداد.
در روز پنجشنبه، ۸۰ سازمان، از جمله Fairplay، بیانیهای صادر کردند که به خانوادهها توصیه میکند در این فصل تعطلات از خرید اسباببازیهای هوش مصنوعی خودداری کنند.
«اسباببازیهای هوش مصنوعی بهعنوان ایمن و حتی مفید برای یادگیری به خانوادهها تبلیغ میشوند، پیش از اینکه تأثیر آنها توسط تحقیقات مستقل ارزیابی شود»، این بیانیه میگوید. «در مقابل، خرسهای عروسکی و اسباببازیهای آفلاین ثابت کردهاند که به توسعهٔ کودکان کمک میکنند و هیچکدام از خطرات اسباببازیهای هوش مصنوعی را ندارند.»
شرکت Curio، سازنده اسباببازی Grok، در ایمیلی به روزنامه The Guardian گفت که پس از بررسی گزارش PIRG، «ما بهصورت فعال با تیممان کار میکنیم تا هر نگرانیای را برطرف سازیم، در حالی که بهطور مستمر محتوا و تعاملها را نظارت میکنیم تا تجربهای ایمن و لذتبخش برای کودکان تضمین شود».
ماتل اعلام کرد که اولین محصولاتش با OpenAI «بر روی خانوادهها و مشتریان بالاتر از سن نوجوانی تمرکز خواهند کرد» و اینکه «استفاده از APIهای OpenAI برای کاربران زیر ۱۳ سال منظور نشده است».
«هوش مصنوعی تکمیلکننده بازی سنتی است، نه جایگزین آن، و ما بر ایمنی، حریمخصوصی، خلاقیت و نوآوری مسئولانه تأکید میکنیم»، شرکت اظهار داشت.
فرنز به نگرانیهای گذشتهٔ حریمخصوصی در رابطه با محصولات هوشمند ماتل اشاره کرد و گفت: «خوب است که ماتل ادعا میکند محصولات هوش مصنوعی آنها برای کودکان کوچک نیستند، اما اگر به کسانی که با اسباببازیها بازی میکنند و به کدامها بازاریابی میشود نگاه کنیم، میبینیم که مخاطب اصلی کودکان کوچک هستند.»
فرنز افزود: «ما بسیار مشتاقیم گامهای ملموسی را که ماتل برای اطمینان از اینکه محصولات OpenAI آنها توسط کودکانی که بهراحتی برندها را تشخیص میدهند و جذب میشوند، اتخاذ میکند، بشنویم.»