شواهد تولید شده توسط هوش مصنوعی در دادگاه‌ها ظاهر می‌شوند. قضات می‌گویند برای مواجهه با آن آماده نیستند.

توانایی‌های رو به رشد هوش مصنوعی برای تولید ویدیوها، تصویرها، اسناد و صداهای واقعی‌گرایانه، قضات را نسبت به قابلیت اعتماد به شواهد در دادگاه‌های خود نگران کرده است.

قضاوت‌ها در سراسر ایالات متحده بیان می‌کنند که نسبت به احتمال شواهد تقلبی (دپ‌فیک) به‌طور فزاینده‌ای نگران هستند.
قضاوت‌ها در سراسر ایالات متحده بیان می‌کنند که نسبت به احتمال شواهد تقلبی (دپ‌فیک) به‌طور فزاینده‌ای نگران هستند. گابریل کورین / NBC News؛ Getty Images

قاضی ویکتوریا کولاکوسکی حس کرد که چیزی در مدخل 6C نادرست است.

این ویدیو که توسط شاکیان در یک دعوی مسکن در کالیفورنیا ارائه شد، شاهدی را نشان می‌داد که صدای او گسیخته و یکنواخت بود، چهره‌اش مبهم و بی‌احساس. هر چند ثانیه یک‌بار، شاهد لرزش می‌کرد و عباراتش را تکرار می‌نمود.

کولاکوسکی، که در دادگاه عالی شهرستان آلامِدا کالیفورنیا خدمت می‌کند، به زودی دلیل آن را درک کرد: این ویدیو با استفاده از هوش مصنوعی مولد تولید شده بود. اگرچه ویدیو ادعا می‌کرد شاهد واقعی‌ای را به تصویر می‌کشد — که در مدرک دیگری واقعی حضور داشته است — اما کولاکوسکی گفت که مدخل 6C یک «دپ‌فیک» هوش مصنوعی بود.

پروندهٔ Mendones علیه Cushman & Wakefield, Inc. به‌نظر می‌رسد یکی از نخستین مواردی باشد که یک دپ‌فیک مشکوک به‌عنوان شواهد ادعایی واقعی در دادگاه ارائه و کشف شد — علامتی که قضات و کارشناسان حقوقی آن را نشانه‌ای از تهدیدی بسیار بزرگ‌تر می‌دانند.

با استناد به استفاده شاکیان از مطالب تولید شده توسط هوش مصنوعی که به‌عنوان شواهد واقعی جا زده بود، کولاکوسکی پرونده را در ۹ سپتامبر رد کرد. شاکیان درخواست بازنگری تصمیم او را داشتند و استدلال کردند که قاضی مشکوک بود اما نتوانست ثابت کند شواهد توسط هوش مصنوعی تولید شده‌اند. قاضی کولاکوسکی درخواست بازنگری آنها را در ۶ نوامبر رد کرد. شاکیان به درخواست برای اظهار نظر پاسخ ندادند.

با گسترش ابزارهای قدرتمند هوش مصنوعی، محتوای تولید شده توسط این فناوری به‌تدریج به‌دست دادگاه‌ها می‌رسد و برخی قضات نگرانند که شواهد تقلبی فوق‌واقع‌گرایانه به‌سرعت به دادگاه‌هایشان نفوذ کنند و مأموریت کشف حقایق را به خطر بیندازند.

شبکه خبری ان‌بی‌سی با پنج قاضی و ده کارشناس حقوقی مصاحبه کرد که هشدار دادند پیشرفت‌های سریع هوش مصنوعی مولد — که هم‌اکنون قادر است ویدیوها، تصویرها، اسناد و صداهای تقلبی قانع‌کننده تولید کند — می‌تواند پایهٔ اعتماد برگزاری دادگاه‌ها را زیر سؤال ببرد. برخی قضات در صدد ارتقای آگاهی هستند و برای اقدام در این زمینه فراخوان می‌دهند، اما این فرآیند تازه آغاز شده است.

«قوه قضائیه به‌طور کلی می‌داند که تغییرات بزرگ در حال وقوع است و می‌خواهد هوش مصنوعی را درک کند، اما به‌نظر نمی‌رسد کسی تمام پیامدهای آن را درک کرده باشد»، کولاکوسکی به ان‌بی‌سی گفت. «ما هنوز با فناوری‌ای در مراحل اولیهٔ خود سر و کار داریم.»

پیش از پروندهٔ Mendones، دادگاه‌ها مکرراً با پدیده‌ای به‌نام «سود دروغگو» (Liar’s Dividend) مواجه شده‌اند — وضعیتی که در آن شاکیان و متهمان امکان دخالت هوش مصنوعی مولد را به کار می‌برند تا بر شواهد واقعی و اصیل شک بیندازند. اما در پروندهٔ Mendones، دادگاه دریافت که شاکیان به‌نوعی معکوس عمل کرده‌اند: سعی کردند ویدیوی تولید شده توسط هوش مصنوعی را به‌عنوان شواهد اصیل به‌نادرست پذیرفته کنند.

برای دریافت جزئیات بیشتر درباره این خبر، همین حالا به برنامهٔ هالی جکسون در روز چهارشنبه ساعت ۵ بعدازظهر به وقت شرقی (EST) ملحق شوید.

قاضی استونی هیلیوس که در ناحیه قضایی دهم مینه‌سوتا خدمت می‌کند و رئیس کمیتهٔ پاسخ به هوش مصنوعی شاخهٔ قضایی مینه‌سوتا است، گفت که این پرونده نگرانی فزاینده‌ای را که میان قضات به وجود آمده، به‌ظاهر می‌آورد.

«من فکر می‌کنم بسیاری از قضات نگرانند که تصمیمی بر پایهٔ چیزی ناصحیح، تولید شده توسط هوش مصنوعی، بگیرند و این تصمیم تأثیرات واقعی بر زندگی افراد خواهد داشت»، او گفت.

بسیاری از قضات در سراسر کشور با این نگرانی موافقند، حتی کسانی که استفاده از هوش مصنوعی در دادگاه را ترویج می‌دهند. قاضی اسکات شلگل که در دادگاه تجدیدنظر پنجم لوزیانا خدمت می‌کند و از پیشروان پذیرش فناوری هوش مصنوعی در قضات است، اما او نیز به خطراتی که هوش مصنوعی مولد برای پیگیری حقیقت می‌گذارد، نگران است.

«من و همسرم بیش از سی سال باهم بوده‌ایم و او صدای من را در همه جا دارد»، شلگل گفت. «او می‌تواند به‌راحتی صدای من را با نرم‌افزارهای رایگان یا کم‌هزینه تقلید کند تا پیامی تهدیدآمیز که شبیه صدای من است تولید کند و با آن ضبط به‌هر دادگاهی در سراسر کشور وارد شود.»

«قاضی این حکم منع را امضا خواهد کرد. هر بار این کار را خواهد کرد»، شلگل گفت که به ضبط مفروض اشاره می‌کرد. «در نتیجه، گربه‌تان، سگ‌تان، اسلحه‌هایتان، خانه‌تان را از دست می‌دهید؛ همه چیز را از دست می‌دهید.»

قاضی اریکا یو، که از سال ۲۰۰۱ عضو دادگاه عالی شهرستان سانتا کلارا در کالیفورنیا است، به‌کارگیری هوش مصنوعی در سامانهٔ قضایی و توانایی آن برای گسترش دسترسی به عدالت را با شور و اشتیاق پیگیری می‌کند. اما او همچنین اذعان داشت که صدای جعلی می‌تواند به‌سراسر منجر به صدور حکم حفاظتی شود و برای ایجاد سامانهٔ متمرکزی جهت پیگیری چنین حوادثی طرفدار است. «من از وجود هیچ‌منبعی که در آن دادگاه‌ها بتوانند برخوردهای خود با شواهد تقلبی (دپ‌فیک) را گزارش یا ثبت کنند، اطلاع ندارم»، یو به ان‌بی‌سی گفت. «به‌نظر می‌رسد شواهد جعلی یا اصلاح‌شده تولید شده توسط هوش مصنوعی بسیار بیشتر از آنچه به‌طور عمومی گزارش می‌شود، رخ می‌دهد.»

یو اظهار کرد که نگران است دپ‌فیک‌ها می‌توانند روش‌های طولانی‌مدتی که برای به‌دست‌آوردن شواهد در دادگاه مورد اعتماد بوده‌اند را مخدوش کنند. با هوش مصنوعی، «کسی می‌تواند به‌راحتی سند مالکیت تقلبی تولید کند و به دفتر کلرک شهرستان مراجعه کند»، به‌عنوان مثال برای اثبات مالکیت یک خودرو. اما، به‌نظر یو، کلرک شهرستان احتمالاً تخصص یا زمان کافی برای بررسی اصالت سند مالکیت ندارد و به‌جای آن، سند را مستقیماً در سوابق رسمی ثبت می‌کند.

اکنون یک طرف دعوا می‌تواند نسخه‌ای از سند را دریافت کند و به دادگاه بیاورد و قاضی احتمالا آن را پذیرنده خواهد شد. پس آیا من، به‌عنوان قاضی، باید منبع شواهدی را که پیش از این قابل اعتماد بوده است، مورد سؤال قرار دهم؟ یو اندیشید.

اگرچه شواهد تقلبی مدت‌هاست که برای دادگاه‌ها مساله‌ای است، یو گفت هوش مصنوعی می‌تواند گسترش بی‌سابقه‌ای از شواهد واقعی‌نمایی تقلبی ایجاد کند. «ما در یک جبههٔ کاملاً نو هستیم»، یو افزود.

قاضی اریکا یو.
سانتا، کالیفرنیا؛ قاضی دادگاه عالی شهرستان کلارا، اریکا یو. منبع: اریکا یو

شلگل و یو از میان گروه کوچکی از قضات هستند که رهبری تلاش‌ها برای مقابله با تهدید نوظهور دپ‌فیک‌ها در دادگاه‌ها را بر عهده دارند.

آنها به‌علاوه توسط یک کنسرسیوم از مرکز ملی دادگاه‌های ایالتی و مؤسسه Thomson Reuters همراهی می‌شوند که منابعی برای قاضی‌ها جهت مقابله با مشکل رو به رشد دپ‌فیک‌ها تهیه کرده است.

این کنسرسیوم دپ‌فیک‌ها را «شواهد هوش مصنوعی ناشناخته» برچسب می‌زند تا این سازه‌ها را از «شواهد هوش مصنوعی شناخته‌شده» مانند ویدیوهای بازسازی حادثه تولید شده توسط هوش مصنوعی، که توسط همه طرفین به‌عنوان شواهد هوش مصنوعی شناخته می‌شوند، متمایز کند.

اوایل امسال، این کنسرسیوم جدولی راهنمایی (cheat sheet) منتشر کرد تا به قضات در مقابله با دپ‌فیک‌ها کمک کند. این سند به قضات توصیه می‌کند از کسانی که ممکن است شواهد تولید شده توسط هوش مصنوعی را ارائه دهند، منبع آن را توضیح دهند، بپرسند چه کسی به این شواهد دسترسی داشته، آیا شواهد به‌گونه‌ای تغییر یافته‌اند یا نه، و برای تأیید شواهد به دنبال شواهد تکمیلی باشند.

در آوریل ۲۰۲۴، یک قاضی ایالت واشنگتن درخواست متهم برای استفاده از ابزار هوش مصنوعی به‌منظور شفاف‌سازی یک ویدیو که ارائه شده بود را رد کرد.

فراتر از این گروهی از مدافعان، قاضیان در سراسر کشور شروع به توجه به تأثیر هوش مصنوعی بر کار خود کرده‌اند، به گفتن هیلیوس، قاضی مینه‌سوتا.

«قاضیان در حال بررسی این هستند که آیا این شواهد اصیل هستند؟ آیا دستکاری شده‌اند؟ یا صرفاً جعلی هستند؟ در طی چند ماه اخیر، به‌ویژه با انتشار Sora از OpenAI، یاد گرفته‌ایم که ساختن یک ویدیو واقع‌گرایانهٔ بسیار واقعی کار دشواری نیست…» هیلیوس گفت.

«من از قاضیانی می‌شنوم که واقعاً نگران این مسئله هستند و گمان می‌کنند ممکن است شواهد تولید شده توسط هوش مصنوعی را مشاهده کنند، اما دقیقاً نمی‌دانند چگونه به این مسئله برخورد کنند.»

هیلیوس در حال حاضر نظرسنجی‌ای از قضات ایالتی در مینه‌سوتا انجام می‌دهد تا بهتر درک کند هوش مصنوعی مولد چگونه در دادگاه‌هایشان ظاهر می‌شود.

برای مقابله با گسترش دپ‌فیک‌ها، چندین قاضی و کارشناس حقوقی در حال حمایت از تغییرات در قوانین و رهنمودهای قضایی دربارهٔ نحوهٔ تأیید شواهد توسط وکلا هستند. بر پایه قانون و هماهنگی با دیوان عالی، کنگرهٔ ایالات متحده قوانین استفاده از شواهد در دادگاه‌های پایین‌دست را تعیین می‌کند.

یکی از پیشنهادهای تدوین‌شده توسط ماورا آر. گروسمن، استاد تحقیقات علوم کامپیوتر در دانشگاه واترلو و وکیل فعال، و پل گریم، استاد حقوق در دانشگاه دوک و قاضی فدرال سابق، خواستار این است که طرفین ادعاگر استفاده از دپ‌فیک توسط مخالف، دلایل خود را به‌صورت جامع ارائه دهند. پیشنهاد دیگر، مسئولیت شناسایی دپ‌فیک را از هیئت منصفه‌های حساس به قاضی منتقل می‌کند.

این پیشنهادها توسط کمیته مشورتی قوانین شواهد در کنفرانس قضایی ایالات متحده در ماه مه مورد بررسی قرار گرفت، اما تصویب نشدند. اعضا استدلال کردند «استانداردهای موجود برای اصالت، برای تنظیم شواهد هوش مصنوعی کافی هستند.»

کنفرانس قضایی ایالات متحده یک نهاد رأی‌گیری با ۲۶ قاضی فدرال است که تحت نظارت رئیس دیوان عالی قرار دارد. پس از اینکه یک کمیته تغییراتی را به قوانین قضایی پیشنهاد کرد، دیوان عالی آن را بررسی می‌کند و کنگره بر سر آن رأی می‌گیرد.

علیرغم اینکه تصمیم گرفته‌اند در حال حاضر این تغییر قوانین را پیش نببرند، این کمیته مشتاق بود تا «قانون شواهد دپ‌فیک» را در «آرشیو» نگه دارد تا در آینده در صورت تصمیم کمیته برای پیشبرد یک اصلاح هوش مصنوعی، مورد استفاده قرار گیرد.

گریم نسبت به این تصمیم بدبین بود، چون سامانهٔ هوش مصنوعی به‌سرعت در حال تحول است. به‌نظر او، حداقل سه سال طول می‌کشد تا یک قانون جدید فدرالی دربارهٔ شواهد تصویب شود.

طرح اقدام هوش مصنوعی دولت ترامپ، که در ژوئیه به عنوان نقشه راه فعالیت‌های هوش مصنوعی آمریکا منتشر شد، بر لزوم «مقابله با رسانه‌های مصنوعی در نظام قضایی» تأکید می‌کند و از بررسی استانداردهای خاص دپ‌فیک مشابه با تغییرات پیشنهادی در قوانین شواهد حمایت می‌نماید.

بااین‌حال برخی از وکلای دیگر معتقدند رویکرد محتاطانه‌ای بهترین است؛ صبر کنند تا ببینند دپ‌فیک‌ها چند بار واقعاً به عنوان شواهد در دادگاه پذیرفته می‌شوند و قاضیان چگونه واکنش نشان می‌دهند، پیش از به‌روزرسانی کلی قوانین شواهد.

جاناتن مایر، مشاور ارشد پیشین علم و فناوری و مسئول هوش مصنوعی در وزارت دادگستری آمریکا تحت ریاست جو بایدن و در حال حاضر استاد دانشگاه پرینستون، به ان‌بی‌سی اعلام کرد که به‌طور مرتب با مسئلهٔ هوش مصنوعی در سیستم قضایی مواجه می‌شود: «سوالی مکرر این بود که آیا مقابله مؤثر با سوءاستفاده‌های هوش مصنوعی نیازمند قانون جدیدی است، شامل اختیارات قانونی نوین یا قوانین دادگاهی؟»

«ما عموماً به این نتیجه رسیدیم که قوانین موجود کافی است»، او گفت. «اما تأثیر هوش مصنوعی می‌تواند تغییر کند — و ممکن است به‌سرعت تغییر کند — بنابراین ما نیز به‌دنبال سناریوهای ممکن برنامه‌ریزی و آمادگی می‌کنیم.»

در همین حین، وکلا ممکن است به‌عنوان اولین خط دفاعی در برابر نفوذ دپ‌فیک‌ها به دادگاه‌های ایالات متحده عمل کنند.

قاضی اسکات شلگل.
قاضی دادگاه تجدیدنظر پنجم لوزیانا، اسکات شلگل. با اجازه اسکات شلگل

قاضی شلگل به قانون ۲۵۰ لوزیانا که اوایل امسال تصویب شد اشاره کرد که به‌عنوان راهی موفق و مؤثر برای تغییر عرف‌ها دربارهٔ دپ‌فیک‌ها در سطح ایالتی عمل می‌کند. این قانون ملزم می‌سازد وکلا «دقت معقول» را جهت بررسی اینکه آیا شواهدی که خود یا موکلانشان ارائه می‌دهند توسط هوش مصنوعی تولید شده‌اند، به کار گیرند.

قاضی گفت: «دادگاه‌ها نمی‌توانند همه چیز را به‌تنهایی انجام دهند». «وقتی موکل شما وارد می‌شود و ۱۰ عکسی به شما می‌دهد، باید از او سؤال کنید. این عکس‌ها را از کجا به‌دست آورده‌اید؟ آیا با تلفن خود یا دوربین گرفته‌اید؟»

اگر حس می‌کنید که چیزی درست نیست، قبل از ارائه این شواهد به دادگاه، باید بررسی عمیق‌تری انجام دهید. اگر این کار را نکنید، به وظایف خود به‌عنوان مأمور دادگاه تخلف می‌کنید»، او افزود.

دانیل گری، هم‌بنیان‌گذار شرکت امنیت سایبری و جرم‌شناسی دیجیتال «قانون و جرم‌شناسی»، گفت که تخصص انسانی باید همچنان مکمل تلاش‌های صرفاً دیجیتالی باشد.

«هیچ ابزاری کامل نیست و اغلب واقعیت‌های بیشتری وارد بحث می‌شوند»، گری توسط ایمیل نوشت. «برای مثال، اگر داده‌های GPS نشان دهند که یک فرد در زمان ادعای گرفتن عکس در مکانی دیگر بوده، حضور او در آن مکان غیرممکن است.»

متادیتا — داده‌های توصیفی نامرئی که به فایل‌ها پیوست می‌شوند و شامل اطلاعاتی نظیر منبع فایل، تاریخ ایجاد و تاریخ تغییر است — می‌تواند در آینده‌ای نزدیک دفاع کلیدی در برابر دپ‌فیک‌ها باشد.

به‌عنوان مثال، در پروندهٔ Mendones، دادگاه دریافت که متادیتای یکی از ویدئوهای «واقعی به‌نظر می‌رسید ولی در واقع دپ‌فیک» نشان می‌دهد که ویدئوی شاکیان با iPhone 6 ضبط شده است، که این امر با استدلال شاکی که نیاز به قابلیت‌های موجود فقط در iPhone 15 یا جدیدتر داشت، غیرممکن بود.

دادگاه‌ها همچنین می‌توانند الزام کنند که سخت‌افزارهای ضبط ویدئو و صدا دارای امضاهای ریاضی قوی باشند که منبع و اصالت خروجی‌های آن‌ها را تأیید می‌کند، به‌گونه‌ای که بتوانند صحت ضبط توسط دوربین‌های واقعی را بررسی کنند.

این راه‌حل‌های فناوری ممکن است همچنان با موانع حیاتی مواجه شوند، مشابه مشکلاتی که در تلاش‌های قانونی پیشین برای سازگاری با فناوری‌های نوین مانند آزمایش DNA یا حتی تجزیه و تحلیل اثر انگشت پیش آمده است.

طرف‌هایی که فاقد دانش فنی جدید هوش مصنوعی و دپ‌فیک هستند، ممکن است در اثبات منبع شواهد با نقص مواجه شوند.

گروسمن، استاد دانشگاه واترلو، گفت که در حال حاضر قاضیان باید هوشیار باقی بمانند.

«هر کسی که دستگاهی و دسترسی به اینترنت دارد می‌تواند ۱۰ یا ۱۵ ثانیه از صدای شما ضبط کند و یک ضبط به‌انداز قانع‌کننده داشته باشد تا بانک‌تان را تماس گرفته و پول برداشت کند. هوش مصنوعی مولد تقلب را دموکراتیک‌سازی کرده است.»

«ما واقعاً به یک چارچوب جدید وارد می‌شویم»، گروسمن گفت. «به‌جای «اعتماد کنید اما تأیید کنید»، باید بگوییم: «اعتماد نکنید و تأیید کنید.»

دیدگاه‌ خود را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

پیمایش به بالا