تواناییهای رو به رشد هوش مصنوعی برای تولید ویدیوها، تصویرها، اسناد و صداهای واقعیگرایانه، قضات را نسبت به قابلیت اعتماد به شواهد در دادگاههای خود نگران کرده است.

قاضی ویکتوریا کولاکوسکی حس کرد که چیزی در مدخل 6C نادرست است.
این ویدیو که توسط شاکیان در یک دعوی مسکن در کالیفورنیا ارائه شد، شاهدی را نشان میداد که صدای او گسیخته و یکنواخت بود، چهرهاش مبهم و بیاحساس. هر چند ثانیه یکبار، شاهد لرزش میکرد و عباراتش را تکرار مینمود.
کولاکوسکی، که در دادگاه عالی شهرستان آلامِدا کالیفورنیا خدمت میکند، به زودی دلیل آن را درک کرد: این ویدیو با استفاده از هوش مصنوعی مولد تولید شده بود. اگرچه ویدیو ادعا میکرد شاهد واقعیای را به تصویر میکشد — که در مدرک دیگری واقعی حضور داشته است — اما کولاکوسکی گفت که مدخل 6C یک «دپفیک» هوش مصنوعی بود.
پروندهٔ Mendones علیه Cushman & Wakefield, Inc. بهنظر میرسد یکی از نخستین مواردی باشد که یک دپفیک مشکوک بهعنوان شواهد ادعایی واقعی در دادگاه ارائه و کشف شد — علامتی که قضات و کارشناسان حقوقی آن را نشانهای از تهدیدی بسیار بزرگتر میدانند.
با استناد به استفاده شاکیان از مطالب تولید شده توسط هوش مصنوعی که بهعنوان شواهد واقعی جا زده بود، کولاکوسکی پرونده را در ۹ سپتامبر رد کرد. شاکیان درخواست بازنگری تصمیم او را داشتند و استدلال کردند که قاضی مشکوک بود اما نتوانست ثابت کند شواهد توسط هوش مصنوعی تولید شدهاند. قاضی کولاکوسکی درخواست بازنگری آنها را در ۶ نوامبر رد کرد. شاکیان به درخواست برای اظهار نظر پاسخ ندادند.
با گسترش ابزارهای قدرتمند هوش مصنوعی، محتوای تولید شده توسط این فناوری بهتدریج بهدست دادگاهها میرسد و برخی قضات نگرانند که شواهد تقلبی فوقواقعگرایانه بهسرعت به دادگاههایشان نفوذ کنند و مأموریت کشف حقایق را به خطر بیندازند.
شبکه خبری انبیسی با پنج قاضی و ده کارشناس حقوقی مصاحبه کرد که هشدار دادند پیشرفتهای سریع هوش مصنوعی مولد — که هماکنون قادر است ویدیوها، تصویرها، اسناد و صداهای تقلبی قانعکننده تولید کند — میتواند پایهٔ اعتماد برگزاری دادگاهها را زیر سؤال ببرد. برخی قضات در صدد ارتقای آگاهی هستند و برای اقدام در این زمینه فراخوان میدهند، اما این فرآیند تازه آغاز شده است.
«قوه قضائیه بهطور کلی میداند که تغییرات بزرگ در حال وقوع است و میخواهد هوش مصنوعی را درک کند، اما بهنظر نمیرسد کسی تمام پیامدهای آن را درک کرده باشد»، کولاکوسکی به انبیسی گفت. «ما هنوز با فناوریای در مراحل اولیهٔ خود سر و کار داریم.»
پیش از پروندهٔ Mendones، دادگاهها مکرراً با پدیدهای بهنام «سود دروغگو» (Liar’s Dividend) مواجه شدهاند — وضعیتی که در آن شاکیان و متهمان امکان دخالت هوش مصنوعی مولد را به کار میبرند تا بر شواهد واقعی و اصیل شک بیندازند. اما در پروندهٔ Mendones، دادگاه دریافت که شاکیان بهنوعی معکوس عمل کردهاند: سعی کردند ویدیوی تولید شده توسط هوش مصنوعی را بهعنوان شواهد اصیل بهنادرست پذیرفته کنند.
برای دریافت جزئیات بیشتر درباره این خبر، همین حالا به برنامهٔ هالی جکسون در روز چهارشنبه ساعت ۵ بعدازظهر به وقت شرقی (EST) ملحق شوید.
قاضی استونی هیلیوس که در ناحیه قضایی دهم مینهسوتا خدمت میکند و رئیس کمیتهٔ پاسخ به هوش مصنوعی شاخهٔ قضایی مینهسوتا است، گفت که این پرونده نگرانی فزایندهای را که میان قضات به وجود آمده، بهظاهر میآورد.
«من فکر میکنم بسیاری از قضات نگرانند که تصمیمی بر پایهٔ چیزی ناصحیح، تولید شده توسط هوش مصنوعی، بگیرند و این تصمیم تأثیرات واقعی بر زندگی افراد خواهد داشت»، او گفت.
بسیاری از قضات در سراسر کشور با این نگرانی موافقند، حتی کسانی که استفاده از هوش مصنوعی در دادگاه را ترویج میدهند. قاضی اسکات شلگل که در دادگاه تجدیدنظر پنجم لوزیانا خدمت میکند و از پیشروان پذیرش فناوری هوش مصنوعی در قضات است، اما او نیز به خطراتی که هوش مصنوعی مولد برای پیگیری حقیقت میگذارد، نگران است.
«من و همسرم بیش از سی سال باهم بودهایم و او صدای من را در همه جا دارد»، شلگل گفت. «او میتواند بهراحتی صدای من را با نرمافزارهای رایگان یا کمهزینه تقلید کند تا پیامی تهدیدآمیز که شبیه صدای من است تولید کند و با آن ضبط بههر دادگاهی در سراسر کشور وارد شود.»
«قاضی این حکم منع را امضا خواهد کرد. هر بار این کار را خواهد کرد»، شلگل گفت که به ضبط مفروض اشاره میکرد. «در نتیجه، گربهتان، سگتان، اسلحههایتان، خانهتان را از دست میدهید؛ همه چیز را از دست میدهید.»
قاضی اریکا یو، که از سال ۲۰۰۱ عضو دادگاه عالی شهرستان سانتا کلارا در کالیفورنیا است، بهکارگیری هوش مصنوعی در سامانهٔ قضایی و توانایی آن برای گسترش دسترسی به عدالت را با شور و اشتیاق پیگیری میکند. اما او همچنین اذعان داشت که صدای جعلی میتواند بهسراسر منجر به صدور حکم حفاظتی شود و برای ایجاد سامانهٔ متمرکزی جهت پیگیری چنین حوادثی طرفدار است. «من از وجود هیچمنبعی که در آن دادگاهها بتوانند برخوردهای خود با شواهد تقلبی (دپفیک) را گزارش یا ثبت کنند، اطلاع ندارم»، یو به انبیسی گفت. «بهنظر میرسد شواهد جعلی یا اصلاحشده تولید شده توسط هوش مصنوعی بسیار بیشتر از آنچه بهطور عمومی گزارش میشود، رخ میدهد.»
یو اظهار کرد که نگران است دپفیکها میتوانند روشهای طولانیمدتی که برای بهدستآوردن شواهد در دادگاه مورد اعتماد بودهاند را مخدوش کنند. با هوش مصنوعی، «کسی میتواند بهراحتی سند مالکیت تقلبی تولید کند و به دفتر کلرک شهرستان مراجعه کند»، بهعنوان مثال برای اثبات مالکیت یک خودرو. اما، بهنظر یو، کلرک شهرستان احتمالاً تخصص یا زمان کافی برای بررسی اصالت سند مالکیت ندارد و بهجای آن، سند را مستقیماً در سوابق رسمی ثبت میکند.
اکنون یک طرف دعوا میتواند نسخهای از سند را دریافت کند و به دادگاه بیاورد و قاضی احتمالا آن را پذیرنده خواهد شد. پس آیا من، بهعنوان قاضی، باید منبع شواهدی را که پیش از این قابل اعتماد بوده است، مورد سؤال قرار دهم؟ یو اندیشید.
اگرچه شواهد تقلبی مدتهاست که برای دادگاهها مسالهای است، یو گفت هوش مصنوعی میتواند گسترش بیسابقهای از شواهد واقعینمایی تقلبی ایجاد کند. «ما در یک جبههٔ کاملاً نو هستیم»، یو افزود.

شلگل و یو از میان گروه کوچکی از قضات هستند که رهبری تلاشها برای مقابله با تهدید نوظهور دپفیکها در دادگاهها را بر عهده دارند.
آنها بهعلاوه توسط یک کنسرسیوم از مرکز ملی دادگاههای ایالتی و مؤسسه Thomson Reuters همراهی میشوند که منابعی برای قاضیها جهت مقابله با مشکل رو به رشد دپفیکها تهیه کرده است.
این کنسرسیوم دپفیکها را «شواهد هوش مصنوعی ناشناخته» برچسب میزند تا این سازهها را از «شواهد هوش مصنوعی شناختهشده» مانند ویدیوهای بازسازی حادثه تولید شده توسط هوش مصنوعی، که توسط همه طرفین بهعنوان شواهد هوش مصنوعی شناخته میشوند، متمایز کند.
اوایل امسال، این کنسرسیوم جدولی راهنمایی (cheat sheet) منتشر کرد تا به قضات در مقابله با دپفیکها کمک کند. این سند به قضات توصیه میکند از کسانی که ممکن است شواهد تولید شده توسط هوش مصنوعی را ارائه دهند، منبع آن را توضیح دهند، بپرسند چه کسی به این شواهد دسترسی داشته، آیا شواهد بهگونهای تغییر یافتهاند یا نه، و برای تأیید شواهد به دنبال شواهد تکمیلی باشند.
در آوریل ۲۰۲۴، یک قاضی ایالت واشنگتن درخواست متهم برای استفاده از ابزار هوش مصنوعی بهمنظور شفافسازی یک ویدیو که ارائه شده بود را رد کرد.
فراتر از این گروهی از مدافعان، قاضیان در سراسر کشور شروع به توجه به تأثیر هوش مصنوعی بر کار خود کردهاند، به گفتن هیلیوس، قاضی مینهسوتا.
«قاضیان در حال بررسی این هستند که آیا این شواهد اصیل هستند؟ آیا دستکاری شدهاند؟ یا صرفاً جعلی هستند؟ در طی چند ماه اخیر، بهویژه با انتشار Sora از OpenAI، یاد گرفتهایم که ساختن یک ویدیو واقعگرایانهٔ بسیار واقعی کار دشواری نیست…» هیلیوس گفت.
«من از قاضیانی میشنوم که واقعاً نگران این مسئله هستند و گمان میکنند ممکن است شواهد تولید شده توسط هوش مصنوعی را مشاهده کنند، اما دقیقاً نمیدانند چگونه به این مسئله برخورد کنند.»
هیلیوس در حال حاضر نظرسنجیای از قضات ایالتی در مینهسوتا انجام میدهد تا بهتر درک کند هوش مصنوعی مولد چگونه در دادگاههایشان ظاهر میشود.
برای مقابله با گسترش دپفیکها، چندین قاضی و کارشناس حقوقی در حال حمایت از تغییرات در قوانین و رهنمودهای قضایی دربارهٔ نحوهٔ تأیید شواهد توسط وکلا هستند. بر پایه قانون و هماهنگی با دیوان عالی، کنگرهٔ ایالات متحده قوانین استفاده از شواهد در دادگاههای پاییندست را تعیین میکند.
یکی از پیشنهادهای تدوینشده توسط ماورا آر. گروسمن، استاد تحقیقات علوم کامپیوتر در دانشگاه واترلو و وکیل فعال، و پل گریم، استاد حقوق در دانشگاه دوک و قاضی فدرال سابق، خواستار این است که طرفین ادعاگر استفاده از دپفیک توسط مخالف، دلایل خود را بهصورت جامع ارائه دهند. پیشنهاد دیگر، مسئولیت شناسایی دپفیک را از هیئت منصفههای حساس به قاضی منتقل میکند.
این پیشنهادها توسط کمیته مشورتی قوانین شواهد در کنفرانس قضایی ایالات متحده در ماه مه مورد بررسی قرار گرفت، اما تصویب نشدند. اعضا استدلال کردند «استانداردهای موجود برای اصالت، برای تنظیم شواهد هوش مصنوعی کافی هستند.»
کنفرانس قضایی ایالات متحده یک نهاد رأیگیری با ۲۶ قاضی فدرال است که تحت نظارت رئیس دیوان عالی قرار دارد. پس از اینکه یک کمیته تغییراتی را به قوانین قضایی پیشنهاد کرد، دیوان عالی آن را بررسی میکند و کنگره بر سر آن رأی میگیرد.
علیرغم اینکه تصمیم گرفتهاند در حال حاضر این تغییر قوانین را پیش نببرند، این کمیته مشتاق بود تا «قانون شواهد دپفیک» را در «آرشیو» نگه دارد تا در آینده در صورت تصمیم کمیته برای پیشبرد یک اصلاح هوش مصنوعی، مورد استفاده قرار گیرد.
گریم نسبت به این تصمیم بدبین بود، چون سامانهٔ هوش مصنوعی بهسرعت در حال تحول است. بهنظر او، حداقل سه سال طول میکشد تا یک قانون جدید فدرالی دربارهٔ شواهد تصویب شود.
طرح اقدام هوش مصنوعی دولت ترامپ، که در ژوئیه به عنوان نقشه راه فعالیتهای هوش مصنوعی آمریکا منتشر شد، بر لزوم «مقابله با رسانههای مصنوعی در نظام قضایی» تأکید میکند و از بررسی استانداردهای خاص دپفیک مشابه با تغییرات پیشنهادی در قوانین شواهد حمایت مینماید.
بااینحال برخی از وکلای دیگر معتقدند رویکرد محتاطانهای بهترین است؛ صبر کنند تا ببینند دپفیکها چند بار واقعاً به عنوان شواهد در دادگاه پذیرفته میشوند و قاضیان چگونه واکنش نشان میدهند، پیش از بهروزرسانی کلی قوانین شواهد.
جاناتن مایر، مشاور ارشد پیشین علم و فناوری و مسئول هوش مصنوعی در وزارت دادگستری آمریکا تحت ریاست جو بایدن و در حال حاضر استاد دانشگاه پرینستون، به انبیسی اعلام کرد که بهطور مرتب با مسئلهٔ هوش مصنوعی در سیستم قضایی مواجه میشود: «سوالی مکرر این بود که آیا مقابله مؤثر با سوءاستفادههای هوش مصنوعی نیازمند قانون جدیدی است، شامل اختیارات قانونی نوین یا قوانین دادگاهی؟»
«ما عموماً به این نتیجه رسیدیم که قوانین موجود کافی است»، او گفت. «اما تأثیر هوش مصنوعی میتواند تغییر کند — و ممکن است بهسرعت تغییر کند — بنابراین ما نیز بهدنبال سناریوهای ممکن برنامهریزی و آمادگی میکنیم.»
در همین حین، وکلا ممکن است بهعنوان اولین خط دفاعی در برابر نفوذ دپفیکها به دادگاههای ایالات متحده عمل کنند.

قاضی شلگل به قانون ۲۵۰ لوزیانا که اوایل امسال تصویب شد اشاره کرد که بهعنوان راهی موفق و مؤثر برای تغییر عرفها دربارهٔ دپفیکها در سطح ایالتی عمل میکند. این قانون ملزم میسازد وکلا «دقت معقول» را جهت بررسی اینکه آیا شواهدی که خود یا موکلانشان ارائه میدهند توسط هوش مصنوعی تولید شدهاند، به کار گیرند.
قاضی گفت: «دادگاهها نمیتوانند همه چیز را بهتنهایی انجام دهند». «وقتی موکل شما وارد میشود و ۱۰ عکسی به شما میدهد، باید از او سؤال کنید. این عکسها را از کجا بهدست آوردهاید؟ آیا با تلفن خود یا دوربین گرفتهاید؟»
اگر حس میکنید که چیزی درست نیست، قبل از ارائه این شواهد به دادگاه، باید بررسی عمیقتری انجام دهید. اگر این کار را نکنید، به وظایف خود بهعنوان مأمور دادگاه تخلف میکنید»، او افزود.
دانیل گری، همبنیانگذار شرکت امنیت سایبری و جرمشناسی دیجیتال «قانون و جرمشناسی»، گفت که تخصص انسانی باید همچنان مکمل تلاشهای صرفاً دیجیتالی باشد.
«هیچ ابزاری کامل نیست و اغلب واقعیتهای بیشتری وارد بحث میشوند»، گری توسط ایمیل نوشت. «برای مثال، اگر دادههای GPS نشان دهند که یک فرد در زمان ادعای گرفتن عکس در مکانی دیگر بوده، حضور او در آن مکان غیرممکن است.»
متادیتا — دادههای توصیفی نامرئی که به فایلها پیوست میشوند و شامل اطلاعاتی نظیر منبع فایل، تاریخ ایجاد و تاریخ تغییر است — میتواند در آیندهای نزدیک دفاع کلیدی در برابر دپفیکها باشد.
بهعنوان مثال، در پروندهٔ Mendones، دادگاه دریافت که متادیتای یکی از ویدئوهای «واقعی بهنظر میرسید ولی در واقع دپفیک» نشان میدهد که ویدئوی شاکیان با iPhone 6 ضبط شده است، که این امر با استدلال شاکی که نیاز به قابلیتهای موجود فقط در iPhone 15 یا جدیدتر داشت، غیرممکن بود.
دادگاهها همچنین میتوانند الزام کنند که سختافزارهای ضبط ویدئو و صدا دارای امضاهای ریاضی قوی باشند که منبع و اصالت خروجیهای آنها را تأیید میکند، بهگونهای که بتوانند صحت ضبط توسط دوربینهای واقعی را بررسی کنند.
این راهحلهای فناوری ممکن است همچنان با موانع حیاتی مواجه شوند، مشابه مشکلاتی که در تلاشهای قانونی پیشین برای سازگاری با فناوریهای نوین مانند آزمایش DNA یا حتی تجزیه و تحلیل اثر انگشت پیش آمده است.
طرفهایی که فاقد دانش فنی جدید هوش مصنوعی و دپفیک هستند، ممکن است در اثبات منبع شواهد با نقص مواجه شوند.
گروسمن، استاد دانشگاه واترلو، گفت که در حال حاضر قاضیان باید هوشیار باقی بمانند.
«هر کسی که دستگاهی و دسترسی به اینترنت دارد میتواند ۱۰ یا ۱۵ ثانیه از صدای شما ضبط کند و یک ضبط بهانداز قانعکننده داشته باشد تا بانکتان را تماس گرفته و پول برداشت کند. هوش مصنوعی مولد تقلب را دموکراتیکسازی کرده است.»
«ما واقعاً به یک چارچوب جدید وارد میشویم»، گروسمن گفت. «بهجای «اعتماد کنید اما تأیید کنید»، باید بگوییم: «اعتماد نکنید و تأیید کنید.»