متخصصان می‌گویند هرگز این ۵ مورد را با ChatGPT به‌اشتراک نگذارید — و اگر قبلاً این کار را انجام داده‌اید چه کاری می‌توانید انجام دهید

به‌نظر متخصصان حریم‌خصوصی، فاش کردن این جزئیات به ربات‌های گفتگو هوش مصنوعی می‌تواند خطرناک باشد. در اینجا آنچه باید بدانید را آورده‌ایم. نوشتهٔ کلسی بوررسن

در مأموریت برای HuffPost

استفاده از ChatGPT و سایر ربات‌های گفتگو هوش مصنوعی مانند Gemini، Copilot و Claude در زندگی روزمره مردم به‌طور فزاینده‌ای رایج شده است. نظرسنجی اخیر مرکز تصور آینده دیجیتال در دانشگاه ایلان نشان داد که نیمی از آمریکایی‌ها اکنون از این فناوری‌ها استفاده می‌کنند.

«به هر معیار، پذیرش و استفاده از مدل‌های زبانی بزرگ (LLMها) شگفت‌انگیز است»، لی رینی، مدیر مرکز تصور آینده دیجیتال ایلان، در بیانیه خبری دانشگاه گفت. «به‌ویژه از نحوه‌ای که این ابزارها در زندگی اجتماعی مردم تنیده می‌شوند، تحت تأثیر قرار گرفته‌ام».

اگرچه این ابزارها می‌توانند برای مواردی مانند کمک به نوشتن ایمیل یا ایده‌پردازی سؤال‌ها برای یک ملاقات پزشکی مفید باشند، اما عاقلانه است که نسبت به میزان اطلاعاتی که با آن‌ها به‌اشتراک می‌گذارید، محتاط باشید.

یک پژوهش تازه از مؤسسه استنفورد برای هوش مصنوعی‌محور انسان، این مسأله را توضیح می‌دهد. پژوهشگران سیاست‌های حریم‌خصوصی شش شرکت پیشرو در توسعه سیستم‌های چت هوش مصنوعی در ایالات متحده (ChatGPT شرکت OpenAI، Gemini شرکت گوگل، Claude شرکت Anthropic، Nova شرکت آمازون، MetaAI شرکت متا و Copilot شرکت مایکروسافت) را تجزیه و تحلیل کردند و دریافتند که همه آن‌ها به‌طور پیش‌فرض از گفت‌وگوهای کاربران برای «آموزش و بهبود مدل‌های خود» استفاده می‌کنند و «برخی از این داده‌ها را به‌طور نامحدود نگه می‌دارند».

مردم کم‌اهمیت می‌دانند که چه مقدار از اطلاعاتی که با ربات‌های گفتگو هوش مصنوعی به‌اشتراک می‌گذارند می‌تواند «ذخیره، تجزیه و تحلیل و احتمالاً مجدداً استفاده شود»، گفت کارشناس امنیت سایبری جرج کامید، هم‌مجری پادکست فناوری «Bare Knuckles and Brass Tacks»، در مصاحبه‌ای با HuffPost.

«بسیاری از مدل‌های زبانی بزرگ (LLMها) با استفاده از ورودی‌های کاربران آموزش یا تنظیم می‌شوند، به این معنی که گفت‌وگوها می‌توانند — به‌صورت مستقیم یا غیرمستقیم — در رفتار آینده مدل مؤثر باشند»، او ادامه داد.

«اگر این تعاملات شامل شناسنام‌های شخصی، داده‌های حساس یا اطلاعات محرمانه باشند، ممکن است به بخشی از مجموعه‌داده‌ای تبدیل شوند که خارج از کنترل کاربر است. در نهایت، داده‌ها بزرگ‌ترین ارزشی هستند که شرکت‌های هوش مصنوعی می‌توانند از ما استخراج کنند».

در ادامه، کارشناسان انواع اطلاعاتی را که باید پیش از به‌اشتراک‌گذاری با ربات‌های هوش مصنوعی دوبار فکر کنید، توضیح می‌دهند:

هرگونه اطلاعات شناسایی شخصی

اطلاعات شناسایی شخصی، که با نام PII شناخته می‌شود، شامل هر نوع داده‌ای است که می‌تواند برای شناسایی یک فرد استفاده شود؛ شامل نام کامل، آدرس منزل، شماره تلفن، و شماره‌های شناسایی دولتی مانند شماره امنیت اجتماعی، گذرنامه یا گواهینامه رانندگی.

به اشتراک‌گذاری این جزئیات با ربات گفتگو «خطر این را به‌وجود می‌آورد که این داده‌ها به‌صورت لاگ یا پردازش شوند به‌گونه‌ای که شما را در معرض سرقت هویت، فیشینگ یا فعالیت‌های خرید‌و‌فروش داده‌ها قرار دهند»، توضیح داد کارشناس امنیت اطلاعات جرج ال‑کورا، هم‌مجری پادکست «Bare Knuckles and Brass Tacks». بنابراین بهتر است از این کار خودداری کنید.

دقت کنید که هر فایلی که همراه با پرس‌وجوهای خود بارگذاری می‌کنید می‌تواند برای آموزش مدل نیز مورد استفاده قرار گیرد. پس اگر برای مثال از ChatGPT برای بهبود رزومه‌تان استفاده می‌کنید، بهتر است پیش از آن تمام اطلاعات شناسایی‌کننده را از سند حذف کنید تا ایمن باشید.

جزئیات صمیمی درباره زندگی شخصی‌تان

مردم اغلب احساس راحت‌تر بودن می‌کنند که اطلاعات صمیمی خود را در مکالمه با ChatGPT فاش کنند نسبت به این‌که در یک جستجوی گوگل این‌کار را انجام دهند، زیرا ربات هوش مصنوعی امکان گفت‌وگوی دوطرفه‌ای را فراهم می‌کند که طبیعتاً انسانی به نظر می‌رسد.

«این می‌تواند حس امنیت کاذبی ایجاد کند که باعث می‌شود افراد تمایل بیشتری به ارائه اطلاعات شخصی از طریق ربات گفتگو داشته باشند تا یک موتور جستجوی ایستا داشته باشند»، اشلی کاسوان، مدیر ارشد مرکز حاکمیت هوش مصنوعی انجمن بین‌المللی متخصصان حریم‌خصوصی (IAPP) به HuffPost گفت.

جزئیات حساس که دربارهٔ افکار، رفتارها، وضعیت ذهنی یا روابط خود در این گفتگوها به‌اشتراک می‌گذارید، به‌صورت قانونی محافظت نمی‌شوند و ممکن است به‌عنوان مدرک در دادگاه مورد استفاده قرار گیرند.

«تعداد افرادی که از ربات‌های گفتگو مبتنی بر LLM به‌عنوان درمانگر، مربی زندگی و حتی به‌عنوان نوعی «شریک» صمیمی استفاده می‌کنند، در حال حاضر نگران‌کننده است»، کامید گفت.

اطلاعات پزشکی شما

یک نظرسنجی در سال ۲۰۲۴ نشان داد که از هر شش بزرگسال، یک نفر حداقل یک بار در ماه برای اطلاعات و مشاوره‌های بهداشتی به ربات‌های هوش مصنوعی مراجعه می‌کند، به گفتهٔ سازمان سیاست بهداشتی KFF.

این کار می‌تواند در مواجهه با مسائل بهداشتی مفید باشد، اما خطرات حریم‌خصوصی نیز به همراه دارد (به‌علاوه نگرانی‌های مربوط به دقت). بر خلاف پزشکان، اکثر ربات‌های گفتگو متداول تحت قانون «قابلیت حمل و مسؤولیت‌پذیری بیمه سلامت» (HIPAA) نیستند، دکتر راوی پاریک، مدیر آزمایشگاه همکاری انسان‑الگوریتم در دانشگاه اموری، به نیویورک تایمز گفت.

از به‌اشتراک‌گذاری هر گونه جزئیات پزشکی شخصی — از جمله سوابق مراقبت‌های بهداشتی‌تان — با ربات هوش مصنوعی خودداری کنید. اگر قصد دارید داده‌های مرتبط با سلامت را در گفتگو وارد کنید، حتماً اطلاعات شناسایی‌کننده را از پرس‌وجوهای خود پاک کنید.

اطلاعات محرمانه یا اختصاصی کاری

اگر درباره استفاده از ربات هوش مصنوعی برای پیشی گرفتن در محیط کار فکر می‌کنید، با احتیاط عمل کنید. طبق مشاورهٔ ال‑کورا، از وارد کردن داده‌ها یا گزارش‌های داخلی کسب‌وکار، اطلاعات مشتریان، کد منبع یا هر چیز دیگری که تحت موافقت‌نامه عدم افشای اطلاعات (NDA) محافظت می‌شود، خودداری کنید.

«بسیاری از پلتفرم‌های چت هوش مصنوعی بر زیرساخت‌های مشترک عمل می‌کنند و با وجود تدابیر امنیتی قوی، ورودی شما ممکن است برای «بهبود مدل» لاگ شود»، او گفت. «یک درخواست واحد که حاوی داده‌های حساس باشد می‌تواند منجر به نقض مقررات یا تعهدات قراردادی شود».

اطلاعات مالی شما

سهم‌نامه‌های حقوقی، اطلاعات حساب‌های بانکی و سرمایه‌گذاری، و جزئیات کارت‌های اعتباری شما نباید با ربات هوش مصنوعی به‌اشتراک گذاشته شود، به گفتهٔ خدمات فناوری اطلاعات دانشگاه کنتاکی.

«در حالی که هوش مصنوعی می‌تواند مشاورهٔ کلی مالی ارائه دهد، برای مسایل شخصی بهتر است با یک مشاور مالی مشورت کنید تا خطر هک یا سوءاستفاده از داده‌ها را کاهش دهید»، در مطلبی در وب‌سایت دانشگاه آمده است.

همین‌طور برای اظهارنامه‌های مالیاتی و سایر اسناد مرتبط با درآمد شما نیز صادق است.

«اگر این اسناد فاش شوند، می‌توانند برای باج‌گیری، تقلب یا حملات مهندسی اجتماعی هدفمند علیه شما یا خانواده‌تان به کار گرفته شوند»، نویسندهٔ مالی آدام هیز در مقاله‌ای در Investopedia هشدار داد.

ربات‌های گفتگو هوش مصنوعی مانند ChatGPT زندگی افراد را از جنبه‌های مختلف ساده‌سازی کرده‌اند، اما در به‌اشتراک‌گذاری اطلاعات خطراتی وجود دارد.
ربات‌های گفتگو هوش مصنوعی همانند ChatGPT زندگی افراد را از جنبه‌های مختلف ساده‌سازی کرده‌اند، اما در به‌اشتراک‌گذاری اطلاعات خطراتی وجود دارد.

اگر قبلاً این اطلاعات را با ربات هوش مصنوعی به‌اشتراک گذاشته‌اید چه می‌شود؟ و چگونه می‌توانید حریم‌خصوصی خود را در آینده محافظت کنید؟

می‌توان گفت که بازگرداندن خمیردندان به داخل لوله ممکن نیست. اما هنوز می‌توانید سعی کنید بخشی از ضررهای احتمالی را کاهش دهید.

به‌نظری کامید: وقتی داده‌های شما به مجموعهٔ آموزشی ربات گفتگو افزوده می‌شود، «واقعاً نمی‌توانید آن را بازگردانید». با این حال، او پیشنهاد کرد تاریخچهٔ گفتگوها را حذف کنید «تا از استخراج داده‌ها جلوگیری شود، در صورتی که کسی حساب شما را به خطر بیندازد».

سپس زمانی را صرف کنید تا دربارهٔ اطلاعاتی که با ربات هوش مصنوعی به‌اشتراک می‌گذارید (یا نمی‌گذارید) در آینده فکر کنید. ال‑کورا توصیه کرد که مکالمات هوش مصنوعی را به‌جای «دفترهای شخصی» به‌عنوان «فضاهای نیمه‌عمومی» در نظر بگیرید.

«دقت کنید و در به‌اشتراک‌گذاری اطلاعات صرفه‌جویی کنید. پیش از ارسال پیام، از خود بپرسید: «آیا با دیدن این محتوا در یک گروه مشترک خانوادگی یا کانال Slack شرکت راحت می‌شوم؟»» ال‑کورا گفت.

همچنین می‌توانید تنظیمات حریم‌خصوصی هر ربات هوش مصنوعی که با آن تعامل دارید تنظیم کنید تا برخی خطرات حریم‌خصوصی را کاهش (اگرچه به‌طور کامل حذف نکنند) — مانند غیرفعال‌کردن تاریخچهٔ گفتگو یا انتخاب عدم استفاده از مکالمات شما برای آموزش مدل.

«ابزارهای مختلف امکان پیکربندی‌های متفاوتی برای داده‌هایی که «به یاد می‌مانند» می‌دهند»، کاسوان گفت. «بر اساس میزان راحتی و استفادهٔ شخصی‌تان، بررسی این گزینه‌های مختلف به شما امکان می‌دهد تنظیمات را بر اساس سطح راحتی یا جهت‌گیری سازمانی خود تنظیم کنید».

«با این حال، داشتن درک دقیقی از نحوهٔ کار این سیستم‌ها، نحوهٔ ذخیره‌سازی داده‌ها، افراد دسترسی‌دار، نحوهٔ انتقال آن‌ها و شرایطی که تحت آن‌ها انجام می‌شود، به شما اجازه می‌دهد تصمیمات آگاهانه‌تری برای بهره‌برداری از این ابزارها در جهت منافع خود بگیرید، در حالی که همچنان با اطلاعاتی که به‌اشتراک می‌گذارید راحت باشید»، او ادامه داد.

در زمان نوشتن پرس‌وجوها، ال‑کورا توصیه کرد که از نام‌های مستعار و زبان کلی‌تر استفاده کنید تا از فاش کردن اطلاعات شخصی یا محرمانه بیش از حد جلوگیری شود. برای مثال، می‌توانید به جای «بیمار بیمارستان St. Mary’s»، از «یک مشتری در حوزه مراقبت‌های بهداشتی» استفاده کنید تا «زمینه را حفظ کرده و هویت را محافظت کنید»، او پیشنهاد کرد.

اما بار مسئولیت تنها باید بر عهدهٔ کاربران نباشد. توسعه‌دهندگان هوش مصنوعی و قانون‌گذاران باید حفاظت از داده‌های شخصی را از طریق «قوانین جامع فدرال حریم‌خصوصی، پذیرش صریح برای آموزش مدل و فیلتر پیش‌فرض اطلاعات شخصی از ورودی‌های چت»، بهبود بخشد، پژوهشگران مؤسسه استنفورد برای هوش مصنوعی‌محور انسان گفتند.

کامید این را «لحظهٔ تعیین‌کننده برای اخلاق دیجیتال» نامید.

«هرچه این سیستم‌ها بتوانند سبک‌های ارتباطی انسانی را بیشتر شبیه‌سازی کنند، راحت‌تر است که فراموش کنیم آن‌ها صرفاً پردازشگر داده هستند، نه مشاور یا دوست»، او گفت. «اگر بتوانیم فرهنگی را پرورش دهیم که در آن مردم کنجکاو، محتاط و آگاه به حریم‌خصوصی باشند — در حالی که فناوران به‌صورت مسئولانه و شفاف ساخت کنند — می‌توانیم پتانسیل کامل هوش مصنوعی را بدون قربانی کردن اعتماد به کار بگیریم. به‌عبارت دیگر، برای نوآوری مسئولانه نیاز به راهنماهای محافظت‌کننده داریم.»

دیدگاه‌ خود را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

پیمایش به بالا