بهنظر متخصصان حریمخصوصی، فاش کردن این جزئیات به رباتهای گفتگو هوش مصنوعی میتواند خطرناک باشد. در اینجا آنچه باید بدانید را آوردهایم. نوشتهٔ کلسی بوررسن
در مأموریت برای HuffPost

استفاده از ChatGPT و سایر رباتهای گفتگو هوش مصنوعی مانند Gemini، Copilot و Claude در زندگی روزمره مردم بهطور فزایندهای رایج شده است. نظرسنجی اخیر مرکز تصور آینده دیجیتال در دانشگاه ایلان نشان داد که نیمی از آمریکاییها اکنون از این فناوریها استفاده میکنند.
«به هر معیار، پذیرش و استفاده از مدلهای زبانی بزرگ (LLMها) شگفتانگیز است»، لی رینی، مدیر مرکز تصور آینده دیجیتال ایلان، در بیانیه خبری دانشگاه گفت. «بهویژه از نحوهای که این ابزارها در زندگی اجتماعی مردم تنیده میشوند، تحت تأثیر قرار گرفتهام».
اگرچه این ابزارها میتوانند برای مواردی مانند کمک به نوشتن ایمیل یا ایدهپردازی سؤالها برای یک ملاقات پزشکی مفید باشند، اما عاقلانه است که نسبت به میزان اطلاعاتی که با آنها بهاشتراک میگذارید، محتاط باشید.
یک پژوهش تازه از مؤسسه استنفورد برای هوش مصنوعیمحور انسان، این مسأله را توضیح میدهد. پژوهشگران سیاستهای حریمخصوصی شش شرکت پیشرو در توسعه سیستمهای چت هوش مصنوعی در ایالات متحده (ChatGPT شرکت OpenAI، Gemini شرکت گوگل، Claude شرکت Anthropic، Nova شرکت آمازون، MetaAI شرکت متا و Copilot شرکت مایکروسافت) را تجزیه و تحلیل کردند و دریافتند که همه آنها بهطور پیشفرض از گفتوگوهای کاربران برای «آموزش و بهبود مدلهای خود» استفاده میکنند و «برخی از این دادهها را بهطور نامحدود نگه میدارند».
مردم کماهمیت میدانند که چه مقدار از اطلاعاتی که با رباتهای گفتگو هوش مصنوعی بهاشتراک میگذارند میتواند «ذخیره، تجزیه و تحلیل و احتمالاً مجدداً استفاده شود»، گفت کارشناس امنیت سایبری جرج کامید، هممجری پادکست فناوری «Bare Knuckles and Brass Tacks»، در مصاحبهای با HuffPost.
«بسیاری از مدلهای زبانی بزرگ (LLMها) با استفاده از ورودیهای کاربران آموزش یا تنظیم میشوند، به این معنی که گفتوگوها میتوانند — بهصورت مستقیم یا غیرمستقیم — در رفتار آینده مدل مؤثر باشند»، او ادامه داد.
«اگر این تعاملات شامل شناسنامهای شخصی، دادههای حساس یا اطلاعات محرمانه باشند، ممکن است به بخشی از مجموعهدادهای تبدیل شوند که خارج از کنترل کاربر است. در نهایت، دادهها بزرگترین ارزشی هستند که شرکتهای هوش مصنوعی میتوانند از ما استخراج کنند».
در ادامه، کارشناسان انواع اطلاعاتی را که باید پیش از بهاشتراکگذاری با رباتهای هوش مصنوعی دوبار فکر کنید، توضیح میدهند:
هرگونه اطلاعات شناسایی شخصی
اطلاعات شناسایی شخصی، که با نام PII شناخته میشود، شامل هر نوع دادهای است که میتواند برای شناسایی یک فرد استفاده شود؛ شامل نام کامل، آدرس منزل، شماره تلفن، و شمارههای شناسایی دولتی مانند شماره امنیت اجتماعی، گذرنامه یا گواهینامه رانندگی.
به اشتراکگذاری این جزئیات با ربات گفتگو «خطر این را بهوجود میآورد که این دادهها بهصورت لاگ یا پردازش شوند بهگونهای که شما را در معرض سرقت هویت، فیشینگ یا فعالیتهای خریدوفروش دادهها قرار دهند»، توضیح داد کارشناس امنیت اطلاعات جرج ال‑کورا، هممجری پادکست «Bare Knuckles and Brass Tacks». بنابراین بهتر است از این کار خودداری کنید.
دقت کنید که هر فایلی که همراه با پرسوجوهای خود بارگذاری میکنید میتواند برای آموزش مدل نیز مورد استفاده قرار گیرد. پس اگر برای مثال از ChatGPT برای بهبود رزومهتان استفاده میکنید، بهتر است پیش از آن تمام اطلاعات شناساییکننده را از سند حذف کنید تا ایمن باشید.
جزئیات صمیمی درباره زندگی شخصیتان
مردم اغلب احساس راحتتر بودن میکنند که اطلاعات صمیمی خود را در مکالمه با ChatGPT فاش کنند نسبت به اینکه در یک جستجوی گوگل اینکار را انجام دهند، زیرا ربات هوش مصنوعی امکان گفتوگوی دوطرفهای را فراهم میکند که طبیعتاً انسانی به نظر میرسد.
«این میتواند حس امنیت کاذبی ایجاد کند که باعث میشود افراد تمایل بیشتری به ارائه اطلاعات شخصی از طریق ربات گفتگو داشته باشند تا یک موتور جستجوی ایستا داشته باشند»، اشلی کاسوان، مدیر ارشد مرکز حاکمیت هوش مصنوعی انجمن بینالمللی متخصصان حریمخصوصی (IAPP) به HuffPost گفت.
جزئیات حساس که دربارهٔ افکار، رفتارها، وضعیت ذهنی یا روابط خود در این گفتگوها بهاشتراک میگذارید، بهصورت قانونی محافظت نمیشوند و ممکن است بهعنوان مدرک در دادگاه مورد استفاده قرار گیرند.
«تعداد افرادی که از رباتهای گفتگو مبتنی بر LLM بهعنوان درمانگر، مربی زندگی و حتی بهعنوان نوعی «شریک» صمیمی استفاده میکنند، در حال حاضر نگرانکننده است»، کامید گفت.
اطلاعات پزشکی شما
یک نظرسنجی در سال ۲۰۲۴ نشان داد که از هر شش بزرگسال، یک نفر حداقل یک بار در ماه برای اطلاعات و مشاورههای بهداشتی به رباتهای هوش مصنوعی مراجعه میکند، به گفتهٔ سازمان سیاست بهداشتی KFF.
این کار میتواند در مواجهه با مسائل بهداشتی مفید باشد، اما خطرات حریمخصوصی نیز به همراه دارد (بهعلاوه نگرانیهای مربوط به دقت). بر خلاف پزشکان، اکثر رباتهای گفتگو متداول تحت قانون «قابلیت حمل و مسؤولیتپذیری بیمه سلامت» (HIPAA) نیستند، دکتر راوی پاریک، مدیر آزمایشگاه همکاری انسان‑الگوریتم در دانشگاه اموری، به نیویورک تایمز گفت.
از بهاشتراکگذاری هر گونه جزئیات پزشکی شخصی — از جمله سوابق مراقبتهای بهداشتیتان — با ربات هوش مصنوعی خودداری کنید. اگر قصد دارید دادههای مرتبط با سلامت را در گفتگو وارد کنید، حتماً اطلاعات شناساییکننده را از پرسوجوهای خود پاک کنید.
اطلاعات محرمانه یا اختصاصی کاری
اگر درباره استفاده از ربات هوش مصنوعی برای پیشی گرفتن در محیط کار فکر میکنید، با احتیاط عمل کنید. طبق مشاورهٔ ال‑کورا، از وارد کردن دادهها یا گزارشهای داخلی کسبوکار، اطلاعات مشتریان، کد منبع یا هر چیز دیگری که تحت موافقتنامه عدم افشای اطلاعات (NDA) محافظت میشود، خودداری کنید.
«بسیاری از پلتفرمهای چت هوش مصنوعی بر زیرساختهای مشترک عمل میکنند و با وجود تدابیر امنیتی قوی، ورودی شما ممکن است برای «بهبود مدل» لاگ شود»، او گفت. «یک درخواست واحد که حاوی دادههای حساس باشد میتواند منجر به نقض مقررات یا تعهدات قراردادی شود».
اطلاعات مالی شما
سهمنامههای حقوقی، اطلاعات حسابهای بانکی و سرمایهگذاری، و جزئیات کارتهای اعتباری شما نباید با ربات هوش مصنوعی بهاشتراک گذاشته شود، به گفتهٔ خدمات فناوری اطلاعات دانشگاه کنتاکی.
«در حالی که هوش مصنوعی میتواند مشاورهٔ کلی مالی ارائه دهد، برای مسایل شخصی بهتر است با یک مشاور مالی مشورت کنید تا خطر هک یا سوءاستفاده از دادهها را کاهش دهید»، در مطلبی در وبسایت دانشگاه آمده است.
همینطور برای اظهارنامههای مالیاتی و سایر اسناد مرتبط با درآمد شما نیز صادق است.
«اگر این اسناد فاش شوند، میتوانند برای باجگیری، تقلب یا حملات مهندسی اجتماعی هدفمند علیه شما یا خانوادهتان به کار گرفته شوند»، نویسندهٔ مالی آدام هیز در مقالهای در Investopedia هشدار داد.

اگر قبلاً این اطلاعات را با ربات هوش مصنوعی بهاشتراک گذاشتهاید چه میشود؟ و چگونه میتوانید حریمخصوصی خود را در آینده محافظت کنید؟
میتوان گفت که بازگرداندن خمیردندان به داخل لوله ممکن نیست. اما هنوز میتوانید سعی کنید بخشی از ضررهای احتمالی را کاهش دهید.
بهنظری کامید: وقتی دادههای شما به مجموعهٔ آموزشی ربات گفتگو افزوده میشود، «واقعاً نمیتوانید آن را بازگردانید». با این حال، او پیشنهاد کرد تاریخچهٔ گفتگوها را حذف کنید «تا از استخراج دادهها جلوگیری شود، در صورتی که کسی حساب شما را به خطر بیندازد».
سپس زمانی را صرف کنید تا دربارهٔ اطلاعاتی که با ربات هوش مصنوعی بهاشتراک میگذارید (یا نمیگذارید) در آینده فکر کنید. ال‑کورا توصیه کرد که مکالمات هوش مصنوعی را بهجای «دفترهای شخصی» بهعنوان «فضاهای نیمهعمومی» در نظر بگیرید.
«دقت کنید و در بهاشتراکگذاری اطلاعات صرفهجویی کنید. پیش از ارسال پیام، از خود بپرسید: «آیا با دیدن این محتوا در یک گروه مشترک خانوادگی یا کانال Slack شرکت راحت میشوم؟»» ال‑کورا گفت.
همچنین میتوانید تنظیمات حریمخصوصی هر ربات هوش مصنوعی که با آن تعامل دارید تنظیم کنید تا برخی خطرات حریمخصوصی را کاهش (اگرچه بهطور کامل حذف نکنند) — مانند غیرفعالکردن تاریخچهٔ گفتگو یا انتخاب عدم استفاده از مکالمات شما برای آموزش مدل.
«ابزارهای مختلف امکان پیکربندیهای متفاوتی برای دادههایی که «به یاد میمانند» میدهند»، کاسوان گفت. «بر اساس میزان راحتی و استفادهٔ شخصیتان، بررسی این گزینههای مختلف به شما امکان میدهد تنظیمات را بر اساس سطح راحتی یا جهتگیری سازمانی خود تنظیم کنید».
«با این حال، داشتن درک دقیقی از نحوهٔ کار این سیستمها، نحوهٔ ذخیرهسازی دادهها، افراد دسترسیدار، نحوهٔ انتقال آنها و شرایطی که تحت آنها انجام میشود، به شما اجازه میدهد تصمیمات آگاهانهتری برای بهرهبرداری از این ابزارها در جهت منافع خود بگیرید، در حالی که همچنان با اطلاعاتی که بهاشتراک میگذارید راحت باشید»، او ادامه داد.
در زمان نوشتن پرسوجوها، ال‑کورا توصیه کرد که از نامهای مستعار و زبان کلیتر استفاده کنید تا از فاش کردن اطلاعات شخصی یا محرمانه بیش از حد جلوگیری شود. برای مثال، میتوانید به جای «بیمار بیمارستان St. Mary’s»، از «یک مشتری در حوزه مراقبتهای بهداشتی» استفاده کنید تا «زمینه را حفظ کرده و هویت را محافظت کنید»، او پیشنهاد کرد.
اما بار مسئولیت تنها باید بر عهدهٔ کاربران نباشد. توسعهدهندگان هوش مصنوعی و قانونگذاران باید حفاظت از دادههای شخصی را از طریق «قوانین جامع فدرال حریمخصوصی، پذیرش صریح برای آموزش مدل و فیلتر پیشفرض اطلاعات شخصی از ورودیهای چت»، بهبود بخشد، پژوهشگران مؤسسه استنفورد برای هوش مصنوعیمحور انسان گفتند.
کامید این را «لحظهٔ تعیینکننده برای اخلاق دیجیتال» نامید.
«هرچه این سیستمها بتوانند سبکهای ارتباطی انسانی را بیشتر شبیهسازی کنند، راحتتر است که فراموش کنیم آنها صرفاً پردازشگر داده هستند، نه مشاور یا دوست»، او گفت. «اگر بتوانیم فرهنگی را پرورش دهیم که در آن مردم کنجکاو، محتاط و آگاه به حریمخصوصی باشند — در حالی که فناوران بهصورت مسئولانه و شفاف ساخت کنند — میتوانیم پتانسیل کامل هوش مصنوعی را بدون قربانی کردن اعتماد به کار بگیریم. بهعبارت دیگر، برای نوآوری مسئولانه نیاز به راهنماهای محافظتکننده داریم.»