‫ مکالمات ChatGPT شما ممکن است آنقدر که فکر می‌کنید ایمن نباشند

هوش مصنوعی

آیا هرگز به کسی که نمی‌شناسید اجازه می‌دهید به مکالمات خصوصی شما با پزشک یا افراد مهم دیگر گوش دهد؟ آیا به آن‌ها اجازه می‌دهید تکه‌های کوچکی از آنچه شنیده‌اند را به دیگری بفروشند؟ به طور خلاصه، این همان کاری است که ردیاب های شخص ثالث انجام می دهند. آن‌ها کارهایی را که شما به صورت آنلاین انجام می‌دهید تماشا می‌کنند و سپس آن اطلاعات را به شخص دیگری می‌فروشند که می‌خواهد چیزی به شما بفروشد.

 

از آنجایی که افراد بیشتری از خدمات هوش مصنوعی مولد مانند ChatGPTیا حتی Bing Chatو Google Bardاستفاده می کنند، ایمنی و اخلاقیات همه آنها زیر سوال می رود. هنگامی که میلیون‌ها نفر برای پرسیدن سؤال، تولید متن برای نامه‌ها یا مقاله‌ها، نوشتن و حتی اشکال‌زدایی کد به یک وب‌سایت می‌روند، باید از خود بپرسید: برای همه اطلاعاتی که در این ابزارها وارد می‌شود چه اتفاقی می‌افتد و چه نقشی، اگر وجود داشته باشد؟ آیا کارگزاران داده در همه اینها دارند؟

مدیر عامل و کارشناس حریم خصوصی Ghostery، Jean-Paul Schmetz، یک یا دو چیز برای گفتن در مورد این موضوع دارد، و او در مورد نگرانی های مربوط به حفظ حریم خصوصی شما در هنگام استفاده از هوش مصنوعی مولد صحبت کند.

خبر خوب این است که OpenAIهنوز اجازه ردیابی شخص ثالث در ChatGPTرا نداده است. Schmetzمی گوید: "OpenAIاز این نظر که ایمن است، بسیار ساده است." زمانی که شما با ChatGPTچت می کنید، هیچ کس را ندارند که از بالای شانه شما نگاه کند.

او می‌افزاید: «تنها چیزی که کاربر باید نگران آن باشد این است که بتواند از داده‌های شما برای آموزش استفاده کند، بنابراین هرچه بنویسید توسط OpenAIاستفاده می‌شود. این به وضوح در خط‌مشی رازداری شرکت بیان شده است، اگرچه شما می‌توانید با پر کردن فرم Googleاز OpenAIاز اشتراک‌گذاری داده خودداری کنید.

ارزش توجه به هشدار اشمتز را دارد. در سال 2021، محققان آسیب‌پذیری‌هایی را در سیستم GPT-2برای آموزش حملات استخراج داده‌ها کشف کردند که از نقش ذاتی مدل در یادگیری از داده‌هایی که کاربران وارد می‌کنند سوء استفاده می‌کنند.

"با وارد کردن پرس و جوهای هدفمند خاص، نهادهای مخرب می توانند هوش مصنوعی را تحریک کنند تا داده های خاصی را که قبلا توسط یک کاربر وارد شده است بازگو کند - که می تواند شامل اطلاعات شناسایی شخصی مانند نام، آدرس و شماره تلفن همراه با هر چیز دیگری باشد که هدف با آن به اشتراک گذاشته است. اشمتس توضیح می دهد که سیستم.

در حالی که ما به طور قطع نمی دانیم که آیا این آسیب پذیری در GPT-4وجود دارد یا خیر، Schmetzتوضیح می دهد که در مدل رایگان نیز وجود دارد.

رئیس و یکی از بنیانگذاران OpenAI، گرگ براکمن، این هفته بیانیه ای را به اشتراک گذاشت که بر تعهد این شرکت به ایمنی با مدل هایش تاکید کرد. براکمن گفت: «ما معتقدیم که دوره‌های آموزشی قدرتمند باید به دولت‌ها گزارش شود، با پیش‌بینی‌های پیچیده‌تر از توانایی و تأثیر آن‌ها همراه باشد و به بهترین شیوه‌ها مانند آزمایش قابلیت‌های خطرناک نیاز داشته باشد».

بسیاری از ما که در کنار اینترنت بزرگ شده‌ایم می‌دانیم که سه قانون مهم برای آن وجود دارد: اطلاعات خصوصی را آنلاین قرار ندهید، هر چیزی را که می‌خوانید باور نکنید، و مراقب مجرمان سایبری باشید.

Schmetzمی‌افزاید: «کاربرانی که مراقب اطلاعاتی که با هوش مصنوعی به اشتراک می‌گذارند، در معرض خطر قرار نخواهند گرفت، زیرا این داده‌های شخص اول تنها در صورتی قابل استخراج هستند که کاربر آن را از ابتدا وارد کرده باشد.»

 

منبع

زدنت


نوشته

 
fars sakha1
ایجاد شده در 28 خرداد 1402
بازدید 16

امتیاز

امتیاز شما
تعداد امتیازها: 0