هوش مصنوعی
آیا هرگز به کسی که نمیشناسید اجازه میدهید به مکالمات خصوصی شما با پزشک یا افراد مهم دیگر گوش دهد؟ آیا به آنها اجازه میدهید تکههای کوچکی از آنچه شنیدهاند را به دیگری بفروشند؟ به طور خلاصه، این همان کاری است که ردیاب های شخص ثالث انجام می دهند. آنها کارهایی را که شما به صورت آنلاین انجام میدهید تماشا میکنند و سپس آن اطلاعات را به شخص دیگری میفروشند که میخواهد چیزی به شما بفروشد.
از آنجایی که افراد بیشتری از خدمات هوش مصنوعی مولد مانند ChatGPTیا حتی Bing Chatو Google Bardاستفاده می کنند، ایمنی و اخلاقیات همه آنها زیر سوال می رود. هنگامی که میلیونها نفر برای پرسیدن سؤال، تولید متن برای نامهها یا مقالهها، نوشتن و حتی اشکالزدایی کد به یک وبسایت میروند، باید از خود بپرسید: برای همه اطلاعاتی که در این ابزارها وارد میشود چه اتفاقی میافتد و چه نقشی، اگر وجود داشته باشد؟ آیا کارگزاران داده در همه اینها دارند؟
مدیر عامل و کارشناس حریم خصوصی Ghostery، Jean-Paul Schmetz، یک یا دو چیز برای گفتن در مورد این موضوع دارد، و او در مورد نگرانی های مربوط به حفظ حریم خصوصی شما در هنگام استفاده از هوش مصنوعی مولد صحبت کند.
خبر خوب این است که OpenAIهنوز اجازه ردیابی شخص ثالث در ChatGPTرا نداده است. Schmetzمی گوید: "OpenAIاز این نظر که ایمن است، بسیار ساده است." زمانی که شما با ChatGPTچت می کنید، هیچ کس را ندارند که از بالای شانه شما نگاه کند.
او میافزاید: «تنها چیزی که کاربر باید نگران آن باشد این است که بتواند از دادههای شما برای آموزش استفاده کند، بنابراین هرچه بنویسید توسط OpenAIاستفاده میشود. این به وضوح در خطمشی رازداری شرکت بیان شده است، اگرچه شما میتوانید با پر کردن فرم Googleاز OpenAIاز اشتراکگذاری داده خودداری کنید.
ارزش توجه به هشدار اشمتز را دارد. در سال 2021، محققان آسیبپذیریهایی را در سیستم GPT-2برای آموزش حملات استخراج دادهها کشف کردند که از نقش ذاتی مدل در یادگیری از دادههایی که کاربران وارد میکنند سوء استفاده میکنند.
"با وارد کردن پرس و جوهای هدفمند خاص، نهادهای مخرب می توانند هوش مصنوعی را تحریک کنند تا داده های خاصی را که قبلا توسط یک کاربر وارد شده است بازگو کند - که می تواند شامل اطلاعات شناسایی شخصی مانند نام، آدرس و شماره تلفن همراه با هر چیز دیگری باشد که هدف با آن به اشتراک گذاشته است. اشمتس توضیح می دهد که سیستم.
در حالی که ما به طور قطع نمی دانیم که آیا این آسیب پذیری در GPT-4وجود دارد یا خیر، Schmetzتوضیح می دهد که در مدل رایگان نیز وجود دارد.
رئیس و یکی از بنیانگذاران OpenAI، گرگ براکمن، این هفته بیانیه ای را به اشتراک گذاشت که بر تعهد این شرکت به ایمنی با مدل هایش تاکید کرد. براکمن گفت: «ما معتقدیم که دورههای آموزشی قدرتمند باید به دولتها گزارش شود، با پیشبینیهای پیچیدهتر از توانایی و تأثیر آنها همراه باشد و به بهترین شیوهها مانند آزمایش قابلیتهای خطرناک نیاز داشته باشد».
بسیاری از ما که در کنار اینترنت بزرگ شدهایم میدانیم که سه قانون مهم برای آن وجود دارد: اطلاعات خصوصی را آنلاین قرار ندهید، هر چیزی را که میخوانید باور نکنید، و مراقب مجرمان سایبری باشید.
Schmetzمیافزاید: «کاربرانی که مراقب اطلاعاتی که با هوش مصنوعی به اشتراک میگذارند، در معرض خطر قرار نخواهند گرفت، زیرا این دادههای شخص اول تنها در صورتی قابل استخراج هستند که کاربر آن را از ابتدا وارد کرده باشد.»
منبع
زدنت