‫ هوش مصنوعی تهدید امروز و خطری برای فردا

مکنزی جکسون، توسعه‌دهنده و مدافع امنیت در GitGuardian، هفته گذشته در شهر Zagreb به حضار گفت: «هوش مصنوعی، در ابتدایی‌ترین سطح به مهاجمان مخرب توانایی یک ابرقدرت را داده است.
از زمان معرفی ChatGPT در نوامبر 2022، تاثیرهوش مصنوعی در افزایش حملات فیشینگ، SMS phishing و ویشینگ (فیشینگ تلفنی) توسط این ابر قدرت‌ها به چشم می‌خورد. و همچنین (large language model) LLM های مخربی مانند FraudGPT، WormGPT، DarkBARD و White Rabbit وجود دارند که به عوامل تهدید اجازه می‌دهند کد مخرب بنویسند، صفحات و پیام های فیشینگ تولید کنند، نشت‌ها و آسیب پذیری‌ها را شناسایی کنند، ابزارهای هک ایجاد کنند و موارد دیگر.... . هوش مصنوعی لزوماً حملات را پیچیده‌تر نکرده است، اما به گفته او حملات سایبری را برای تعداد بیشتری از مردم در دسترس‌ قرار داده است.

حملات مبتنی بر هوش مصنوعی

تصور انواع حملات مبتنی بر هوش مصنوعی که آینده برای ما در نظر گرفته غیرممکن است اما خی از حملات حال حاضر را  می‌توانیم تشریح کنیم. یکی از آنها حمله تزریق سریع علیه یک دستیار ایمیل مبتنی بر ChatGPT است که ممکن است به مهاجم اجازه دهد تا دستیار را برای اجرای اقداماتی مانند حذف همه ایمیل ها یا ارسال آنها به مهاجم دستکاری کند جکسون با الهام از یک پرس و جو که منجر به اختراع کامل بسته نرم افزاری توسط ChatGPT شد، جکسون همچنین اظهار داشت که یک مهاجم ممکن است با ایجاد بسته های مملو از بدافزار که بسیاری از توسعه دهندگان در جستجوی آن هستند در حملات خود استفاده کند.

تهدیدات کنونی
در حال حاضر با تهدیدهای بیشتری روبرو هستیم و یکی از آنها نشت داده‌های حساس است از آنجایی که مردم اغلب داده‌های حساس را در پیام‌ها درج می‌کنند، تاریخچه چت یک هدف جذاب برای مجرمان سایبری است متأسفانه، سیستم‌ها برای ایمن کردن داده‌ها طراحی نشده‌اند مواردی از ChatGTP وجود دارد که سابقه چت کاربران و حتی داده‌های شخصی و صورت‌ حساب را فاش کرده است همچنین، هنگامی که داده‌ها در سیستم‌ها وارد می‌شوند، می‌توانند در پایگاه‌های داده‌های مختلف «گسترش» پیدا کنند و نگهداری آن را دشوار می‌کند. اساسا، داده‌های وارد شده به سیستم‌های دارای هوش مصنوعی ممکن است برای همیشه در پلتفرم‌های مختلف قابل دسترسی باقی بمانند.

حتی اگر تاریخچه چت را غیرفعال کنید، هیچ تضمینی وجود ندارد که داده ها در جایی ذخیره نشوند ممکن است تصور شود که راه حل واضح ممنوعیت استفاده از LLM در محیط های تجاری است، اما این گزینه دارای اشکالات بسیار زیادی است کسانی که مجاز به استفاده از LLM برای کار (به ویژه در حوزه فناوری) نیستند، احتمالاً از توانایی های خود عقب می‌مانند ثانیاً، افراد گزینه‌های دیگری (VPN، سیستم‌های مختلف و غیره) را جستجو کرده و پیدا می‌کنند که به آنها اجازه می‌دهد از LLM در داخل شرکت‌ها استفاده کنند این کار به طور بالقوه می‌تواند درها را به روی حملات مهم دیگری برای سازمان‌ها باز کند این بدان معناست که LLM هنوز بخشی از سطح حمله سازمان است اما اکنون نامرئی است.

چگونه از سازمان خود محافظت کنیم؟
وقتی صحبت از محافظت از یک سازمان در برابر خطرات مرتبط با استفاده از هوش مصنوعی می شود، ما واقعاً باید به اصول اولیه امنیتی بازگردیم به افراد باید ابزارهای مناسب برای شغلشان داده شود، اما باید به آنها آموزش داده شود که اهمیت استفاده ایمن از LLM را درک کنند.

همچنین نکات ذیل توصیه می‌شود:

  • حفاظت‌های فیشینگ را در جای خود قرار دهید.
  • برای جلوگیری از باج گیری، به صورت مستمر نسخه پشتیبان تهیه کنید.
  • مطمئن شوید که PII برای کارمندان قابل دسترسی نیست.
  • از ذخیره اسناد محرمانه در شبکه برای جلوگیری از نشت اطلاعات خودداری کنید.
  • از ابزارهای تجزیه و تحلیل ترکیب نرم افزار (SCA) برای جلوگیری از سوء استفاده از هوش مصنوعی استفاده کنید.
  •  پیاده سازی LLM های دوگانه، همانطور که توسط برنامه نویس Simon Willison پیشنهاد شده است، ممکن است ایده خوبی باشد.

علیرغم خطرات گفته شده، هوش مصنوعی آنقدر ارزشمند است که نمی توان از آن فاصله گرفت پیش‌بینی می‌شود شرکت‌ها و استارت‌آپ‌هایی که از مجموعه ابزارهای هوش مصنوعی استفاده می‌کنند، منجر به نقض احتمالی داده‌ها و حملات زنجیره‌ای شود این حوادث ممکن است نیاز به قوانین بهبود یافته، ابزارهای بهتر، تحقیقات و درک مفاهیم هوش مصنوعی را که در حال حاضر به دلیل تکامل سریع آن وجود ندارد، ایجاد کند همگام شدن با آن به یک چالش تبدیل شده است.


نوشته

 
سجاد
ایجاد شده در 25 اردیبهشت 1403
بازدید 23

امتیاز

امتیاز شما
تعداد امتیازها: 1