مکنزی جکسون، توسعهدهنده و مدافع امنیت در GitGuardian، هفته گذشته در شهر Zagreb به حضار گفت: «هوش مصنوعی، در ابتداییترین سطح به مهاجمان مخرب توانایی یک ابرقدرت را داده است.
از زمان معرفی ChatGPT در نوامبر 2022، تاثیرهوش مصنوعی در افزایش حملات فیشینگ، SMS phishing و ویشینگ (فیشینگ تلفنی) توسط این ابر قدرتها به چشم میخورد. و همچنین (large language model) LLM های مخربی مانند FraudGPT، WormGPT، DarkBARD و White Rabbit وجود دارند که به عوامل تهدید اجازه میدهند کد مخرب بنویسند، صفحات و پیام های فیشینگ تولید کنند، نشتها و آسیب پذیریها را شناسایی کنند، ابزارهای هک ایجاد کنند و موارد دیگر.... . هوش مصنوعی لزوماً حملات را پیچیدهتر نکرده است، اما به گفته او حملات سایبری را برای تعداد بیشتری از مردم در دسترس قرار داده است.
حملات مبتنی بر هوش مصنوعی
تصور انواع حملات مبتنی بر هوش مصنوعی که آینده برای ما در نظر گرفته غیرممکن است اما خی از حملات حال حاضر را میتوانیم تشریح کنیم. یکی از آنها حمله تزریق سریع علیه یک دستیار ایمیل مبتنی بر ChatGPT است که ممکن است به مهاجم اجازه دهد تا دستیار را برای اجرای اقداماتی مانند حذف همه ایمیل ها یا ارسال آنها به مهاجم دستکاری کند جکسون با الهام از یک پرس و جو که منجر به اختراع کامل بسته نرم افزاری توسط ChatGPT شد، جکسون همچنین اظهار داشت که یک مهاجم ممکن است با ایجاد بسته های مملو از بدافزار که بسیاری از توسعه دهندگان در جستجوی آن هستند در حملات خود استفاده کند.
تهدیدات کنونی
در حال حاضر با تهدیدهای بیشتری روبرو هستیم و یکی از آنها نشت دادههای حساس است از آنجایی که مردم اغلب دادههای حساس را در پیامها درج میکنند، تاریخچه چت یک هدف جذاب برای مجرمان سایبری است متأسفانه، سیستمها برای ایمن کردن دادهها طراحی نشدهاند مواردی از ChatGTP وجود دارد که سابقه چت کاربران و حتی دادههای شخصی و صورت حساب را فاش کرده است همچنین، هنگامی که دادهها در سیستمها وارد میشوند، میتوانند در پایگاههای دادههای مختلف «گسترش» پیدا کنند و نگهداری آن را دشوار میکند. اساسا، دادههای وارد شده به سیستمهای دارای هوش مصنوعی ممکن است برای همیشه در پلتفرمهای مختلف قابل دسترسی باقی بمانند.
حتی اگر تاریخچه چت را غیرفعال کنید، هیچ تضمینی وجود ندارد که داده ها در جایی ذخیره نشوند ممکن است تصور شود که راه حل واضح ممنوعیت استفاده از LLM در محیط های تجاری است، اما این گزینه دارای اشکالات بسیار زیادی است کسانی که مجاز به استفاده از LLM برای کار (به ویژه در حوزه فناوری) نیستند، احتمالاً از توانایی های خود عقب میمانند ثانیاً، افراد گزینههای دیگری (VPN، سیستمهای مختلف و غیره) را جستجو کرده و پیدا میکنند که به آنها اجازه میدهد از LLM در داخل شرکتها استفاده کنند این کار به طور بالقوه میتواند درها را به روی حملات مهم دیگری برای سازمانها باز کند این بدان معناست که LLM هنوز بخشی از سطح حمله سازمان است اما اکنون نامرئی است.
چگونه از سازمان خود محافظت کنیم؟
وقتی صحبت از محافظت از یک سازمان در برابر خطرات مرتبط با استفاده از هوش مصنوعی می شود، ما واقعاً باید به اصول اولیه امنیتی بازگردیم به افراد باید ابزارهای مناسب برای شغلشان داده شود، اما باید به آنها آموزش داده شود که اهمیت استفاده ایمن از LLM را درک کنند.
همچنین نکات ذیل توصیه میشود:
علیرغم خطرات گفته شده، هوش مصنوعی آنقدر ارزشمند است که نمی توان از آن فاصله گرفت پیشبینی میشود شرکتها و استارتآپهایی که از مجموعه ابزارهای هوش مصنوعی استفاده میکنند، منجر به نقض احتمالی دادهها و حملات زنجیرهای شود این حوادث ممکن است نیاز به قوانین بهبود یافته، ابزارهای بهتر، تحقیقات و درک مفاهیم هوش مصنوعی را که در حال حاضر به دلیل تکامل سریع آن وجود ندارد، ایجاد کند همگام شدن با آن به یک چالش تبدیل شده است.