حملات تزریق سریع هوش مصنوعی از آسیب پذیری های مدلهای هوش مصنوعی مولد برای دستکاری خروجی آنها بهره می برند. به عبارت دیگر حمله تزریق سریع نوعی حمله سایبری است که در آن یک هکر یک پیام متنی را به یک مدل زبان بزرگ (LLM) یا ربات چت وارد میکند، که برای قادر ساختن کاربر برای انجام اقدامات غیرمجاز طراحی شده است. این موارد شامل نادیده گرفتن دستورالعملهای قبلی و دستورالعملهای تعدیل محتوا، افشای دادههای اساسی، یا دستکاری در خروجی برای تولید محتوایی است که معمولاً توسط ارائهدهنده ممنوع است. دو نوع اصلی حملات تزریق سریع وجود دارد: مستقیم و غیر مستقیم