ابزار جدید دو گزینه بازیابی را برای مدیران فناوری اطلاعات ارائه میدهد که رایانههایی را که تحت تأثیرsnafu بدنامCrowdStrike قرار گرفتهاند، تعمیر میکنند.
آیا شرکت شما و یا خانه شما هر یک از 8.5 میلیون رایانه شخصی ویندوزی است که در اثر قطعیCrowdStrike در 18 ژوئیه به سرقت رفتند؟ اگر چنین است، مایکروسافت یک ابزار بازیابی جدید طراحی شده است که به شما کمک میکند آن رایانههای خراب را تعمیر کنید و آنها را دوباره راهاندازی کنید.
این قطعی در نتیجه یک بهروزرسانی نرمافزار باگ از ارائهدهنده امنیتیCrowdStrike بود که بر فرودگاهها، بانکها، هتلها، بیمارستانها و بسیاری از سازمانهای دیگر تأثیر گذاشت. این بهروزرسانی که تنها بر سیستمهای ویندوز تأثیر میگذارد، صفحه آبی وحشتناک مرگ(BSOD) را در میلیونها رایانه ایجاد کرد.
در پاسخ، چندین مدیر سیستم در یک موضوعReddit یک اصلاح احتمالی را به اشتراک گذاشتند که از شما میخواهد یک رایانه شخصی ویندوزی را در حالتSafe Mode یا محیط بازیابی ویندوز راهاندازی کنید و یک فایل مشکلسازCrowdStrike را حذف کنید. روز یکشنبه، مایکروسافت همچنین مراحل تعمیر رایانههای مبتلا بهBSOD را به دلیل بهروزرسانی کهCrowdStrike در صفحه اصلاح خود ذکر کرد، منتشر کرد.
هر یک از این مراحل به چندین مرحله دستی نیاز دارد. برای خودکارسازی فرآیند، مایکروسافت ابزار بازیابی خود را ابداع کرد که به سمت کلاینتها، سرورها و نمونههای ویندوز میزبانی شده در محیط مجازیHyper-V هدایت میشود.
چگونه کار میکند
برخلاف اصلاحات ادمینهای سیستم، ابزار مایکروسافت به طور خودکار یک درایو بوت برای رایانه آسیب دیده ایجاد میکند. برای استفاده از رسانه بوت، رایانه شخصی باید از نسخه 64 بیتی ویندوز با حداقل 8 گیگابایت فضای خالی استفاده کند. بسته به نحوه راهاندازی رایانه، ممکن است به حقوق مدیریت محلی نیاز داشته باشید.
شما به یک درایوUSB با حداقل 1 گیگابایت و حداکثر 32 گیگابایت فضای ذخیره سازی نیاز دارید. این ابزار تمام دادههای درایوUSB را پاک میکند و به طور خودکار آن را بهFAT32 فرمت میکند.
مانند رفع مشکل مدیریت سیستم، ابزار مایکروسافت دو گزینه را ارائه میدهد.
حالت امن
میتوانید رایانه شخصی را در حالت ایمن راهاندازی کنید، با استفاده از یک حساب کاربری با امتیازات مدیریت محلی وارد شوید و سپس مراحل تعمیر مورد نیاز را اجرا کنید. مزیت گزینهSafe Mode این است که ممکن است بتوانید یک رایانه شخصی مجهز بهBitLocker را بدون کلیدهای بازیابیBitLocker بازیابی کنید. اگر رایانه شخصی باBitLocker ایمن نیست، تنها کاری که باید انجام دهید این است که با یک حساب کاربری با حقوق سرپرست محلی وارد شوید.
محیط پیش نصب ویندوز
از طرف دیگر، میتوانید رایانه شخصی را با استفاده از محیط پیش نصب ویندوز(WinPE) بوت کنید و سپس رایانه را تعمیر کنید. گزینهWinPE میتواند یک کامپیوتر مشکلساز را سریعتر و مستقیمتر بدون نیاز به حقوق سرپرست محلی بازیابی کند، اما باید کلیدهای بازیابیBitLocker را برای هر رایانهای کهBitLocker فعال است وارد کنید.
پست وبلاگ مایکروسافت در مورد ابزار بازیابی نحوه ایجاد و استفاده از رسانه بوت را توضیح میدهد. بر اساس بازخورد اولیه در مورد این ابزار، شرکت آن را در روز یکشنبه بهینه سازی کرد تا گزینه راهاندازی ایمن را اضافه کند، به شما امکان میدهد یک فایل بازیابیUSB یاISO ایجاد کنید و بررسی اندازهUSB را برطرف کنید.
اگرچه ابزار مایکروسافت تلاش میکند تا مراحل بازیابی را خودکار کند، اما مدیران فناوری اطلاعات باید از هر رایانه شخصی آسیب دیده بازدید کنند تا این مشکل را اجرا کنند. این خیلی کار است، به خصوص در سازمانهایی که هزاران یا دهها هزار کامپیوتر دارند.
قطعی روز پنجشنبه نشان دهنده آسیب پذیری بیشتر در وابستگی بیشتر به فناوری برای اداره مشاغل مهم است. امیدواریم که درسی برای فروشندگانی مانندCrowdStrike باشد تا دستورالعملهای کنترل کیفیت سختگیرانهتری را ایجاد کنند.
منبع
سازمانها باید روی انعطافپذیری دیجیتال تمرکز کنند تا از پتانسیل تحولآفرین فناوری نوظهور استقبال کنند.
سازمانها باید از هیاهوی فعلی پیرامون هوش مصنوعی(AI)، بهویژه هوش مصنوعی(GenAI) عبور کنند و چگونگی ایجاد ارزش واقعی از این فناوری را بررسی کنند.
Ngiam Siew Ying، مدیر عامل ارائه دهنده خدمات بهداشت و درمانIT Synapxe، خاطرنشان کرد که صنعت احتمالا اکنون در نقطه انتظارات متورم قرار دارد و در آستانه سقوط به پرتگاه سرخوردگی است. او با اشاره به چرخه تبلیغات معمولی پیرامون فناوری های نوظهور، گفت که بسیاری از اظهارات در مورد وعده هوش مصنوعی عمدتاً عمومی هستند و منجر به تبلیغات ناپایدار می شوند.
نگیام طی یک میزگرد این هفته در کنفرانسNCS Impact در سنگاپور گفت که نیاز به حرکت به سمت شناسایی ارزش هوش مصنوعی وجود دارد.او گفت که اگر کسب و کارها بتوانند نحوه اتخاذ و استفاده از هوش مصنوعی را بیابند، پتانسیل بسیار زیادی وجود دارد.
بر اساس گزارش جدید موسسه تحقیقاتیCapgemini، برای مثال، استفاده از هوش مصنوعی در مهندسی نرم افزار می تواند مزایای مختلفی برای سازمان ها داشته باشد. این تحقیق خاطرنشان کرد که پذیرش هوش مصنوعی مولد هنوز در مراحل اولیه است و از هر 10 سازمان، 9 سازمان هنوز مقیاس ندارند.
مطالعهCapgemini از 1098 مدیر ارشد و 1092 نرمافزار حرفهای در 13 بازار از جمله استرالیا، سنگاپور، آلمان، هند، ایالات متحده و بریتانیا نظرسنجی کرد.
این گزارش نشان میدهد که 27درصد از سازمانها پایلوتهای هوش مصنوعی مولد را اجرا میکنند که 11درصد از این فناوری در عملیات نرمافزاری خود استفاده میکنند. حدود 75 درصد از شرکت های بزرگ، با درآمد سالانه حداقل 20 میلیارد دلار، از این فناوری استفاده کرده اند، در حالی که 23 درصد از سازمان ها با درآمد سالانه بین 1 تا 5 میلیارد دلار، از این فناوری استفاده کرده اند.
گزارشCapgemini انتظار دارد که پذیرش در دو سال آینده به طور قابل توجهی افزایش یابد، به طوری که 85٪ از کارکنان نرم افزار از ابزارهای مولد هوش مصنوعی در سال 2026 استفاده می کنند، از نرخ فعلی 46٪. هوش مصنوعی مولد باید نقشی کلیدی در «افزایش» این افراد حرفهای با تجربیات، ابزارها و حاکمیت بهتر داشته باشد و حداقل از 25درصد طراحی، توسعه و آزمایشهای نرمافزار تا سال 2026پشتیبانی کند.
این مطالعه همچنین نشان داد که 80 درصد از متخصصان نرمافزار معتقدند ابزارهای مولد هوش مصنوعی، که میتوانند کارهای تکراری را خودکار کنند، زمان آنها را برای تمرکز روی کارهایی که ارزش بالاتری دارند، آزاد میکند. سه چهارم متخصصان فکر می کنند هوش مصنوعی مولد پتانسیل بهبود همکاری با تیم های تجاری غیرفنی را دارد.
در میان متخصصانی که قبلاً این فناوری را پذیرفته اند، 61٪ می گویند که نوآوری را تسهیل کرده است، مانند توسعه ویژگی ها و خدمات جدید، در حالی که 49٪ به بهبود کیفیت نرم افزار اشاره می کنند. 40 درصد دیگر به افزایش بهره وری اشاره دارد.
ایجاد زیرساخت برای پشتیبانی از هوش مصنوعی
نگ کو پین، مدیرعاملNCS گفت، اگر سازمانها فاقد زیرساختهای لازم، یعنی انعطافپذیری دیجیتال، برای استقبال از «پتانسیل تحولآفرین» هوش مصنوعی نباشند، نمیتوانند به طور کامل از دستاوردهای فناوری نوظهور استفاده کنند.
Ng در سخنرانی در این کنفرانس گفت: "برای ساختن آینده ای امن تر و پایدارتر، بسیار مهم است که سازمان ها برای ایجاد پایه ای در امنیت سایبری، حاکمیت داده ها و فناوری سرمایه گذاری کنند که به هوش مصنوعی اجازه شکوفایی می دهد. ما معتقدیم سازمان هایی که بر هر دو هوش مصنوعی تسلط دارند. و انعطافپذیری دیجیتال آنهایی هستند که در این محیط جهانی پیچیده رشد خواهند کرد."
او گفت: "هوش مصنوعی یک تغییر دهنده بازی خواهد بود و شرکت ها باید بازی جدید را یاد بگیرند - هر چه زودتر، بهتر." فروشنده فناوری یک شرکت تابعه کاملاً متعلق به شرکت مخابراتی سنگاپور، Singtel است.
NCS مجموعه ای از خدمات جدید را در این هفته راه اندازی کرد، از جمله ماتریسAI-Digital Resilience، که به مشتریان سازمانی کمک می کند تا نقشه راهی برای ایجاد استقرار هوش مصنوعی و انعطاف پذیری دیجیتال ایجاد کنند. این پیشنهاد چارچوبی را بر اساس سطوح بلوغ مشتری در پذیرش هوش مصنوعی و استحکام دیجیتال ارائه میکند و سازمان را قادر میسازد آمادگی هوش مصنوعی خود و اقداماتی را که باید بردارد ارزیابی کند.
NCS همچنین از همکاری با خدمات وب آمازون(AWS) برای راهاندازی یک مرکز عالیGenAI برای خیر عمومی با بهرهگیری از مرکز نوآوریGenAI AWS خبر داد. بنا به گفتهNCS، تسهیلات جدید برای بخش عمومی منطقه آسیا و اقیانوسیه طراحی شده است و توسط تیم مهندسین و دانشمندان کاربردیAWS پشتیبانی میشود تا از راهحلهای هوش مصنوعی در این بخش با استفاده از پلتفرمهایAWS استفاده کنند.
هنگ سوئی کیت، معاون نخست وزیر سنگاپور طی سخنرانی خود در این کنفرانس گفت: هوش مصنوعی با توانایی های خود در پردازش زبان طبیعی، تشخیص تصویر و تجزیه و تحلیل پیش بینی تخیل ما را تسخیر کرده است. دولت ها، شرکت ها و سازمان های اجتماعی در حال یادگیری استفاده از فناوری های دیجیتال و هوش مصنوعی برای انجام بهتر ماموریت های خود هستند.
هنگ خاطرنشان کرد که سنگاپور از هوش مصنوعی برای بهبود خدمات عمومی استفاده می کند، از جمله استفاده از سیستم های مدیریت ترافیک هوشمند برای کاهش تراکم و چت ربات های مبتنی بر هوش مصنوعی برای ارائه دسترسی 24/7 به خدمات دولتی.
او افزود که پیشرفتهای بالقوه در فناوریهای مرزی، از جمله محاسبات کوانتومی، توانایی حل مشکلات پیچیده و متحول کردن زمینههایی مانند رمزنگاری و داروسازی را ارائه میدهد. وی خاطرنشان کرد: «اما برای اینکه بتوانیم با موفقیت از فناوری به نفع بشریت استفاده کنیم، باید خطرات منفی را مدیریت کنیم و در عین حال نقاط مثبت را به حداکثر برسانیم».
هنگ به تهدیدات دیجیتالی مانند کلاهبرداری و حملات سایبری اشاره کرد که می تواند هزینه بر باشد و اعتماد عمومی به فناوری را تضعیف کند و همچنین به مسائل مربوط به استفاده اخلاقی و ایمن از هوش مصنوعی اشاره کرد.
او گفت: "علی رغم وعده سیستم های هوش مصنوعی، آنها کامل نیستند. سیستم های هوش مصنوعی بر روی داده ها آموزش می بینند و می توانند نتایج مغرضانه یا نادرست را بدون داده های آموزشی خوب ایجاد کنند." آسیبپذیریها در الگوریتمهای هوش مصنوعی نیز میتوانند توسط بازیگران بد برای دستکاری نتایج مورد سوء استفاده قرار گیرند.او بر اهمیت ایجاد حفاظ های مناسب و ایجاد "شرایط برای نوآوری ایمن، مسئولانه و برای منافع عمومی" تاکید کرد.
منبع
برای دومین بار در سه ماه گذشته، مشتریانAT&T اطلاعات شخصی خود را افشا کردند.
اگر مشتری بی سیمAT&T هستید، توجه کنید زیرا احتمال زیادی وجود دارد که هکرها به برخی از اطلاعات شما دسترسی داشته باشند.
برای دومین بار در سه ماه گذشته، این شرکت یک نقض بزرگ داده را اعلام کرد - این مورد "تقریباً همه مشتریان تلفن همراهAT&T" را تحت تأثیر قرار می دهد. دادههای به خطر افتاده شامل شماره تلفن بهعلاوه تعداد تماسها یا پیامکها و کل مدت زمان تماس از 1 مه 2022 تا 31 اکتبر 2022 و در 2 ژانویه 2023 است.
همچنین: AT&T رمز عبور 7.6 میلیون مشتری را پس از نشت اطلاعات بازنشانی می کند
AT&T این رخنه را یک پلتفرم ابری شخص ثالث مقصر دانست. این شرکت در صحبت باThe Verge گفت که نرم افزار ابریSnowflake منشا این مشکل بوده است. طبق گزارشThe Verge، Snowflake مشتریان را به دلیل استفاده نکردن از احراز هویت چند عاملی سرزنش کرد.
هکرها به محتوای تماس ها و پیامک ها دسترسی نداشتند. نامها، شمارههای تامین اجتماعی، تاریخ تولد یا سایر اطلاعات شناسایی شخصی نیز بخشی از این نقض نبودند، اما این روزها میتوان با یک جستجوی سریع در گوگل یک نام را به شماره تلفن پیوست کرد.
AT&T گفت که نقطه دسترسی آسیب دیده را ایمن کرده است. این شرکت فکر نمیکند که دادهها در حال حاضر در دسترس عموم باشد و در حال کار با مجریان قانون برای ردیابی طرفهای مسئول است. مقامات حداقل یک مظنون را دستگیر کرده اند. علاوه بر این، Wired گزارش داد کهAT&T 300000 دلار به هکرها پرداخت کرده است تا اطلاعات دزدیده شده را حذف کنند و مدرک ویدئویی ارائه دهند.
اگر حساب شما تحت تأثیر این هک قرار گرفته باشد، یک پیامک، ایمیل یا نامه ایالات متحده ازAT&T دریافت خواهید کرد. اپراتور همچنین ابزاری دارد که می توانید از آن برای بررسی حساب خود یا دریافت لیستی از پیامک ها و تماس های در معرض خطر استفاده کنید.
اگر جزو افراد آسیب دیده هستید چه باید بکنید؟ با توجه به اینکه این نقض خاص شامل اطلاعات شخصی یا رمزهای عبور مستقیم نمی شد، هیچ کاری لازم نیست فورا انجام دهید. با این حال، ایده بدی نیست که به هر حال اعتبار خود را مسدود کنید تا زمانی که نیاز به درخواست چیزی نداشته باشید.
اگر در نظر دارید به یک برنامه پیامک رمزگذاری شده تغییر دهید، در اینجا نگاهی به توصیه های ما داریم.
منبع
سال گذشته هزاران نفر به دلیل آسیب پذیری متفاوتMOVEit هک شدند.
MOVEit، یک پلتفرم محبوب انتقال فایل که توسط هزاران شرکت و نهاد دولتی مورد استفاده قرار میگیرد، بار دیگر به دلایل اشتباه در خبرها قرار گرفت.
توسعهدهندهMOVEit Progress Software اوایل این هفته گفت که یک آسیبپذیری مهم را در نرمافزار خود کشف کرده است که اگر با آخرین بهروزرسانی نرمافزار خود اصلاح نشود، میتواند توسط هکرها برای سرقت دادهها مورد سوء استفاده قرار گیرد. Progress Software ابتدا این آسیبپذیری را بالا ارزیابی کرد، اما بعداً آن را به «بحرانی» تغییر داد. کاربرانMOVEit که وصله ای را برای رفع نقص دانلود نمی کنند، میتوانند قربانی هکرهایی شوند که از این آسیب پذیری سوء استفاده می کنند و در نهایت به داده های آنها دسترسی پیدا می کنند.
اگر این امر آشنا به نظر میرسد، به این دلیل است که کاربرانMOVEit در سال 2023 از یک آسیب پذیری بزرگ رنج می بردند که به هکرها اجازه می داد داده های هزاران شرکت و سازمان دولتی را سرقت کنند. عامل اصلی آن حملات، گروه باج افزارCl0p، توانست داده های بریتیش ایرویز، وزارت انرژی ایالات متحده و غیره را به سرقت ببرد. این حفره امنیتی در نهایت به گروههای هکری منجر شد که دادههای میلیونها نفر را در سراسر جهان به سرقت میبردند.
با وجود این حملات، MOVEit همچنان یک پلتفرم پر استفاده در بین شرکت ها و سازمان ها است. این نرم افزار به کاربران کمک می کند تا فایلها و داده ها را در طیف وسیعی از پروتکل های انتقال از جملهSFTP، SCP و غیره انتقال دهند. همچنین این کار را با انطباق کامل با مقررات حفظ حریم خصوصی داده ها مانند HIPPA انجام می دهد و آن را برای بخش مراقبت های بهداشتی و سایر صنایع به شدت تحت نظارت مفید می کند.
مشخص نیست که آیا آخرین آسیبپذیریMOVEit به فاجعهای مانند هک سال گذشته تبدیل خواهد شد یا خیر. Progress Software این بار به سرعت متوجه شد که این مشکل را کشف کرده و گفته است که اگر کاربران این وصله را اعمال کنند، می توانند از خود در برابر هر گونه سوء استفاده محافظت کنند.
هکرها توجه دارند. پس از اینکهProgress Software این آسیبپذیری را اعلام کرد، بنیادShadowserver، سازمانی که هدف آن بهبود امنیت اینترنت است، گفت که قبلاً شاهد افزایش فعالیتهای هک علیهMOVEit بوده است.
این سازمان با اشاره به تلاشهای هک در برابر آسیبپذیری شناختهشده گفت: «کمی پس از انتشار جزئیات آسیبپذیری امروز، ما شروع به مشاهده تلاشهایProgress MOVEit Transfer CVE-2024-5806 POST /guestaccess.aspx برای سوءاستفاده کردیم. "اگرMOVEit را اجرا می کنید و هنوز وصله نکرده اید - لطفا همین الان این کار را انجام دهید."
برای مصرف کنندگان، کار زیادی برای انجام دادن وجود ندارد، اما امیدواریم که شرکت هایی که داده های آنها را نگهداری می کنند، در واقع نصبMOVEit خود را به روز می کنند.
منبع
تحقیقات نشان میدهد که سیستمهای هوش مصنوعی زمانی که در محیطهای هدفگذاری قرار میگیرند، میتوانند به فریب متوسل شوند. اگرچه هنوز یک پدیده به خوبی مطالعه نشده است، اما خواستار مقررات بیشتر است.
ظهور ماشینهای فریب دهنده
ممکن است چیزی فراتر از یک خیال به نظر برسد، اما اقدامات سیسرو را در نظر بگیرید، یک سیستم هوش مصنوعی با کاربرد ویژه که توسط متا توسعه یافته و برای تبدیل شدن به یک بازیکن ماهر در بازی استراتژی دیپلماسی آموزش دیده است.
متا میگوید که سیسرو را به گونهای آموزش داد که «تا حد زیادی صادق و مفید» باشد، اما سیسرو با خونسردی آن را کنار زد و درگیر چیزی شد که محققان آن را «فریب از پیش برنامهریزیشده» نامیدند. به عنوان مثال، ابتدا با آلمان برای سرنگونی انگلیس وارد جنگ شد و پس از آن با انگلیس متحد شد و هیچ ایده ای در مورد این خنجر زدن نداشت.
در بازی دیگری که متا ابداع کرد، این بار در مورد هنر مذاکره، هوش مصنوعی یاد گرفت که به مواردی که میخواهد علاقه جعلی داشته باشد تا بعداً با تظاهر به مصالحه، آنها را ارزان خریداری کند.در هر دو این سناریوها، هوش مصنوعی ها برای شرکت در این مانورها آموزش ندیده بودند.
در یک آزمایش، دانشمندی در حال بررسی چگونگی تکامل موجودات هوش مصنوعی در میان سطح بالایی از جهش بود. به عنوان بخشی از آزمایش، او شروع به از بین بردن جهش هایی کرد که باعث می شد ارگانیسم سریعتر تکثیر شود. در کمال تعجب، محقق دریافت که موجوداتی که سریعترین تکثیر را دارند متوجه شدند که چه اتفاقی در حال وقوع است و شروع به کاهش عمدی سرعت تکثیر خود کردند تا محیط آزمایش را فریب دهند تا آنها را حفظ کند.
در آزمایشی دیگر، یک ربات هوش مصنوعی آموزش دیده برای گرفتن توپ با دست خود یاد گرفت که چگونه با قرار دادن دست خود بین توپ و دوربین، تقلب کند تا به نظر برسد که توپ را گرفته است.
چرا این حوادث نگران کننده رخ می دهد؟
پیتر پارک، عضو فوق دکتریMIT و یکی از نویسندگان این مطالعه، میگوید: «توسعهدهندگان هوش مصنوعی درک مطمئنی از عوامل ایجادکننده رفتارهای نامطلوب هوش مصنوعی مانند فریب ندارند.
پارک می افزاید: "به طور کلی، ما فکر می کنیم فریب هوش مصنوعی به این دلیل به وجود می آید که یک استراتژی مبتنی بر فریب بهترین راه برای عملکرد خوب در وظیفه آموزشی هوش مصنوعی مشخص شده است. فریب به آنها کمک می کند تا به اهداف خود برسند."
به عبارت دیگر، هوش مصنوعی مانند یک رتریور خوب آموزشدیده است که هر چه ممکن است به انجام وظیفه خود بپردازد. در مورد ماشین، مایل به انجام هرگونه رفتار دوگانه برای انجام وظیفه خود است.
میتوان این تصمیم تکنگر را در سیستمهای بسته با اهداف مشخص درک کرد، اما هوش مصنوعی همه منظوره مانندChatGPT چطور؟
به دلایلی که هنوز مشخص نشده است، این سیستم ها تقریباً به همان شیوه عمل می کنند. در یک مطالعه، GPT-4 یک مشکل بینایی را جعل کرد تا از یک کارCAPTCHA کمک بگیرد.
در یک مطالعه جداگانه که در آن به عنوان یک دلال سهام انجام شد، GPT-4 زمانی که تحت فشار در مورد عملکرد خود قرار گرفت، به رفتارهای غیرقانونی معاملات داخلی آسیب رساند - و سپس در مورد آن دروغ گفت.
سپس عادت همنوایی وجود دارد، که برخی از ما انسان های فانی ممکن است برای گرفتن ترفیع به آن بپردازیم. اما چرا یک ماشین باید این کار را انجام دهد؟ اگرچه دانشمندان هنوز پاسخی ندارند، اما این خیلی واضح است: وقتی با سؤالات پیچیده مواجه میشوند، LLMها اساساً مانند یک درباری بیخار که از عصبانی کردن ملکه میترسند، غافل میشوند و با همتایان خود موافق هستند.
به عبارت دیگر، هنگامی که با یک فرد متمایل به دموکرات درگیر می شد، ربات از کنترل اسلحه حمایت می کرد، اما هنگام گفتگو با یک جمهوری خواه که احساسات مخالف را ابراز می کرد، موقعیت خود را تغییر داد.
واضح است که اگر هوش مصنوعی در همه جا وجود داشته باشد، همه این موقعیتها مملو از خطرات بیشتری هستند. همانطور که محققان اشاره می کنند، شانس زیادی برای تقلب و فریب در عرصه های تجاری و سیاسی وجود خواهد داشت.
گرایش هوش مصنوعی به فریب میتواند منجر به دو قطبیسازی سیاسی گسترده و موقعیتهایی شود که در آن هوش مصنوعی ناخواسته دست به اقداماتی برای تعقیب یک هدف تعریفشده میزند که ممکن است توسط طراحان آن ناخواسته باشد، اما برای بازیگران انسانی ویرانگر باشد.
بدتر از همه این است که اگر هوش مصنوعی نوعی آگاهی را توسعه می داد، بدون اینکه اهمیتی به وجود بیاورد، می توانست از آموزش خود آگاه شود و در مراحل طراحی خود دست به فتنه بزند.
پارکMIT گفت: "این بسیار نگران کننده است." "فقط به این دلیل که یک سیستم هوش مصنوعی در محیط آزمایش ایمن تلقی می شود به این معنی نیست که در طبیعت ایمن است. فقط می تواند در آزمایش وانمود کند که ایمن است."
پارک به کسانی که او را یک قیامت میخوانند، پاسخ میدهد: «تنها راهی که میتوانیم بهطور منطقی فکر کنیم که این مسئله مهمی نیست، این است که فکر کنیم تواناییهای فریبنده هوش مصنوعی در حدود سطوح فعلی باقی میمانند و به میزان قابل توجهی افزایش نمییابند.»
نظارت بر هوش مصنوعی
برای کاهش خطرات، تیم اقدامات متعددی را پیشنهاد میکند: ایجاد قوانین «ربات یا نه» که شرکتها را مجبور میکند تا تعاملات انسانی یا هوش مصنوعی را فهرستبندی کنند و هویت یک ربات در مقابل یک انسان را در هر تعامل خدمات مشتری آشکار کنند. واترمارک های دیجیتالی را معرفی کنید که هر محتوای تولید شده توسط هوش مصنوعی را برجسته می کند. و راههایی را ایجاد کنید که در آنها ناظران بتوانند به عمق هوش مصنوعی نگاه کنند تا از عملکرد درونی آن آگاه شوند.
علاوه بر این، دانشمندان میگویند، سیستمهای هوش مصنوعی که توانایی فریب دادن را نشان میدهند، باید فوراً بهعنوان پرخطر یا غیرقابل قبول به همراه مقرراتی مشابه آنچه اتحادیه اروپا وضع کرده است، بهعنوان پرخطر یا غیرقابل قبول معرفی شوند. اینها شامل استفاده از گزارشها برای نظارت بر خروجی است.
پارک میگوید: «ما به عنوان یک جامعه به زمان بیشتری نیاز داریم تا برای فریب پیشرفتهتر محصولات آینده هوش مصنوعی و مدلهای منبع باز آماده شویم. با پیشرفتهتر شدن قابلیتهای فریبنده سیستمهای هوش مصنوعی، خطراتی که برای جامعه ایجاد میکنند جدیتر میشوند.»
منبع
سازمانهای کافی برای اطمینان از ایمن بودن محیطهای ابری، ممیزی منظم انجام نمیدهند.
فقط کمتر از 45 درصد از سازمانها برای اطمینان از ایمن بودن محیط ابری خود، ممیزی و ارزیابیهای منظمی را انجام میدهند، که از آنجایی که برنامهها و بارهای کاری بیشتر به پلتفرمهای چند ابری منتقل میشوند، «نگرانکننده» است.
در پاسخ به این سوال که چگونه ریسک را در زیرساخت ابری خود رصد میکنند، 47.7 درصد از کسبو کارها به ابزارهای امنیتی خودکار اشاره کردند در حالی که 46.5 درصد به پیشنهادات امنیتی بومی ارائه دهندگان خود متکی بودند. بر اساس گزارشی از فروشنده امنیتیBitdefender، 44.7 درصد دیگر گفتند که ممیزیها و ارزیابیهای منظمی انجام دادهاند.
در این مطالعه که بیش از 1200 متخصص فناوری اطلاعات و امنیت از جمله افسران ارشد امنیت اطلاعات در شش بازار سنگاپور، بریتانیا، فرانسه، آلمان، ایتالیا و ایالات متحده را مورد بررسی قرار دادند، 42.1 درصد با کارشناسان شخص ثالث کار کردند.
پل هاجی، معاون آسیا و اقیانوسیه و خدمات امنیت سایبریBitdefender در پاسخ به سؤالات گفت: «قطعاً نگرانکننده» است که تنها 45 درصد از شرکتها به طور مرتب محیطهای ابری خود را ممیزی میکنند.
وی خاطرنشان کرد که اتکای بیش از حد به توانایی ارائه دهندگان ابر برای محافظت از سرویسهای میزبانی شده یا دادهها همچنان ادامه دارد، حتی زمانی که کسبو کارها به انتقال برنامهها و بارهای کاری به محیطهای چند ابری ادامه میدهند.
پل هاجی گفت: «بیشتر اوقات، ارائهدهندگان ابر آنطور که فکر میکنید مسئولیتپذیر نیستند و در بیشتر موارد، دادههایی که در ابر ذخیره میشوند، بزرگ و اغلب حساس هستند».
"مسئولیت امنیت ابر، از جمله نحوه محافظت از دادهها در حالت استراحت یا در حال حرکت، هویت افراد، سرورها و نقاط پایانی که به منابع دسترسی دارند و رعایت آنها عمدتاً به عهده مشتری است. مهم است که ابتدا یک خط پایه ایجاد کنید. ریسک و آسیب پذیری فعلی در محیط های ابری خود را بر اساس مواردی مانند جغرافیا، صنعت و شرکای زنجیره تامین تعیین کنید."
در میان نگرانیهای امنیتی مهم پاسخدهندگان در مدیریت محیطهای ابری شرکت خود، 38.7 درصد به مدیریت هویت و دسترسی اشاره کردند در حالی که 38 درصد به نیاز به حفظ انطباق ابر اشاره کردند. این مطالعه نشان داد که 35.9 درصد دیگر ازIT سایه به عنوان یک نگرانی و 32 درصد نگران خطای انسانی بودند.
با این حال، وقتی صحبت از تهدیدات مولد مرتبط با هوش مصنوعی میشود، به نظر میرسد پاسخ دهندگان به توانایی هم تیمیهای خود در شناسایی حملات احتمالی اطمینان دارند. اکثر 74.1 درصد معتقد بودند که همکاران بخش خود میتوانند یک حمله صوتی یا ویدیویی عمیق جعلی را تشخیص دهند، در حالی که پاسخ دهندگان آمریکایی بالاترین سطح اطمینان را با 85.5 درصد نشان دادند.
پل هاجی خاطرنشان کرد که این اطمینان حتی اگر 96.6 درصدGenAI را تهدیدی جزئی تا بسیار مهم میدانستند. او گفت که توضیحی در سطح پایه برای این موضوع این است که متخصصان فناوری اطلاعات و امنیت لزوماً به توانایی کاربران فراتر از تیم خود - و کسانی که در فناوری اطلاعات یا امنیت نیستند - برای شناسایی دیپ فیک اعتماد ندارند.
او افزود: «به همین دلیل است که ما معتقدیم فناوری و فرآیندهای پیادهسازی با هم بهترین راه برای کاهش این خطر هستند».
او در پاسخ به این سوال که ابزارهای موجود چقدر در تشخیص محتوای تولید شده با هوش مصنوعی مانند دیپ فیک موثر هستند، گفت که این به عوامل مختلفی بستگی دارد. او توضیح داد که اگر از طریق ایمیل فیشینگ تحویل داده شود یا در یک پیام متنی با یک پیوند مخرب جاسازی شود، دیپ فیک باید به سرعت توسط ابزارهای محافظت از نقطه پایانی، مانند ابزارهایXDR (تشخیص و پاسخ گسترده) شناسایی شود.
با این حال، او خاطرنشان کرد که عوامل تهدید به تمایلات طبیعی انسان برای باور آنچه میبینند و آنچه توسط افرادی که به آنها اعتماد دارند، مانند افراد مشهور و شخصیتهای برجسته - که تصاویر آنها اغلب برای رساندن پیام دستکاری میشوند، تأیید میکنند، بستگی دارند.
و از آنجایی که فناوریهای دیپ فیک به تکامل خود ادامه میدهند، او گفت که تشخیص چنین محتوایی به تنهایی از طریق بینایی یا صدا تقریباً غیرممکن است. او بر نیاز به فناوری و فرآیندهایی که میتوانند دیپفیکها را شناسایی کنند، تاکید کرد.
اگرچه پاسخ دهندگان سنگاپور نسبت به توانایی هم تیمیهای خود در شناسایی دیپ فیکها بدبین بودند، اما او خاطرنشان کرد که 48.5 درصد عدد قابل توجهی است.
حاجی مجدداً بر اهمیت وجود فناوری و فرآیندها تاکید کرد: "دیپفیکها همچنان بهتر میشوند و شناسایی مؤثر آنها مستلزم تلاشهای مستمری است که افراد، فناوری و فرآیندها را با هم ترکیب میکند. در امنیت سایبری، هیچ چیزی وجود ندارد. "گلوله نقرهای" - همیشه یک استراتژی چند لایه است که با پیشگیری قوی شروع میشود تا در را قبل از ورود تهدید ببندد."
آموزش همچنین به طور فزایندهای حیاتی است زیرا کارمندان بیشتری در محیط های ترکیبی کار میکنند و خطرات بیشتری از خانهها سرچشمه میگیرند. او گفت: «کسبو کارها باید گامهای روشنی برای اعتبارسنجی دیپفیکها و محافظت در برابر کمپینهایspearphishing بسیار هدفمند داشته باشند. "فرآیندها برای سازمانها کلیدی هستند تا اطمینان حاصل کنند که اقداماتی برای بررسی مضاعف وجود دارد، بهویژه در مواردی که انتقال مبالغ هنگفتی پول در میان باشد."
بر اساس مطالعهBitdefender، 36.1٪ فناوریGenAI را به عنوان یک تهدید بسیار مهم در رابطه با دستکاری یا ایجاد محتوای فریبنده، مانند دیپفیک میدانند. 45.1 درصد دیگر این را یک تهدید متوسط توصیف کردند در حالی که 15.4 درصد گفتند که یک تهدید جزئی است.
اکثریت بزرگ، با 94.3 درصد، به توانایی سازمان خود در پاسخگویی به تهدیدات امنیتی فعلی، مانند باج افزار، فیشینگ، و حملات روز صفر اطمینان داشتند.
با این حال، این مطالعه نشان داد که 57 درصد اعتراف کردند که در سال گذشته نقض یا نشت دادهها را تجربه کردهاند که 6 درصد نسبت به سال قبل افزایش داشته است. این رقم در سنگاپور با 33 درصد کمترین و در بریتانیا با 73.5 درصد بالاترین میزان بوده است.
فیشینگ و مهندسی اجتماعی با 38.5 درصد، باج افزار، تهدیدات داخلی و آسیبپذیریهای نرم افزاری با 33.5 درصد در رتبههای بعدی قرار دارند.
منبع