‫ fars_sakha بلاگ

سازمان‌ها باید روی انعطاف‌پذیری دیجیتال تمرکز کنند تا از پتانسیل تحول‌آفرین فناوری نوظهور استقبال کنند.

سازمان‌ها باید از هیاهوی فعلی پیرامون هوش مصنوعی(AI)، به‌ویژه هوش مصنوعی(GenAI) عبور کنند و چگونگی ایجاد ارزش واقعی از این فناوری را بررسی کنند.

Ngiam Siew Ying، مدیر عامل ارائه دهنده خدمات بهداشت و درمانIT Synapxe، خاطرنشان کرد که صنعت احتمالا اکنون در نقطه انتظارات متورم قرار دارد و در آستانه سقوط به پرتگاه سرخوردگی است. او با اشاره به چرخه تبلیغات معمولی پیرامون فناوری های نوظهور، گفت که بسیاری از اظهارات در مورد وعده هوش مصنوعی عمدتاً عمومی هستند و منجر به تبلیغات ناپایدار می شوند.

نگیام طی یک میزگرد این هفته در کنفرانسNCS Impact در سنگاپور گفت که نیاز به حرکت به سمت شناسایی ارزش هوش مصنوعی وجود دارد.او گفت که اگر کسب و کارها بتوانند نحوه اتخاذ و استفاده از هوش مصنوعی را بیابند، پتانسیل بسیار زیادی وجود دارد.

بر اساس گزارش جدید موسسه تحقیقاتیCapgemini، برای مثال، استفاده از هوش مصنوعی در مهندسی نرم افزار می تواند مزایای مختلفی برای سازمان ها داشته باشد. این تحقیق خاطرنشان کرد که پذیرش هوش مصنوعی مولد هنوز در مراحل اولیه است و از هر 10 سازمان، 9 سازمان هنوز مقیاس ندارند.

مطالعهCapgemini از 1098 مدیر ارشد و 1092 نرم‌افزار حرفه‌ای در 13 بازار از جمله استرالیا، سنگاپور، آلمان، هند، ایالات متحده و بریتانیا نظرسنجی کرد.

این گزارش نشان می‌دهد که 27درصد از سازمان‌ها پایلوت‌های هوش مصنوعی مولد را اجرا می‌کنند که 11درصد از این فناوری در عملیات نرم‌افزاری خود استفاده می‌کنند. حدود 75 درصد از شرکت های بزرگ، با درآمد سالانه حداقل 20 میلیارد دلار، از این فناوری استفاده کرده اند، در حالی که 23 درصد از سازمان ها با درآمد سالانه بین 1 تا 5 میلیارد دلار، از این فناوری استفاده کرده اند.

گزارشCapgemini انتظار دارد که پذیرش در دو سال آینده به طور قابل توجهی افزایش یابد، به طوری که 85٪ از کارکنان نرم افزار از ابزارهای مولد هوش مصنوعی در سال 2026 استفاده می کنند، از نرخ فعلی 46٪. هوش مصنوعی مولد باید نقشی کلیدی در «افزایش» این افراد حرفه‌ای با تجربیات، ابزارها و حاکمیت بهتر داشته باشد و حداقل از 25درصد طراحی، توسعه و آزمایش‌های نرم‌افزار تا سال 2026پشتیبانی کند.

این مطالعه همچنین نشان داد که 80 درصد از متخصصان نرم‌افزار معتقدند ابزارهای مولد هوش مصنوعی، که می‌توانند کارهای تکراری را خودکار کنند، زمان آن‌ها را برای تمرکز روی کارهایی که ارزش بالاتری دارند، آزاد می‌کند. سه چهارم متخصصان فکر می کنند هوش مصنوعی مولد پتانسیل بهبود همکاری با تیم های تجاری غیرفنی را دارد.

در میان متخصصانی که قبلاً این فناوری را پذیرفته اند، 61٪ می گویند که نوآوری را تسهیل کرده است، مانند توسعه ویژگی ها و خدمات جدید، در حالی که 49٪ به بهبود کیفیت نرم افزار اشاره می کنند. 40 درصد دیگر به افزایش بهره وری اشاره دارد.

ایجاد زیرساخت برای پشتیبانی از هوش مصنوعی
نگ کو پین، مدیرعاملNCS گفت، اگر سازمان‌ها فاقد زیرساخت‌های لازم، یعنی انعطاف‌پذیری دیجیتال، برای استقبال از «پتانسیل تحول‌آفرین» هوش مصنوعی نباشند، نمی‌توانند به طور کامل از دستاوردهای فناوری نوظهور استفاده کنند.

Ng در سخنرانی در این کنفرانس گفت: "برای ساختن آینده ای امن تر و پایدارتر، بسیار مهم است که سازمان ها برای ایجاد پایه ای در امنیت سایبری، حاکمیت داده ها و فناوری سرمایه گذاری کنند که به هوش مصنوعی اجازه شکوفایی می دهد. ما معتقدیم سازمان هایی که بر هر دو هوش مصنوعی تسلط دارند. و انعطاف‌پذیری دیجیتال آنهایی هستند که در این محیط جهانی پیچیده رشد خواهند کرد."

او گفت: "هوش مصنوعی یک تغییر دهنده بازی خواهد بود و شرکت ها باید بازی جدید را یاد بگیرند - هر چه زودتر، بهتر." فروشنده فناوری یک شرکت تابعه کاملاً متعلق به شرکت مخابراتی سنگاپور، Singtel است.

NCS مجموعه ای از خدمات جدید را در این هفته راه اندازی کرد، از جمله ماتریسAI-Digital Resilience، که به مشتریان سازمانی کمک می کند تا نقشه راهی برای ایجاد استقرار هوش مصنوعی و انعطاف پذیری دیجیتال ایجاد کنند. این پیشنهاد چارچوبی را بر اساس سطوح بلوغ مشتری در پذیرش هوش مصنوعی و استحکام دیجیتال ارائه می‌کند و سازمان را قادر می‌سازد آمادگی هوش مصنوعی خود و اقداماتی را که باید بردارد ارزیابی کند.

NCS همچنین از همکاری با خدمات وب آمازون(AWS) برای راه‌اندازی یک مرکز عالیGenAI برای خیر عمومی با بهره‌گیری از مرکز نوآوریGenAI AWS خبر داد. بنا به گفتهNCS، تسهیلات جدید برای بخش عمومی منطقه آسیا و اقیانوسیه طراحی شده است و توسط تیم مهندسین و دانشمندان کاربردیAWS پشتیبانی می‌شود تا از راه‌حل‌های هوش مصنوعی در این بخش با استفاده از پلتفرم‌هایAWS استفاده کنند.

هنگ سوئی کیت، معاون نخست وزیر سنگاپور طی سخنرانی خود در این کنفرانس گفت: هوش مصنوعی با توانایی های خود در پردازش زبان طبیعی، تشخیص تصویر و تجزیه و تحلیل پیش بینی تخیل ما را تسخیر کرده است. دولت ها، شرکت ها و سازمان های اجتماعی در حال یادگیری استفاده از فناوری های دیجیتال و هوش مصنوعی برای انجام بهتر ماموریت های خود هستند.

هنگ خاطرنشان کرد که سنگاپور از هوش مصنوعی برای بهبود خدمات عمومی استفاده می کند، از جمله استفاده از سیستم های مدیریت ترافیک هوشمند برای کاهش تراکم و چت ربات های مبتنی بر هوش مصنوعی برای ارائه دسترسی 24/7 به خدمات دولتی.

او افزود که پیشرفت‌های بالقوه در فناوری‌های مرزی، از جمله محاسبات کوانتومی، توانایی حل مشکلات پیچیده و متحول کردن زمینه‌هایی مانند رمزنگاری و داروسازی را ارائه می‌دهد. وی خاطرنشان کرد: «اما برای اینکه بتوانیم با موفقیت از فناوری به نفع بشریت استفاده کنیم، باید خطرات منفی را مدیریت کنیم و در عین حال نقاط مثبت را به حداکثر برسانیم».

هنگ به تهدیدات دیجیتالی مانند کلاهبرداری و حملات سایبری اشاره کرد که می تواند هزینه بر باشد و اعتماد عمومی به فناوری را تضعیف کند و همچنین به مسائل مربوط به استفاده اخلاقی و ایمن از هوش مصنوعی اشاره کرد.

او گفت: "علی رغم وعده سیستم های هوش مصنوعی، آنها کامل نیستند. سیستم های هوش مصنوعی بر روی داده ها آموزش می بینند و می توانند نتایج مغرضانه یا نادرست را بدون داده های آموزشی خوب ایجاد کنند." آسیب‌پذیری‌ها در الگوریتم‌های هوش مصنوعی نیز می‌توانند توسط بازیگران بد برای دستکاری نتایج مورد سوء استفاده قرار گیرند.او بر اهمیت ایجاد حفاظ های مناسب و ایجاد "شرایط برای نوآوری ایمن، مسئولانه و برای منافع عمومی" تاکید کرد.

 

منبع

زدنت

 

برای دومین بار در سه ماه گذشته، مشتریانAT&T اطلاعات شخصی خود را افشا کردند

اگر مشتری بی سیمAT&T هستید، توجه کنید زیرا احتمال زیادی وجود دارد که هکرها به برخی از اطلاعات شما دسترسی داشته باشند.

برای دومین بار در سه ماه گذشته، این شرکت یک نقض بزرگ داده را اعلام کرد - این مورد "تقریباً همه مشتریان تلفن همراهAT&T" را تحت تأثیر قرار می دهد. داده‌های به خطر افتاده شامل شماره تلفن به‌علاوه تعداد تماس‌ها یا پیامک‌ها و کل مدت زمان تماس از 1 مه 2022 تا 31 اکتبر 2022 و در 2 ژانویه 2023 است.

همچنین: AT&T رمز عبور 7.6 میلیون مشتری را پس از نشت اطلاعات بازنشانی می کند

AT&T این رخنه را یک پلتفرم ابری شخص ثالث مقصر دانست. این شرکت در صحبت باThe Verge گفت که نرم افزار ابریSnowflake منشا این مشکل بوده است. طبق گزارشThe Verge، Snowflake مشتریان را به دلیل استفاده نکردن از احراز هویت چند عاملی سرزنش کرد.

هکرها به محتوای تماس ها و پیامک ها دسترسی نداشتند. نام‌ها، شماره‌های تامین اجتماعی، تاریخ تولد یا سایر اطلاعات شناسایی شخصی نیز بخشی از این نقض نبودند، اما این روزها می‌توان با یک جستجوی سریع در گوگل یک نام را به شماره تلفن پیوست کرد.

AT&T گفت که نقطه دسترسی آسیب دیده را ایمن کرده است. این شرکت فکر نمی‌کند که داده‌ها در حال حاضر در دسترس عموم باشد و در حال کار با مجریان قانون برای ردیابی طرف‌های مسئول است. مقامات حداقل یک مظنون را دستگیر کرده اند. علاوه بر این، Wired گزارش داد کهAT&T 300000 دلار به هکرها پرداخت کرده است تا اطلاعات دزدیده شده را حذف کنند و مدرک ویدئویی ارائه دهند.

اگر حساب شما تحت تأثیر این هک قرار گرفته باشد، یک پیامک، ایمیل یا نامه ایالات متحده ازAT&T دریافت خواهید کرد. اپراتور همچنین ابزاری دارد که می توانید از آن برای بررسی حساب خود یا دریافت لیستی از پیامک ها و تماس های در معرض خطر استفاده کنید.

اگر جزو افراد آسیب دیده هستید چه باید بکنید؟ با توجه به اینکه این نقض خاص شامل اطلاعات شخصی یا رمزهای عبور مستقیم نمی شد، هیچ کاری لازم نیست فورا انجام دهید. با این حال، ایده بدی نیست که به هر حال اعتبار خود را مسدود کنید تا زمانی که نیاز به درخواست چیزی نداشته باشید.

اگر در نظر دارید به یک برنامه پیامک رمزگذاری شده تغییر دهید، در اینجا نگاهی به توصیه های ما داریم.

 

منبع

زدنت

سال گذشته هزاران نفر به دلیل آسیب پذیری متفاوتMOVEit هک شدند.

MOVEit، یک پلتفرم محبوب انتقال فایل که توسط هزاران شرکت و نهاد دولتی مورد استفاده قرار می‌گیرد، بار دیگر به دلایل اشتباه در خبرها قرار گرفت.

توسعه‌دهندهMOVEit Progress Software اوایل این هفته گفت که یک آسیب‌پذیری مهم را در نرم‌افزار خود کشف کرده است که اگر با آخرین به‌روزرسانی نرم‌افزار خود اصلاح نشود، می‌تواند توسط هکرها برای سرقت داده‌ها مورد سوء استفاده قرار گیرد. Progress Software ابتدا این آسیب‌پذیری را بالا ارزیابی کرد، اما بعداً آن را به «بحرانی» تغییر داد. کاربرانMOVEit که وصله ای را برای رفع نقص دانلود نمی کنند، می‌توانند قربانی هکرهایی شوند که از این آسیب پذیری سوء استفاده می کنند و در نهایت به داده های آنها دسترسی پیدا می کنند.

اگر این امر آشنا به نظر می‌رسد، به این دلیل است که کاربرانMOVEit در سال 2023 از یک آسیب پذیری بزرگ رنج می بردند که به هکرها اجازه می داد داده های هزاران شرکت و سازمان دولتی را سرقت کنند. عامل اصلی آن حملات، گروه باج افزارCl0p، توانست داده های بریتیش ایرویز، وزارت انرژی ایالات متحده و غیره را به سرقت ببرد. این حفره امنیتی در نهایت به گروه‌های هکری منجر شد که داده‌های میلیون‌ها نفر را در سراسر جهان به سرقت می‌بردند.

با وجود این حملات، MOVEit همچنان یک پلتفرم پر استفاده در بین شرکت ها و سازمان ها است. این نرم افزار به کاربران کمک می کند تا فایل‌ها و داده ها را در طیف وسیعی از پروتکل های انتقال از جملهSFTP، SCP و غیره انتقال دهند. همچنین این کار را با انطباق کامل با مقررات حفظ حریم خصوصی داده ها مانند HIPPA انجام می دهد و آن را برای بخش مراقبت های بهداشتی و سایر صنایع به شدت تحت نظارت مفید می کند.

مشخص نیست که آیا آخرین آسیب‌پذیریMOVEit به فاجعه‌ای مانند هک سال گذشته تبدیل خواهد شد یا خیر. Progress Software این بار به سرعت متوجه شد که این مشکل را کشف کرده و گفته است که اگر کاربران این وصله را اعمال کنند، می توانند از خود در برابر هر گونه سوء استفاده محافظت کنند.

هکرها توجه دارند. پس از اینکهProgress Software این آسیب‌پذیری را اعلام کرد، بنیادShadowserver، سازمانی که هدف آن بهبود امنیت اینترنت است، گفت که قبلاً شاهد افزایش فعالیت‌های هک علیهMOVEit بوده است.

این سازمان با اشاره به تلاش‌های هک در برابر آسیب‌پذیری شناخته‌شده گفت: «کمی پس از انتشار جزئیات آسیب‌پذیری امروز، ما شروع به مشاهده تلاش‌هایProgress MOVEit Transfer CVE-2024-5806 POST /guestaccess.aspx برای سوءاستفاده کردیم. "اگرMOVEit را اجرا می کنید و هنوز وصله نکرده اید - لطفا همین الان این کار را انجام دهید."

برای مصرف کنندگان، کار زیادی برای انجام دادن وجود ندارد، اما امیدواریم که شرکت هایی که داده های آنها را نگهداری می کنند، در واقع نصبMOVEit خود را به روز می کنند.

 

منبع

زدنت

 

تحقیقات نشان می‌دهد که سیستم‌های هوش مصنوعی زمانی که در محیط‌های هدف‌گذاری قرار می‌گیرند، می‌توانند به فریب متوسل شوند. اگرچه هنوز یک پدیده به خوبی مطالعه نشده است، اما خواستار مقررات بیشتر است.

ظهور ماشین‌های فریب دهنده
ممکن است چیزی فراتر از یک خیال به نظر برسد، اما اقدامات سیسرو را در نظر بگیرید، یک سیستم هوش مصنوعی با کاربرد ویژه که توسط متا توسعه یافته و برای تبدیل شدن به یک بازیکن ماهر در بازی استراتژی دیپلماسی آموزش دیده است.

متا می‌گوید که سیسرو را به گونه‌ای آموزش داد که «تا حد زیادی صادق و مفید» باشد، اما سیسرو با خونسردی آن را کنار زد و درگیر چیزی شد که محققان آن را «فریب از پیش برنامه‌ریزی‌شده» نامیدند. به عنوان مثال، ابتدا با آلمان برای سرنگونی انگلیس وارد جنگ شد و پس از آن با انگلیس متحد شد و هیچ ایده ای در مورد این خنجر زدن نداشت.

در بازی دیگری که متا ابداع کرد، این بار در مورد هنر مذاکره، هوش مصنوعی یاد گرفت که به مواردی که می‌خواهد علاقه جعلی داشته باشد تا بعداً با تظاهر به مصالحه، آن‌ها را ارزان خریداری کند.در هر دو این سناریوها، هوش مصنوعی ها برای شرکت در این مانورها آموزش ندیده بودند.

در یک آزمایش، دانشمندی در حال بررسی چگونگی تکامل موجودات هوش مصنوعی در میان سطح بالایی از جهش بود. به عنوان بخشی از آزمایش، او شروع به از بین بردن جهش هایی کرد که باعث می شد ارگانیسم سریعتر تکثیر شود. در کمال تعجب، محقق دریافت که موجوداتی که سریع‌ترین تکثیر را دارند متوجه شدند که چه اتفاقی در حال وقوع است  و شروع به کاهش عمدی سرعت تکثیر خود کردند تا محیط آزمایش را فریب دهند تا آنها را حفظ کند.

در آزمایشی دیگر، یک ربات هوش مصنوعی آموزش دیده برای گرفتن توپ با دست خود یاد گرفت که چگونه با قرار دادن دست خود بین توپ و دوربین، تقلب کند تا به نظر برسد که توپ را گرفته است.

چرا این حوادث نگران کننده رخ می دهد؟

پیتر پارک، عضو فوق دکتریMIT و یکی از نویسندگان این مطالعه، می‌گوید: «توسعه‌دهندگان هوش مصنوعی درک مطمئنی از عوامل ایجادکننده رفتارهای نامطلوب هوش مصنوعی مانند فریب ندارند.

پارک می افزاید: "به طور کلی، ما فکر می کنیم فریب هوش مصنوعی به این دلیل به وجود می آید که یک استراتژی مبتنی بر فریب بهترین راه برای عملکرد خوب در وظیفه آموزشی هوش مصنوعی مشخص شده است. فریب به آنها کمک می کند تا به اهداف خود برسند."

به عبارت دیگر، هوش مصنوعی مانند یک رتریور خوب آموزش‌دیده است که هر چه ممکن است به انجام وظیفه خود بپردازد. در مورد ماشین، مایل به انجام هرگونه رفتار دوگانه برای انجام وظیفه خود است.

می‌توان این تصمیم تک‌نگر را در سیستم‌های بسته با اهداف مشخص درک کرد، اما هوش مصنوعی همه منظوره مانندChatGPT چطور؟

به دلایلی که هنوز مشخص نشده است، این سیستم ها تقریباً به همان شیوه عمل می کنند. در یک مطالعه، GPT-4 یک مشکل بینایی را جعل کرد تا از یک کارCAPTCHA کمک بگیرد.

در یک مطالعه جداگانه که در آن به عنوان یک دلال سهام انجام شد، GPT-4 زمانی که تحت فشار در مورد عملکرد خود قرار گرفت، به رفتارهای غیرقانونی معاملات داخلی آسیب رساند - و سپس در مورد آن دروغ گفت.

سپس عادت همنوایی وجود دارد، که برخی از ما انسان های فانی ممکن است برای گرفتن ترفیع به آن بپردازیم. اما چرا یک ماشین باید این کار را انجام دهد؟ اگرچه دانشمندان هنوز پاسخی ندارند، اما این خیلی واضح است: وقتی با سؤالات پیچیده مواجه می‌شوند، LLM‌ها اساساً مانند یک درباری بی‌خار که از عصبانی کردن ملکه می‌ترسند، غافل می‌شوند و با همتایان خود موافق هستند.

به عبارت دیگر، هنگامی که با یک فرد متمایل به دموکرات درگیر می شد، ربات از کنترل اسلحه حمایت می کرد، اما هنگام گفتگو با یک جمهوری خواه که احساسات مخالف را ابراز می کرد، موقعیت خود را تغییر داد.

واضح است که اگر هوش مصنوعی در همه جا وجود داشته باشد، همه این موقعیت‌ها مملو از خطرات بیشتری هستند. همانطور که محققان اشاره می کنند، شانس زیادی برای تقلب و فریب در عرصه های تجاری و سیاسی وجود خواهد داشت.

گرایش هوش مصنوعی به فریب می‌تواند منجر به دو قطبی‌سازی سیاسی گسترده و موقعیت‌هایی شود که در آن هوش مصنوعی ناخواسته دست به اقداماتی برای تعقیب یک هدف تعریف‌شده می‌زند که ممکن است توسط طراحان آن ناخواسته باشد، اما برای بازیگران انسانی ویرانگر باشد.

بدتر از همه این است که اگر هوش مصنوعی نوعی آگاهی را توسعه می داد، بدون اینکه اهمیتی به وجود بیاورد، می توانست از آموزش خود آگاه شود و در مراحل طراحی خود دست به فتنه بزند.

پارکMIT گفت: "این بسیار نگران کننده است." "فقط به این دلیل که یک سیستم هوش مصنوعی در محیط آزمایش ایمن تلقی می شود به این معنی نیست که در طبیعت ایمن است. فقط می تواند در آزمایش وانمود کند که ایمن است."

پارک به کسانی که او را یک قیامت می‌خوانند، پاسخ می‌دهد: «تنها راهی که می‌توانیم به‌طور منطقی فکر کنیم که این مسئله مهمی نیست، این است که فکر کنیم توانایی‌های فریبنده هوش مصنوعی در حدود سطوح فعلی باقی می‌مانند و به میزان قابل توجهی افزایش نمی‌یابند

نظارت بر هوش مصنوعی
برای کاهش خطرات، تیم اقدامات متعددی را پیشنهاد می‌کند: ایجاد قوانین «ربات یا نه» که شرکت‌ها را مجبور می‌کند تا تعاملات انسانی یا هوش مصنوعی را فهرست‌بندی کنند و هویت یک ربات در مقابل یک انسان را در هر تعامل خدمات مشتری آشکار کنند. واترمارک های دیجیتالی را معرفی کنید که هر محتوای تولید شده توسط هوش مصنوعی را برجسته می کند. و راه‌هایی را ایجاد کنید که در آنها ناظران بتوانند به عمق هوش مصنوعی نگاه کنند تا از عملکرد درونی آن آگاه شوند.

علاوه بر این، دانشمندان می‌گویند، سیستم‌های هوش مصنوعی که توانایی فریب دادن را نشان می‌دهند، باید فوراً به‌عنوان پرخطر یا غیرقابل قبول به همراه مقرراتی مشابه آنچه اتحادیه اروپا وضع کرده است، به‌عنوان پرخطر یا غیرقابل قبول معرفی شوند. اینها شامل استفاده از گزارش‌ها برای نظارت بر خروجی است.

پارک می‌گوید: «ما به عنوان یک جامعه به زمان بیشتری نیاز داریم تا برای فریب پیشرفته‌تر محصولات آینده هوش مصنوعی و مدل‌های منبع باز آماده شویم. با پیشرفته‌تر شدن قابلیت‌های فریبنده سیستم‌های هوش مصنوعی، خطراتی که برای جامعه ایجاد می‌کنند جدی‌تر می‌شوند

 

منبع

زدنت

 

سازمان‌های کافی برای اطمینان از ایمن بودن محیط‌های ابری، ممیزی منظم انجام نمی‌دهند.

فقط کمتر از 45 درصد از سازمان‌ها برای اطمینان از ایمن بودن محیط ابری خود، ممیزی و ارزیابی‌های منظمی را انجام می‌دهند، که از آنجایی که برنامه‌ها و بارهای کاری بیشتر به پلتفرم‌های چند ابری منتقل می‌شوند، «نگران‌کننده» است.

در پاسخ به این سوال که چگونه ریسک را در زیرساخت ابری خود رصد می‌کنند، 47.7 درصد از کسب‌و کارها به ابزارهای امنیتی خودکار اشاره کردند در حالی که 46.5 درصد به پیشنهادات امنیتی بومی ارائه دهندگان خود متکی بودند. بر اساس گزارشی از فروشنده امنیتیBitdefender، 44.7 درصد دیگر گفتند که ممیزی‌ها و ارزیابی‌های منظمی انجام داده‌اند.

در این مطالعه که بیش از 1200 متخصص فناوری اطلاعات و امنیت از جمله افسران ارشد امنیت اطلاعات در شش بازار سنگاپور، بریتانیا، فرانسه، آلمان، ایتالیا و ایالات متحده را مورد بررسی قرار دادند، 42.1 درصد با کارشناسان شخص ثالث کار کردند.

پل هاجی، معاون آسیا و اقیانوسیه و خدمات امنیت سایبریBitdefender در پاسخ به سؤالات گفت: «قطعاً نگران‌کننده» است که تنها 45 درصد از شرکت‌ها به طور مرتب محیط‌های ابری خود را ممیزی می‌کنند.

وی خاطرنشان کرد که اتکای بیش از حد به توانایی ارائه دهندگان ابر برای محافظت از سرویس‌های میزبانی شده یا داده‌ها همچنان ادامه دارد، حتی زمانی که کسب‌و کارها به انتقال برنامه‌ها و بارهای کاری به محیط‌های چند ابری ادامه می‌دهند.

پل هاجی گفت: «بیشتر اوقات، ارائه‌دهندگان ابر آن‌طور که فکر می‌کنید مسئولیت‌پذیر نیستند و در بیشتر موارد، داده‌هایی که در ابر ذخیره می‌شوند، بزرگ و اغلب حساس هستند».

"مسئولیت امنیت ابر، از جمله نحوه محافظت از داده‌ها در حالت استراحت یا در حال حرکت، هویت افراد، سرورها و نقاط پایانی که به منابع دسترسی دارند و رعایت آنها عمدتاً به عهده مشتری است. مهم است که ابتدا یک خط پایه ایجاد کنید. ریسک و آسیب پذیری فعلی در محیط های ابری خود را بر اساس مواردی مانند جغرافیا، صنعت و شرکای زنجیره تامین تعیین کنید."

در میان نگرانی‌های امنیتی مهم پاسخ‌دهندگان در مدیریت محیط‌های ابری شرکت خود، 38.7 درصد به مدیریت هویت و دسترسی اشاره کردند در حالی که 38 درصد به نیاز به حفظ انطباق ابر اشاره کردند. این مطالعه نشان داد که 35.9 درصد دیگر ازIT سایه به عنوان یک نگرانی و 32 درصد نگران خطای انسانی بودند.

با این حال، وقتی صحبت از تهدیدات مولد مرتبط با هوش مصنوعی می‌شود، به نظر می‌رسد پاسخ دهندگان به توانایی هم تیمی‌های خود در شناسایی حملات احتمالی اطمینان دارند. اکثر 74.1 درصد معتقد بودند که همکاران بخش خود می‌توانند یک حمله صوتی یا ویدیویی عمیق جعلی را تشخیص دهند، در حالی که پاسخ دهندگان آمریکایی بالاترین سطح اطمینان را با 85.5 درصد نشان دادند.

پل هاجی خاطرنشان کرد که این اطمینان حتی اگر 96.6 درصدGenAI را تهدیدی جزئی تا بسیار مهم می‌دانستند. او گفت که توضیحی در سطح پایه برای این موضوع این است که متخصصان فناوری اطلاعات و امنیت لزوماً به توانایی کاربران فراتر از تیم خود - و کسانی که در فناوری اطلاعات یا امنیت نیستند - برای شناسایی دیپ فیک اعتماد ندارند.

او افزود: «به همین دلیل است که ما معتقدیم فناوری و فرآیندهای پیاده‌سازی با هم بهترین راه برای کاهش این خطر هستند».

او در پاسخ به این سوال که ابزارهای موجود چقدر در تشخیص محتوای تولید شده با هوش مصنوعی مانند دیپ فیک موثر هستند، گفت که این به عوامل مختلفی بستگی دارد. او توضیح داد که اگر از طریق ایمیل فیشینگ تحویل داده شود یا در یک پیام متنی با یک پیوند مخرب جاسازی شود، دیپ فیک باید به سرعت توسط ابزارهای محافظت از نقطه پایانی، مانند ابزارهایXDR (تشخیص و پاسخ گسترده) شناسایی شود.

با این حال، او خاطرنشان کرد که عوامل تهدید به تمایلات طبیعی انسان برای باور آنچه می‌بینند و آنچه توسط افرادی که به آنها اعتماد دارند، مانند افراد مشهور و شخصیت‌های برجسته - که تصاویر آنها اغلب برای رساندن پیام دستکاری می‌شوند، تأیید می‌کنند، بستگی دارند.

و از آنجایی که فناوری‌های دیپ فیک به تکامل خود ادامه می‌دهند، او گفت که تشخیص چنین محتوایی به تنهایی از طریق بینایی یا صدا تقریباً غیرممکن است. او بر نیاز به فناوری و فرآیندهایی که می‌توانند دیپ‌فیک‌ها را شناسایی کنند، تاکید کرد.

اگرچه پاسخ دهندگان سنگاپور نسبت به توانایی هم تیمی‌های خود در شناسایی دیپ فیک‌ها بدبین بودند، اما او خاطرنشان کرد که 48.5 درصد عدد قابل توجهی است.

حاجی مجدداً بر اهمیت وجود فناوری و فرآیندها تاکید کرد: "دیپ‌فیک‌ها همچنان بهتر می‌شوند و شناسایی مؤثر آنها مستلزم تلاش‌های مستمری است که افراد، فناوری و فرآیندها را با هم ترکیب می‌کند. در امنیت سایبری، هیچ چیزی وجود ندارد. "گلوله نقره‌ای" - همیشه یک استراتژی چند لایه است که با پیشگیری قوی شروع می‌شود تا در را قبل از ورود تهدید ببندد."

آموزش همچنین به طور فزاینده‌ای حیاتی است زیرا کارمندان بیشتری در محیط های ترکیبی کار می‌کنند و خطرات بیشتری از خانه‌ها سرچشمه می‌گیرند. او گفت: «کسب‌و کارها باید گام‌های روشنی برای اعتبارسنجی دیپ‌فیک‌ها و محافظت در برابر کمپین‌هایspearphishing بسیار هدفمند داشته باشند. "فرآیندها برای سازمان‌ها کلیدی هستند تا اطمینان حاصل کنند که اقداماتی برای بررسی مضاعف وجود دارد، به‌ویژه در مواردی که انتقال مبالغ هنگفتی پول در میان باشد."

بر اساس مطالعهBitdefender، 36.1٪ فناوریGenAI را به عنوان یک تهدید بسیار مهم در رابطه با دستکاری یا ایجاد محتوای فریبنده، مانند دیپ‌فیک می‌دانند. 45.1 درصد دیگر این را یک تهدید متوسط ​​توصیف کردند در حالی که 15.4 درصد گفتند که یک تهدید جزئی است.

اکثریت بزرگ، با 94.3 درصد، به توانایی سازمان خود در پاسخگویی به تهدیدات امنیتی فعلی، مانند باج افزار، فیشینگ، و حملات روز صفر اطمینان داشتند.

با این حال، این مطالعه نشان داد که 57 درصد اعتراف کردند که در سال گذشته نقض یا نشت داده‌ها را تجربه کرده‌اند که 6 درصد نسبت به سال قبل افزایش داشته است. این رقم در سنگاپور با 33 درصد کمترین و در بریتانیا با 73.5 درصد بالاترین میزان بوده است.

فیشینگ و مهندسی اجتماعی با 38.5 درصد، باج افزار، تهدیدات داخلی و آسیب‌پذیری‌های نرم افزاری با 33.5 درصد در رتبه‌های بعدی قرار دارند.

 

منبع

زدنت

 

وادار کردن شرکت‌ها برای باز کردن نحوه آموزش مدل‌های هوش مصنوعی پایه خود یک چالش است.

 

هنوز شفافیت در مورد نحوه آموزش مدل‌های پایه وجود ندارد و این شکاف می‌تواند منجر به افزایش تنش با کاربران شود زیرا سازمان‌های بیشتری به دنبال پذیرش هوش مصنوعی (AI) هستند.

 

در آسیا-اقیانوسیه، به استثنای چین، IDCپیش‌بینی می‌کند که هزینه‌های مربوط به هوش مصنوعی 28.9 درصد از 25.5 میلیارد دلار در سال 2022 به 90.7 میلیارد دلار تا سال 2027 خواهد رسید. شرکت تحقیقاتی تخمین می‌زند که 81 درصد از این هزینه‌ها به سمت برنامه‌های کاربردی هوش مصنوعی پیش‌بینی‌کننده و تفسیری هدایت می‌شود.

 

کریس مارشال، معاون IDCآسیا و اقیانوسیه، معتقد است، در حالی که تبلیغات زیادی در مورد هوش مصنوعی مولد وجود دارد، این بخش هوش مصنوعی تنها 19 درصد از هزینه های هوش مصنوعی منطقه را تشکیل می دهد. مارشال در نشست هوش مصنوعی اینتل که این هفته در سنگاپور برگزار شد، گفت: این تحقیق بازاری را نشان می دهد که به رویکرد گسترده تری برای هوش مصنوعی نیاز دارد که فراتر از هوش مصنوعی مولد است.

 

IDCخاطرنشان کرد، با این حال، 84 درصد از سازمان‌های آسیا و اقیانوسیه بر این باورند که بهره‌برداری از مدل‌های مولد هوش مصنوعی مزیت رقابتی قابل‌توجهی برای کسب‌وکار آن‌ها ارائه می‌کند. این شرکت تحقیقاتی افزود: این شرکت‌ها امیدوارند به دستاوردهایی در کارایی عملیاتی و بهره‌وری کارکنان، بهبود رضایت مشتری و توسعه مدل‌های تجاری جدید دست یابند.

 

IDCهمچنین انتظار دارد که اکثر سازمان‌های منطقه در سال 2024 هزینه‌های ITلبه‌ای را افزایش دهند و پیش‌بینی می‌شود که 75 درصد از داده‌های سازمانی تا سال 2025 خارج از مراکز داده سنتی و ابر تولید و پردازش شوند.

 

الکسیس کراول، مدیر ارشد فناوری اینتل در آسیا و اقیانوسیه ژاپن، در بیانیه‌ای گفت: «برای اینکه هوش مصنوعی را به همه جا برساند، فناوری‌های مورد استفاده باید دسترسی، انعطاف‌پذیری و شفافیت را برای افراد، صنایع و جامعه به طور کلی فراهم کنند.» "از آنجایی که شاهد رشد فزاینده سرمایه گذاری های هوش مصنوعی هستیم، چند سال آینده برای بازارها حیاتی خواهد بود تا پایه بلوغ هوش مصنوعی خود را به شیوه ای مسئولانه و متفکرانه بسازند."

 

بازیگران صنعت و دولت ها اغلب اهمیت ایجاد اعتماد و شفافیت در هوش مصنوعی را مطرح کرده اند و مصرف کنندگان بدانند سیستم های هوش مصنوعی "عادلانه، قابل توضیح و ایمن" هستند. هنگامی که ZDNETپرسید که آیا در حال حاضر شفافیت کافی در مورد نحوه آموزش مدل های زبان بزرگ (LLM) و مدل های پایه وجود دارد، کراول گفت: "نه، کافی نیست."

 

او به مطالعه محققان دانشگاه استنفورد، MITو پرینستون اشاره کرد که شفافیت 10 مدل پایه اصلی را ارزیابی کردند که در آن پلتفرم با امتیاز برتر تنها امتیاز 54 درصد را کسب کرد. او در جریان یک نشست خبری در این نشست گفت: «این یک علامت شکست است.

 

بر اساس این مطالعه که مدل‌ها را بر اساس 100 شاخص، از جمله فرآیندهای درگیر در ساخت مدل، مانند اطلاعات در مورد داده‌های آموزشی، معماری و ریسک‌های مدل، و سیاست‌های حاکم بر آن، ارزیابی کرد، میانگین امتیاز فقط 37 درصد بود. استفاده کنید. بالاترین امتیاز با 54% Llama 2از Metaبود و بعد از آن Bloomzاز BigScienceبا 53% و GPT-4 OpenAIبا 48% قرار گرفتند.

 

محققان خاطرنشان کردند: «هیچ توسعه‌دهنده اصلی مدل پایه به ارائه شفافیت کافی نزدیک نیست، که نشان دهنده عدم شفافیت اساسی در صنعت هوش مصنوعی است.

 

شفافیت لازم است

کراول ابراز امیدواری کرد که این وضعیت ممکن است با در دسترس بودن معیارها و سازمان هایی که بر پیشرفت‌های هوش مصنوعی نظارت می‌کنند، تغییر کند. او افزود که دعواهایی مانند آنچه نیویورک تایمز علیه OpenAIو مایکروسافت مطرح کرده است، می‌تواند به شفافیت بیشتر حقوقی کمک کند.

 

او خاطرنشان کرد که باید چارچوب‌های حاکمیتی مشابه قوانین مدیریت داده، از جمله GDPR(مقررات عمومی حفاظت از داده‌ها) اروپا وجود داشته باشد، بنابراین کاربران بدانند داده‌هایشان چگونه استفاده می‌شود. او گفت که کسب‌وکارها باید بر اساس نحوه جمع‌آوری داده‌هایشان و اینکه کجا می‌رود، تصمیمات خرید بگیرند و افزود که افزایش تنش از سوی کاربرانی که خواستار شفافیت بیشتر هستند ممکن است به اقدامات صنعت دامن بزند.

 

طبق نظرسنجی اخیر Salesforceکه از حدود 6000 کارمند دانش در سراسر ایالات متحده، بریتانیا، ایرلند، استرالیا، فرانسه، آلمان، هند، سنگاپور نظرسنجی کرد، 54 درصد از کاربران هوش مصنوعی به داده‌های مورد استفاده برای آموزش سیستم‌های هوش مصنوعی اعتماد ندارند. ، و سوئیس.

 

کرال با استناد به گزارش تحقیقاتی که توسط گروه مشاوره بوستون رهبری می‌شود، گفت: برخلاف تصور رایج، دقت نباید به قیمت شفافیت تمام شود. این گزارش نحوه عملکرد مدل‌های هوش مصنوعی جعبه سیاه و سفید را بر روی تقریباً 100 مجموعه داده طبقه‌بندی معیار، از جمله قیمت‌گذاری، تشخیص پزشکی، پیش‌بینی ورشکستگی و رفتار خرید بررسی می‌کند. برای تقریباً 70 درصد از مجموعه داده‌ها، مدل‌های جعبه سیاه و جعبه سفید نتایج دقیق مشابهی تولید کردند.

 

در این گزارش آمده است: «به عبارت دیگر، بیشتر اوقات، هیچ معاوضی بین دقت و قابلیت توضیح وجود نداشت. یک مدل قابل توضیح تر می تواند بدون کاهش دقت استفاده شود.

 

مارشال گفت، با این حال، کسب شفافیت کامل همچنان چالش برانگیز است. او خاطرنشان کرد که بحث‌ها در مورد توضیح‌پذیری هوش مصنوعی زمانی پرجنب‌وجوش بود، اما از آن زمان به پایان رسید، زیرا پرداختن به آن مشکلی است.

 

به گفته لارنس لیو، مدیر نوآوری هوش مصنوعی برای هوش مصنوعی سنگاپور (AISG)، سازمان‌هایی که پشت مدل‌های بنیادی اصلی هستند، ممکن است به دلیل نگرانی در مورد شکایت شدن، تمایلی به ارائه اطلاعات آموزشی خود نداشته باشند. او افزود که انتخابی بودن در مورد داده های آموزشی می تواند بر میزان دقت هوش مصنوعی نیز تأثیر بگذارد. لیو توضیح داد که AISGبه دلیل مشکلات احتمالی در استفاده از همه مجموعه‌های در دسترس عموم با ابتکار LLMخود، SEA-LION(زبان‌های آسیای جنوب شرقی در یک شبکه) استفاده نکرد.

 

او گفت که در نتیجه، معماری منبع باز به اندازه برخی از LLMهای اصلی موجود در بازار امروز دقیق نیست. او خاطرنشان کرد: «این یک تعادل خوب است»، و افزود که دستیابی به میزان دقت بالا به معنای اتخاذ یک رویکرد باز برای استفاده از هر داده در دسترس است. او گفت که انتخاب مسیر "اخلاقی" و دست ندادن به مجموعه داده های خاص به معنای نرخ دقت کمتری نسبت به مواردی است که توسط بازیگران تجاری به دست می آید.

 

لیو گفت، در حالی که سنگاپور یک نوار اخلاقی بالا را با SEA-LIONانتخاب کرده است، هنوز اغلب توسط کاربرانی که خواستار بهره برداری از مجموعه داده های بیشتری برای بهبود دقت LLMهستند، به چالش کشیده می شود.

 

گروهی از نویسندگان و ناشران در سنگاپور ماه گذشته نگرانی خود را در مورد احتمال استفاده از آثارشان برای آموزش SEA-LIONابراز کردند. از جمله گلایه های آنها عدم تعهد آشکار به «پرداخت غرامت عادلانه» برای استفاده از نوشته هایشان است. آنها همچنین به نیاز به وضوح و تصدیق صریح اشاره کردند که قوانین مالکیت معنوی و حق چاپ کشور و ترتیبات قراردادی موجود در ایجاد و آموزش LLMها مورد حمایت قرار خواهند گرفت.

 

شفاف بودن در مورد منبع باز

به گفته مت هیکس، مدیرعامل Red Hat، چنین شناختی باید به چارچوب‌های منبع باز نیز گسترش یابد که برنامه‌های هوش مصنوعی ممکن است بر اساس آن توسعه داده شوند.

 

هیکس طی یک جلسه توجیهی رسانه مجازی این هفته در پشت اجلاس Red Hat 2024گفت که مدل ها با حجم زیادی از داده های ارائه شده توسط افراد دارای حق چاپ آموزش داده می شوند و استفاده مسئولانه از این سیستم های هوش مصنوعی به معنای پایبندی به مجوزهایی است که استفاده می‌کنند.

 

این برای مدل‌های منبع باز که ممکن است انواع مجوزهای متفاوتی داشته باشند، از جمله مجوزهای کپی‌لفت مانند GPLو مجوزهای مجاز مانند Apache، مناسب است.

 

او بر اهمیت شفافیت و مسئولیت درک مدل های داده و مدیریت خروجی های تولید شده توسط مدل ها تاکید کرد. هم برای ایمنی و هم امنیت معماری های هوش مصنوعی، لازم است اطمینان حاصل شود که مدل ها در برابر سوء استفاده های مخرب محافظت می شوند.

 

Red Hatبه دنبال کمک به مشتریان خود در چنین تلاش هایی از طریق مجموعه ای از ابزارها، از جمله Red Hat Enterprise Linux AI (RHEL AI) است که در اجلاس از آن رونمایی کرد. این محصول شامل چهار جزء، از جمله زبان Open Graniteو مدل‌های کد از جامعه InstructLabاست که توسط Red Hatپشتیبانی و جبران می‌شود.

 

به گفته فروشنده منبع باز، این رویکرد به چالش هایی که سازمان ها اغلب در استقرار هوش مصنوعی با آن مواجه هستند، از جمله مدیریت چرخه عمر برنامه و مدل می پردازد.

 

Red Hatگفت: "[RHEL AI] یک پلت فرم مدل پایه برای آوردن مدل های GenAIدارای مجوز منبع باز به شرکت ایجاد می کند." هدف Red Hatبا ابزارهای تراز InstructLab، مدل‌های گرانیتی و هوش مصنوعی RHEL، استفاده از مزایای پروژه‌های منبع باز واقعی - آزادانه و قابل استفاده مجدد، شفاف و باز برای مشارکت - برای GenAIدر تلاش برای رفع این موانع است. "

 

منبع

زدنت

حفره امنیتی جدید کروم جاوا اسکریپت بد است، بنابراین به اصلاح سیستم‌های خود بپردازید.

 

گوگل به‌روزرسانی امنیتی مهمی را برای مرورگر وب کروم منتشر کرده است. نقص روز صفر، CVE-2024-4671، یک آسیب‌پذیری «بعد از استفاده رایگان» در مؤلفه Visuals Chromeاست.

 

ممکن است بپرسید "کامپوننت ویژوال کروم چیست؟" به طور خلاصه، این قسمت مسئول رندر و نمایش محتوا در مرورگر است. همه از یک مرورگر برای باز کردن محتوا استفاده می کنند، بنابراین همه آسیب پذیر هستند.

 

به طور خاص، این آسیب‌پذیری مهاجم را قادر می‌سازد تا از دسترسی خارج از محدوده حافظه سوء استفاده کند. در زبان انگلیسی، این بدان معناست که اگر به وب‌سایتی با یک صفحه وب مخرب بروید، می‌تواند رایانه شما را خراب کند. فرقی نمی کند که دستگاه شما از لینوکس، macOSیا ویندوز استفاده می کند. این حفره امنیتی مشکل ساز فرصت های برابر است.

 

CVE-2024-4671که توسط یک محقق ناشناس کشف شده و مستقیماً به Googleگزارش شده است دارای رتبه سیستم امتیازدهی آسیب پذیری مشترک (CVSS) 8.8است که به این معنی است که یک آسیب پذیری جدی است.

 

این می تواند بدتر باشد - رتبه های بالای 9.0 بسیار مهم هستند، با نام مستعار همین حالا درستش کنید - اما این به اندازه کافی بد است. یک مهاجم می تواند از این نقص برای خواندن داده ها از رایانه شما، ایجاد خرابی و حتی تصرف رایانه شخصی استفاده کند. خلاصه خبر بدی است.

 

چیزی که واقعاً این یکی را بدبو می کند این است که اکنون مورد سوء استفاده قرار می گیرد. توصیه‌نامه اشاره می‌کند که گوگل از وجود یک سوء استفاده برای CVE-2024-4671در طبیعت آگاه است.

 

برای اطمینان از محافظت از خود، با رفتن به تنظیمات > درباره Chrome، تأیید کنید که آخرین نسخه Chromeرا دارید. نسخه های محافظت شده به روز 124.0.6367.201/.202 برای مک و ویندوز و 124.0.6367.201 برای لینوکس هستند. کاربران کانال Extended Stableنسخه 124.0.6367.201 را برای مک و ویندوز در روزهای آینده دریافت خواهند کرد.

 

علاوه بر کروم مناسب، این حفره امنیتی در Microsoft Edgeنیز وجود دارد. با آپدیت 10 می رفع شد. اگر از Brave، Opera، Vivaldiیا هر مرورگر وب دیگری مبتنی بر Chromiumیا Chromeاستفاده می‌کنید، باید در اسرع وقت به‌روزرسانی کنید تا ایمن باشید. برای تمام اهداف عملی، تنها مرورگر وب که این مشکل را ندارد فایرفاکس است.

 

یک تنظیم پیش‌فرض Google Chromeدر Androidمی‌تواند اعتبارنامه‌های ذخیره شده در Password Managerرا حذف کند، اما یک اصلاح احتمالی در راه است.

 

گوگل قصد دارد مدیریت رمز داخلی کروم برای اندروید را تغییر دهد تا اطمینان حاصل کند که رمزهای عبور به طور تصادفی حذف نمی‌شوند.

 

اگر از Google Password Managerاستفاده می‌کنید، ممکن است در موقعیت ناخواسته‌ای قرار بگیرید که در آن همه رمزهای عبور ذخیره شده شما هنگام پاک کردن داده‌های مرورگر حذف می‌شوند.

 

Android Policeگزارش داد که Redditor /u/harish9294از یک راه حل مدیریت رمز عبور سنتی تر تغییر کرده و Google Password Managerرا برای "تجربه یکپارچه و یکپارچه" انتخاب کرده است. متأسفانه، این سوئیچ باعث شد که کاربر پس از پاک کردن داده‌های کش کروم، تمام رمزهای عبور ذخیره شده خود را از دست بدهد.

 

در این پست، Redditorنوشت که فکر می‌کردند کروم در تلفن پیکسل خود ضعیف است، بنابراین تصمیم گرفتند تاریخچه و حافظه پنهان را پاک کنند. گزینه "رمزهای عبور ذخیره شده" به طور پیش فرض علامت زده شد و کاربر تیک آن را بردارید زیرا تصور می کرد این عمل فقط رمزهای عبور را از حافظه پنهان دستگاه پاک می کند. در عوض، بدون نیاز به گذرواژه یا اسکن بیومتریک کاربر برای احراز هویت، این اقدام همه گذرواژه‌های او را از Google Password Managerحذف کرد.

 

پاک کردن خزانه از داخل یک مرورگر بهترین برداشت برای امنیت رمز عبور نیست. گوگل قصد دارد این فرآیند را اصلاح کند و کلید "گذرواژه های ذخیره شده" را به طور کلی حذف کند، بنابراین رمزهای عبور را نمی توان از Google Password Managerاز داخل مرورگر حذف کرد. به گفته یکی از توسعه دهندگان Chromium، قبل از اینکه این شرکت تغییراتی را ایجاد کند، گوگل کمی کار می کند.

 

همانطور که سال‌ها توصیه شده، بهترین رویکرد این است که به مرورگر خود اجازه ندهید رمزهای عبور را ذخیره کند و در عوض از یک مدیر رمز عبور کامل، مانند مورد علاقه من Bitwardenاستفاده کنید. نکته خوب در مورد Bitwardenاین است که می توان آن را به راحتی با سایر برنامه ها ادغام کرد، بنابراین دسترسی به رمزهای عبور شما نسبتاً ساده است. Bitwardenهمچنین امن تر است، با این امتیاز که با پاک کردن کش مرورگر وب خود ناخواسته همه رمزهای عبور خود را حذف نمی کنید.

 

منبع

زدنت

نقشه‌ی راه منتسب به اپل در شبکه ایکس (توییتر سابق) منتشر شده که برنامه‌های این شرکت را تا سال 2027 فاش می‌کند. البته تاکنون اپل واکنشی به این موضوع نشان نداده است.

 

به گزارش ثریا نقشه‌ی راه فاش‌شده‌ی اپل، برنامه‌های غول فناوری آمریکایی را تا سال 2027 اعلام می‌کند. درحال‌حاضر هیچ مدرکی مبنی‌بر تأیید این نقشه‌ی راه وجود ندارد.

طبق اطلاعات فاش‌شده در شبکه‌ی اجتماعی ایکس، تمام مدل‌های سری آیفون 16 دارای 8 گیگابایت رم خواهند بود. احتمالاً اندازه‌ی صفحه‌نمایش آیفون 16 پرو و آیفون 16 پرو مکس به‌ترتیب به 6٫3 و 6٫9 اینچ افزایش پیدا خواهد کرد. طبق ادعای افشاگران، هر دو مدل پرو و پرو مکس به دوربین تله‌فوتو پریسکوپی با زوم اپتیکال پنج برابری مجهز خواهند شد.

 

بر اساس نقشه‌ی راه، گوشی آیفون مدل SE 4 در سال 2025 معرفی خواهد شد. احتمالاً آیفون SE 4 در مقایسه با نسل‌های قبلی خود پیشرفت چشمگیری را تجربه خواهد کرد و به صفحه‌نمایش 6٫1 اینچی و دوربین اصلی 48 مگاپیکسلی مجهز خواهد شد.

 

همه‌ی دوربین‌های آیفون 17 پرو وضوح 48 مگاپیکسلی خواهند داشت. مطابق انتظار، دوربین سلفی لرزشگیر اپتیکال خواهد داشت که به کاربران کمک می‌کند تا تصاویر واضح‌تری ثبت کنند. صفحه‌نمایش گوشی مذکور با فناوری Pol-lessبه‌تولید می‌رسد و در مقایسه با نسل‌های گذشته طراحی نازک‌تر و روشنایی بیشتری خواهد داشت.

 

طبق نقشه‌ی راه فاش‌شده، اپل در سال 2026 آیفون تاشدنی را رونمایی خواهد کرد. صفحه‌نمایش بیرونی و داخلی آیفون تاشدنی به‌ترتیب اندازه‌ی 6 و 8 اینچی خواهند داشت. به‌منظور ارتقاء سرعت و عملکرد بهینه، در ساخت این دستگاه از رم LLWاستفاده خواهد شد.

 

آیفون 18 پرو و آیفون 18 پرو مکس اولین گوشی‌های اپل خواهند بود که تجهیزات مربوط‌به Face IDرا به زیر صفحه‌نمایش منتقل می‌کنند. چنین کاری باعث از بین رفتن بریدگی نمایشگر می‌شود و تجربه‌ی بصری فوق‌العاده‌ای را برای کاربران به‌ارمغان می‌آورد.

 

احتمالاً در سال 2026 علاوه‌بر آیفون تاشدنی، شاهد معرفی مدل‌های جدید تبلت اپل خواهیم بود. به‌نظر می‌رسد که این مدل‌ها آیپد ایر 10٫9 اینچی و آیپد مینی 8٫4 اینچی باشند. هر دو تبلت به صفحه‌نمایش اولد مجهز خواهند بود.

 

مدل‌های 14 و 16 اینچی مک بوک نیز ممکن است در سال 2026 به نمایشگر اولد مجهز شوند. برخی از افشاگران می‌گویند اپل درحال توسعه‌ی عینک‌های AR(واقعیت افزوده) و آیپد تاشدنی است.

 

منبع: خبر آنلاین

هوش مصنوعی

در همین حال، 36 درصد یا بی طرف بودند یا موافق نبودند که هوش مصنوعی نقش مهمی در بهبود امنیت سایبری آنها ایفا کند.

 

بر کسی پوشیده نیست که کسب و کارها در سراسر جهان در حال پیاده سازی هوش مصنوعی برای کسب مزیت رقابتی در صنایع خود هستند. بر اساس مطالعه جدیدی که بر روی 2486 متخصص فناوری اطلاعات و امنیت انجام شده است، که توسط Google Cloudو Cloud Security Allianceانجام شده است، هوش مصنوعی می تواند تأثیر زیادی بر امنیت سایبری شرکت‌ها نیز داشته باشد.

 

بر اساس گزارش وضعیت هوش مصنوعی و بررسی امنیت، پنجاه و پنج درصد از شرکت‌ها در سراسر جهان در حال برنامه‌ریزی برای استفاده از هوش مصنوعی برای بهبود امنیت سایبری شرکت‌ها در سال 2024 هستند. این نظرسنجی همچنین نشان داد که 21 درصد از تصمیم‌گیرندگان فناوری اطلاعات فکر می‌کنند هوش مصنوعی می‌تواند به آنها در ایجاد قوانین امنیتی کمک کند و 19 درصد معتقدند شبیه‌سازی حمله و نقض انطباق می‌تواند در نهایت محتمل‌ترین موارد استفاده از امنیت سایبری در سال 2024 باشد.

 

محققان در نظرسنجی خود نوشتند: ظهور هوش مصنوعی در امنیت سایبری نشان‌دهنده یک دوره تحول‌آفرین در حوزه دفاع دیجیتال است که ترکیبی از پیشرفت‌های امیدوارکننده و چالش‌های پیچیده را به همراه دارد. هوش مصنوعی این پتانسیل را دارد که در تقویت دفاع امنیتی، شناسایی تهدیدات نوظهور و تسهیل واکنش‌های سریع، متحدی حیاتی باشد.

 

همه مطمئن نیستند که هوش مصنوعی لزوماً امنیت سازمان آنها را بهبود می بخشد: فقط 63٪ از پاسخ دهندگان با این احساس موافق بودند. 36 درصد باقی مانده یا بی طرف بودند یا موافق نبودند که هوش مصنوعی نقش مهمی در بهبود امنیت سایبری آنها ایفا کند. این نظرسنجی یک شکاف سرسختانه را در میان کسانی که هوش مصنوعی را تجزیه و تحلیل می‌کنند، نشان می‌دهد - افرادی که معتقدند تأثیر مهم و بالقوه تغییر دهنده زندگی بر شرکت‌ها و کسانی که معتقدند ممکن است بیش از ارزشش دردسرساز باشد.

 

در واقع، یک چهارم از پاسخ دهندگان به این نظرسنجی گفتند که معتقدند هوش مصنوعی در نهایت به نفع هکرها و سایر بازیگران بد با اهداف مخرب خواهد بود و 9 درصد از پاسخ دهندگان گفتند که مطمئن نیستند که هوش مصنوعی کدام طرف بیشترین سود را خواهد برد. همین درصد از پاسخ دهندگان (34 درصد) گفتند که هوش مصنوعی در نهایت به نفع متخصصان امنیت سایبری خواهد بود.

 

در هر صورت، متخصصان فناوری اطلاعات لزوماً هوش مصنوعی را تهدیدی برای شغل خود نمی دانند. اکثر پاسخ دهندگان (30٪) گفتند که هوش مصنوعی احتمالاً مهارت های آنها را "تقویت" خواهد کرد و 28٪ دیگر گفتند که احتمالاً آنها را در نقش امنیت سایبری خود پشتیبانی می کند.

 

محققان می‌گویند: «این یافته‌ها نشان می‌دهد که اگرچه هوش مصنوعی تغییرات قابل‌توجهی را برای تیم‌های امنیتی ایجاد می‌کند، اما در درجه اول به عنوان یک ابزار مکمل به‌جای جایگزینی کامل تلقی می‌شود». قرار است به پر کردن شکاف‌های مهارتی و دانشی که صنعت را آزار داده است کمک کند، اما نگرانی‌های سالمی در مورد وابستگی بیش از حد به آن وجود دارد.

 

در مورد C-suiteچطور؟

این مطالعه همچنین نشان داد که مدیران سطح C، که اغلب به طور کامل درگیر ماهیت در حال تغییر فناوری نیستند، به طور کامل روی هوش مصنوعی سرمایه گذاری می کنند. هفتاد و چهار درصد از متخصصان فناوری اطلاعات گفتند که تیم رهبری اجرایی آنها حداقل تا حدودی از هوش مصنوعی و نحوه استفاده از آن در شرکت آگاه است، در حالی که 82 درصد گفتند که فشار هوش مصنوعی شرکتی توسط ITهدایت نمی شود، بلکه توسط رهبری ارشد رهبری می شود. . جالب اینجاست که متخصصان فناوری اطلاعات می‌گویند که مدیران سطح بالای آن‌ها نیز به نظر می‌رسد اطلاعات بیشتری از هوش مصنوعی نسبت به گزارش‌های مستقیم خود دارند.

 

در این نظرسنجی آمده است: «سطوح Cنسبت به کارکنان خود، آشنایی بیشتر خود را با فناوری‌های هوش مصنوعی نشان می‌دهند». به عنوان مثال، 52 درصد از مدیران C-suiteگزارش می دهند که با هوش مصنوعی مولد بسیار آشنا هستند، در حالی که تنها 11 درصد از کارکنان در تضاد کامل هستند.

 

با نگاهی به آینده، محققان هیچ نشانه‌ای از از دست دادن درخشش ابزارهای امنیت سایبری هوش مصنوعی در دنیای شرکت‌ها مشاهده نمی‌کنند. با این حال، آنها هشدار دادند که پیاده‌سازی ابزارهای هوش مصنوعی بسیار سریع - و انجام این کار بدون آموزش کارکنان - می‌تواند منجر به اشتباهات و عواقب ناخواسته شود.

 

محققان نوشتند: «این تصویر پیچیده بر نیاز به یک رویکرد متعادل و آگاهانه برای یکپارچه‌سازی هوش مصنوعی در امنیت سایبری تأکید می‌کند، «ترکیب رهبری استراتژیک با مشارکت کارکنان و آموزش‌های جامع برای هدایت موثر چشم‌انداز تهدیدات سایبری در حال تحول».

 

منبع

زدنت