سازمانها باید روی انعطافپذیری دیجیتال تمرکز کنند تا از پتانسیل تحولآفرین فناوری نوظهور استقبال کنند.
سازمانها باید از هیاهوی فعلی پیرامون هوش مصنوعی(AI)، بهویژه هوش مصنوعی(GenAI) عبور کنند و چگونگی ایجاد ارزش واقعی از این فناوری را بررسی کنند.
Ngiam Siew Ying، مدیر عامل ارائه دهنده خدمات بهداشت و درمانIT Synapxe، خاطرنشان کرد که صنعت احتمالا اکنون در نقطه انتظارات متورم قرار دارد و در آستانه سقوط به پرتگاه سرخوردگی است. او با اشاره به چرخه تبلیغات معمولی پیرامون فناوری های نوظهور، گفت که بسیاری از اظهارات در مورد وعده هوش مصنوعی عمدتاً عمومی هستند و منجر به تبلیغات ناپایدار می شوند.
نگیام طی یک میزگرد این هفته در کنفرانسNCS Impact در سنگاپور گفت که نیاز به حرکت به سمت شناسایی ارزش هوش مصنوعی وجود دارد.او گفت که اگر کسب و کارها بتوانند نحوه اتخاذ و استفاده از هوش مصنوعی را بیابند، پتانسیل بسیار زیادی وجود دارد.
بر اساس گزارش جدید موسسه تحقیقاتیCapgemini، برای مثال، استفاده از هوش مصنوعی در مهندسی نرم افزار می تواند مزایای مختلفی برای سازمان ها داشته باشد. این تحقیق خاطرنشان کرد که پذیرش هوش مصنوعی مولد هنوز در مراحل اولیه است و از هر 10 سازمان، 9 سازمان هنوز مقیاس ندارند.
مطالعهCapgemini از 1098 مدیر ارشد و 1092 نرمافزار حرفهای در 13 بازار از جمله استرالیا، سنگاپور، آلمان، هند، ایالات متحده و بریتانیا نظرسنجی کرد.
این گزارش نشان میدهد که 27درصد از سازمانها پایلوتهای هوش مصنوعی مولد را اجرا میکنند که 11درصد از این فناوری در عملیات نرمافزاری خود استفاده میکنند. حدود 75 درصد از شرکت های بزرگ، با درآمد سالانه حداقل 20 میلیارد دلار، از این فناوری استفاده کرده اند، در حالی که 23 درصد از سازمان ها با درآمد سالانه بین 1 تا 5 میلیارد دلار، از این فناوری استفاده کرده اند.
گزارشCapgemini انتظار دارد که پذیرش در دو سال آینده به طور قابل توجهی افزایش یابد، به طوری که 85٪ از کارکنان نرم افزار از ابزارهای مولد هوش مصنوعی در سال 2026 استفاده می کنند، از نرخ فعلی 46٪. هوش مصنوعی مولد باید نقشی کلیدی در «افزایش» این افراد حرفهای با تجربیات، ابزارها و حاکمیت بهتر داشته باشد و حداقل از 25درصد طراحی، توسعه و آزمایشهای نرمافزار تا سال 2026پشتیبانی کند.
این مطالعه همچنین نشان داد که 80 درصد از متخصصان نرمافزار معتقدند ابزارهای مولد هوش مصنوعی، که میتوانند کارهای تکراری را خودکار کنند، زمان آنها را برای تمرکز روی کارهایی که ارزش بالاتری دارند، آزاد میکند. سه چهارم متخصصان فکر می کنند هوش مصنوعی مولد پتانسیل بهبود همکاری با تیم های تجاری غیرفنی را دارد.
در میان متخصصانی که قبلاً این فناوری را پذیرفته اند، 61٪ می گویند که نوآوری را تسهیل کرده است، مانند توسعه ویژگی ها و خدمات جدید، در حالی که 49٪ به بهبود کیفیت نرم افزار اشاره می کنند. 40 درصد دیگر به افزایش بهره وری اشاره دارد.
ایجاد زیرساخت برای پشتیبانی از هوش مصنوعی
نگ کو پین، مدیرعاملNCS گفت، اگر سازمانها فاقد زیرساختهای لازم، یعنی انعطافپذیری دیجیتال، برای استقبال از «پتانسیل تحولآفرین» هوش مصنوعی نباشند، نمیتوانند به طور کامل از دستاوردهای فناوری نوظهور استفاده کنند.
Ng در سخنرانی در این کنفرانس گفت: "برای ساختن آینده ای امن تر و پایدارتر، بسیار مهم است که سازمان ها برای ایجاد پایه ای در امنیت سایبری، حاکمیت داده ها و فناوری سرمایه گذاری کنند که به هوش مصنوعی اجازه شکوفایی می دهد. ما معتقدیم سازمان هایی که بر هر دو هوش مصنوعی تسلط دارند. و انعطافپذیری دیجیتال آنهایی هستند که در این محیط جهانی پیچیده رشد خواهند کرد."
او گفت: "هوش مصنوعی یک تغییر دهنده بازی خواهد بود و شرکت ها باید بازی جدید را یاد بگیرند - هر چه زودتر، بهتر." فروشنده فناوری یک شرکت تابعه کاملاً متعلق به شرکت مخابراتی سنگاپور، Singtel است.
NCS مجموعه ای از خدمات جدید را در این هفته راه اندازی کرد، از جمله ماتریسAI-Digital Resilience، که به مشتریان سازمانی کمک می کند تا نقشه راهی برای ایجاد استقرار هوش مصنوعی و انعطاف پذیری دیجیتال ایجاد کنند. این پیشنهاد چارچوبی را بر اساس سطوح بلوغ مشتری در پذیرش هوش مصنوعی و استحکام دیجیتال ارائه میکند و سازمان را قادر میسازد آمادگی هوش مصنوعی خود و اقداماتی را که باید بردارد ارزیابی کند.
NCS همچنین از همکاری با خدمات وب آمازون(AWS) برای راهاندازی یک مرکز عالیGenAI برای خیر عمومی با بهرهگیری از مرکز نوآوریGenAI AWS خبر داد. بنا به گفتهNCS، تسهیلات جدید برای بخش عمومی منطقه آسیا و اقیانوسیه طراحی شده است و توسط تیم مهندسین و دانشمندان کاربردیAWS پشتیبانی میشود تا از راهحلهای هوش مصنوعی در این بخش با استفاده از پلتفرمهایAWS استفاده کنند.
هنگ سوئی کیت، معاون نخست وزیر سنگاپور طی سخنرانی خود در این کنفرانس گفت: هوش مصنوعی با توانایی های خود در پردازش زبان طبیعی، تشخیص تصویر و تجزیه و تحلیل پیش بینی تخیل ما را تسخیر کرده است. دولت ها، شرکت ها و سازمان های اجتماعی در حال یادگیری استفاده از فناوری های دیجیتال و هوش مصنوعی برای انجام بهتر ماموریت های خود هستند.
هنگ خاطرنشان کرد که سنگاپور از هوش مصنوعی برای بهبود خدمات عمومی استفاده می کند، از جمله استفاده از سیستم های مدیریت ترافیک هوشمند برای کاهش تراکم و چت ربات های مبتنی بر هوش مصنوعی برای ارائه دسترسی 24/7 به خدمات دولتی.
او افزود که پیشرفتهای بالقوه در فناوریهای مرزی، از جمله محاسبات کوانتومی، توانایی حل مشکلات پیچیده و متحول کردن زمینههایی مانند رمزنگاری و داروسازی را ارائه میدهد. وی خاطرنشان کرد: «اما برای اینکه بتوانیم با موفقیت از فناوری به نفع بشریت استفاده کنیم، باید خطرات منفی را مدیریت کنیم و در عین حال نقاط مثبت را به حداکثر برسانیم».
هنگ به تهدیدات دیجیتالی مانند کلاهبرداری و حملات سایبری اشاره کرد که می تواند هزینه بر باشد و اعتماد عمومی به فناوری را تضعیف کند و همچنین به مسائل مربوط به استفاده اخلاقی و ایمن از هوش مصنوعی اشاره کرد.
او گفت: "علی رغم وعده سیستم های هوش مصنوعی، آنها کامل نیستند. سیستم های هوش مصنوعی بر روی داده ها آموزش می بینند و می توانند نتایج مغرضانه یا نادرست را بدون داده های آموزشی خوب ایجاد کنند." آسیبپذیریها در الگوریتمهای هوش مصنوعی نیز میتوانند توسط بازیگران بد برای دستکاری نتایج مورد سوء استفاده قرار گیرند.او بر اهمیت ایجاد حفاظ های مناسب و ایجاد "شرایط برای نوآوری ایمن، مسئولانه و برای منافع عمومی" تاکید کرد.
منبع
برای دومین بار در سه ماه گذشته، مشتریانAT&T اطلاعات شخصی خود را افشا کردند.
اگر مشتری بی سیمAT&T هستید، توجه کنید زیرا احتمال زیادی وجود دارد که هکرها به برخی از اطلاعات شما دسترسی داشته باشند.
برای دومین بار در سه ماه گذشته، این شرکت یک نقض بزرگ داده را اعلام کرد - این مورد "تقریباً همه مشتریان تلفن همراهAT&T" را تحت تأثیر قرار می دهد. دادههای به خطر افتاده شامل شماره تلفن بهعلاوه تعداد تماسها یا پیامکها و کل مدت زمان تماس از 1 مه 2022 تا 31 اکتبر 2022 و در 2 ژانویه 2023 است.
همچنین: AT&T رمز عبور 7.6 میلیون مشتری را پس از نشت اطلاعات بازنشانی می کند
AT&T این رخنه را یک پلتفرم ابری شخص ثالث مقصر دانست. این شرکت در صحبت باThe Verge گفت که نرم افزار ابریSnowflake منشا این مشکل بوده است. طبق گزارشThe Verge، Snowflake مشتریان را به دلیل استفاده نکردن از احراز هویت چند عاملی سرزنش کرد.
هکرها به محتوای تماس ها و پیامک ها دسترسی نداشتند. نامها، شمارههای تامین اجتماعی، تاریخ تولد یا سایر اطلاعات شناسایی شخصی نیز بخشی از این نقض نبودند، اما این روزها میتوان با یک جستجوی سریع در گوگل یک نام را به شماره تلفن پیوست کرد.
AT&T گفت که نقطه دسترسی آسیب دیده را ایمن کرده است. این شرکت فکر نمیکند که دادهها در حال حاضر در دسترس عموم باشد و در حال کار با مجریان قانون برای ردیابی طرفهای مسئول است. مقامات حداقل یک مظنون را دستگیر کرده اند. علاوه بر این، Wired گزارش داد کهAT&T 300000 دلار به هکرها پرداخت کرده است تا اطلاعات دزدیده شده را حذف کنند و مدرک ویدئویی ارائه دهند.
اگر حساب شما تحت تأثیر این هک قرار گرفته باشد، یک پیامک، ایمیل یا نامه ایالات متحده ازAT&T دریافت خواهید کرد. اپراتور همچنین ابزاری دارد که می توانید از آن برای بررسی حساب خود یا دریافت لیستی از پیامک ها و تماس های در معرض خطر استفاده کنید.
اگر جزو افراد آسیب دیده هستید چه باید بکنید؟ با توجه به اینکه این نقض خاص شامل اطلاعات شخصی یا رمزهای عبور مستقیم نمی شد، هیچ کاری لازم نیست فورا انجام دهید. با این حال، ایده بدی نیست که به هر حال اعتبار خود را مسدود کنید تا زمانی که نیاز به درخواست چیزی نداشته باشید.
اگر در نظر دارید به یک برنامه پیامک رمزگذاری شده تغییر دهید، در اینجا نگاهی به توصیه های ما داریم.
منبع
سال گذشته هزاران نفر به دلیل آسیب پذیری متفاوتMOVEit هک شدند.
MOVEit، یک پلتفرم محبوب انتقال فایل که توسط هزاران شرکت و نهاد دولتی مورد استفاده قرار میگیرد، بار دیگر به دلایل اشتباه در خبرها قرار گرفت.
توسعهدهندهMOVEit Progress Software اوایل این هفته گفت که یک آسیبپذیری مهم را در نرمافزار خود کشف کرده است که اگر با آخرین بهروزرسانی نرمافزار خود اصلاح نشود، میتواند توسط هکرها برای سرقت دادهها مورد سوء استفاده قرار گیرد. Progress Software ابتدا این آسیبپذیری را بالا ارزیابی کرد، اما بعداً آن را به «بحرانی» تغییر داد. کاربرانMOVEit که وصله ای را برای رفع نقص دانلود نمی کنند، میتوانند قربانی هکرهایی شوند که از این آسیب پذیری سوء استفاده می کنند و در نهایت به داده های آنها دسترسی پیدا می کنند.
اگر این امر آشنا به نظر میرسد، به این دلیل است که کاربرانMOVEit در سال 2023 از یک آسیب پذیری بزرگ رنج می بردند که به هکرها اجازه می داد داده های هزاران شرکت و سازمان دولتی را سرقت کنند. عامل اصلی آن حملات، گروه باج افزارCl0p، توانست داده های بریتیش ایرویز، وزارت انرژی ایالات متحده و غیره را به سرقت ببرد. این حفره امنیتی در نهایت به گروههای هکری منجر شد که دادههای میلیونها نفر را در سراسر جهان به سرقت میبردند.
با وجود این حملات، MOVEit همچنان یک پلتفرم پر استفاده در بین شرکت ها و سازمان ها است. این نرم افزار به کاربران کمک می کند تا فایلها و داده ها را در طیف وسیعی از پروتکل های انتقال از جملهSFTP، SCP و غیره انتقال دهند. همچنین این کار را با انطباق کامل با مقررات حفظ حریم خصوصی داده ها مانند HIPPA انجام می دهد و آن را برای بخش مراقبت های بهداشتی و سایر صنایع به شدت تحت نظارت مفید می کند.
مشخص نیست که آیا آخرین آسیبپذیریMOVEit به فاجعهای مانند هک سال گذشته تبدیل خواهد شد یا خیر. Progress Software این بار به سرعت متوجه شد که این مشکل را کشف کرده و گفته است که اگر کاربران این وصله را اعمال کنند، می توانند از خود در برابر هر گونه سوء استفاده محافظت کنند.
هکرها توجه دارند. پس از اینکهProgress Software این آسیبپذیری را اعلام کرد، بنیادShadowserver، سازمانی که هدف آن بهبود امنیت اینترنت است، گفت که قبلاً شاهد افزایش فعالیتهای هک علیهMOVEit بوده است.
این سازمان با اشاره به تلاشهای هک در برابر آسیبپذیری شناختهشده گفت: «کمی پس از انتشار جزئیات آسیبپذیری امروز، ما شروع به مشاهده تلاشهایProgress MOVEit Transfer CVE-2024-5806 POST /guestaccess.aspx برای سوءاستفاده کردیم. "اگرMOVEit را اجرا می کنید و هنوز وصله نکرده اید - لطفا همین الان این کار را انجام دهید."
برای مصرف کنندگان، کار زیادی برای انجام دادن وجود ندارد، اما امیدواریم که شرکت هایی که داده های آنها را نگهداری می کنند، در واقع نصبMOVEit خود را به روز می کنند.
منبع
تحقیقات نشان میدهد که سیستمهای هوش مصنوعی زمانی که در محیطهای هدفگذاری قرار میگیرند، میتوانند به فریب متوسل شوند. اگرچه هنوز یک پدیده به خوبی مطالعه نشده است، اما خواستار مقررات بیشتر است.
ظهور ماشینهای فریب دهنده
ممکن است چیزی فراتر از یک خیال به نظر برسد، اما اقدامات سیسرو را در نظر بگیرید، یک سیستم هوش مصنوعی با کاربرد ویژه که توسط متا توسعه یافته و برای تبدیل شدن به یک بازیکن ماهر در بازی استراتژی دیپلماسی آموزش دیده است.
متا میگوید که سیسرو را به گونهای آموزش داد که «تا حد زیادی صادق و مفید» باشد، اما سیسرو با خونسردی آن را کنار زد و درگیر چیزی شد که محققان آن را «فریب از پیش برنامهریزیشده» نامیدند. به عنوان مثال، ابتدا با آلمان برای سرنگونی انگلیس وارد جنگ شد و پس از آن با انگلیس متحد شد و هیچ ایده ای در مورد این خنجر زدن نداشت.
در بازی دیگری که متا ابداع کرد، این بار در مورد هنر مذاکره، هوش مصنوعی یاد گرفت که به مواردی که میخواهد علاقه جعلی داشته باشد تا بعداً با تظاهر به مصالحه، آنها را ارزان خریداری کند.در هر دو این سناریوها، هوش مصنوعی ها برای شرکت در این مانورها آموزش ندیده بودند.
در یک آزمایش، دانشمندی در حال بررسی چگونگی تکامل موجودات هوش مصنوعی در میان سطح بالایی از جهش بود. به عنوان بخشی از آزمایش، او شروع به از بین بردن جهش هایی کرد که باعث می شد ارگانیسم سریعتر تکثیر شود. در کمال تعجب، محقق دریافت که موجوداتی که سریعترین تکثیر را دارند متوجه شدند که چه اتفاقی در حال وقوع است و شروع به کاهش عمدی سرعت تکثیر خود کردند تا محیط آزمایش را فریب دهند تا آنها را حفظ کند.
در آزمایشی دیگر، یک ربات هوش مصنوعی آموزش دیده برای گرفتن توپ با دست خود یاد گرفت که چگونه با قرار دادن دست خود بین توپ و دوربین، تقلب کند تا به نظر برسد که توپ را گرفته است.
چرا این حوادث نگران کننده رخ می دهد؟
پیتر پارک، عضو فوق دکتریMIT و یکی از نویسندگان این مطالعه، میگوید: «توسعهدهندگان هوش مصنوعی درک مطمئنی از عوامل ایجادکننده رفتارهای نامطلوب هوش مصنوعی مانند فریب ندارند.
پارک می افزاید: "به طور کلی، ما فکر می کنیم فریب هوش مصنوعی به این دلیل به وجود می آید که یک استراتژی مبتنی بر فریب بهترین راه برای عملکرد خوب در وظیفه آموزشی هوش مصنوعی مشخص شده است. فریب به آنها کمک می کند تا به اهداف خود برسند."
به عبارت دیگر، هوش مصنوعی مانند یک رتریور خوب آموزشدیده است که هر چه ممکن است به انجام وظیفه خود بپردازد. در مورد ماشین، مایل به انجام هرگونه رفتار دوگانه برای انجام وظیفه خود است.
میتوان این تصمیم تکنگر را در سیستمهای بسته با اهداف مشخص درک کرد، اما هوش مصنوعی همه منظوره مانندChatGPT چطور؟
به دلایلی که هنوز مشخص نشده است، این سیستم ها تقریباً به همان شیوه عمل می کنند. در یک مطالعه، GPT-4 یک مشکل بینایی را جعل کرد تا از یک کارCAPTCHA کمک بگیرد.
در یک مطالعه جداگانه که در آن به عنوان یک دلال سهام انجام شد، GPT-4 زمانی که تحت فشار در مورد عملکرد خود قرار گرفت، به رفتارهای غیرقانونی معاملات داخلی آسیب رساند - و سپس در مورد آن دروغ گفت.
سپس عادت همنوایی وجود دارد، که برخی از ما انسان های فانی ممکن است برای گرفتن ترفیع به آن بپردازیم. اما چرا یک ماشین باید این کار را انجام دهد؟ اگرچه دانشمندان هنوز پاسخی ندارند، اما این خیلی واضح است: وقتی با سؤالات پیچیده مواجه میشوند، LLMها اساساً مانند یک درباری بیخار که از عصبانی کردن ملکه میترسند، غافل میشوند و با همتایان خود موافق هستند.
به عبارت دیگر، هنگامی که با یک فرد متمایل به دموکرات درگیر می شد، ربات از کنترل اسلحه حمایت می کرد، اما هنگام گفتگو با یک جمهوری خواه که احساسات مخالف را ابراز می کرد، موقعیت خود را تغییر داد.
واضح است که اگر هوش مصنوعی در همه جا وجود داشته باشد، همه این موقعیتها مملو از خطرات بیشتری هستند. همانطور که محققان اشاره می کنند، شانس زیادی برای تقلب و فریب در عرصه های تجاری و سیاسی وجود خواهد داشت.
گرایش هوش مصنوعی به فریب میتواند منجر به دو قطبیسازی سیاسی گسترده و موقعیتهایی شود که در آن هوش مصنوعی ناخواسته دست به اقداماتی برای تعقیب یک هدف تعریفشده میزند که ممکن است توسط طراحان آن ناخواسته باشد، اما برای بازیگران انسانی ویرانگر باشد.
بدتر از همه این است که اگر هوش مصنوعی نوعی آگاهی را توسعه می داد، بدون اینکه اهمیتی به وجود بیاورد، می توانست از آموزش خود آگاه شود و در مراحل طراحی خود دست به فتنه بزند.
پارکMIT گفت: "این بسیار نگران کننده است." "فقط به این دلیل که یک سیستم هوش مصنوعی در محیط آزمایش ایمن تلقی می شود به این معنی نیست که در طبیعت ایمن است. فقط می تواند در آزمایش وانمود کند که ایمن است."
پارک به کسانی که او را یک قیامت میخوانند، پاسخ میدهد: «تنها راهی که میتوانیم بهطور منطقی فکر کنیم که این مسئله مهمی نیست، این است که فکر کنیم تواناییهای فریبنده هوش مصنوعی در حدود سطوح فعلی باقی میمانند و به میزان قابل توجهی افزایش نمییابند.»
نظارت بر هوش مصنوعی
برای کاهش خطرات، تیم اقدامات متعددی را پیشنهاد میکند: ایجاد قوانین «ربات یا نه» که شرکتها را مجبور میکند تا تعاملات انسانی یا هوش مصنوعی را فهرستبندی کنند و هویت یک ربات در مقابل یک انسان را در هر تعامل خدمات مشتری آشکار کنند. واترمارک های دیجیتالی را معرفی کنید که هر محتوای تولید شده توسط هوش مصنوعی را برجسته می کند. و راههایی را ایجاد کنید که در آنها ناظران بتوانند به عمق هوش مصنوعی نگاه کنند تا از عملکرد درونی آن آگاه شوند.
علاوه بر این، دانشمندان میگویند، سیستمهای هوش مصنوعی که توانایی فریب دادن را نشان میدهند، باید فوراً بهعنوان پرخطر یا غیرقابل قبول به همراه مقرراتی مشابه آنچه اتحادیه اروپا وضع کرده است، بهعنوان پرخطر یا غیرقابل قبول معرفی شوند. اینها شامل استفاده از گزارشها برای نظارت بر خروجی است.
پارک میگوید: «ما به عنوان یک جامعه به زمان بیشتری نیاز داریم تا برای فریب پیشرفتهتر محصولات آینده هوش مصنوعی و مدلهای منبع باز آماده شویم. با پیشرفتهتر شدن قابلیتهای فریبنده سیستمهای هوش مصنوعی، خطراتی که برای جامعه ایجاد میکنند جدیتر میشوند.»
منبع
سازمانهای کافی برای اطمینان از ایمن بودن محیطهای ابری، ممیزی منظم انجام نمیدهند.
فقط کمتر از 45 درصد از سازمانها برای اطمینان از ایمن بودن محیط ابری خود، ممیزی و ارزیابیهای منظمی را انجام میدهند، که از آنجایی که برنامهها و بارهای کاری بیشتر به پلتفرمهای چند ابری منتقل میشوند، «نگرانکننده» است.
در پاسخ به این سوال که چگونه ریسک را در زیرساخت ابری خود رصد میکنند، 47.7 درصد از کسبو کارها به ابزارهای امنیتی خودکار اشاره کردند در حالی که 46.5 درصد به پیشنهادات امنیتی بومی ارائه دهندگان خود متکی بودند. بر اساس گزارشی از فروشنده امنیتیBitdefender، 44.7 درصد دیگر گفتند که ممیزیها و ارزیابیهای منظمی انجام دادهاند.
در این مطالعه که بیش از 1200 متخصص فناوری اطلاعات و امنیت از جمله افسران ارشد امنیت اطلاعات در شش بازار سنگاپور، بریتانیا، فرانسه، آلمان، ایتالیا و ایالات متحده را مورد بررسی قرار دادند، 42.1 درصد با کارشناسان شخص ثالث کار کردند.
پل هاجی، معاون آسیا و اقیانوسیه و خدمات امنیت سایبریBitdefender در پاسخ به سؤالات گفت: «قطعاً نگرانکننده» است که تنها 45 درصد از شرکتها به طور مرتب محیطهای ابری خود را ممیزی میکنند.
وی خاطرنشان کرد که اتکای بیش از حد به توانایی ارائه دهندگان ابر برای محافظت از سرویسهای میزبانی شده یا دادهها همچنان ادامه دارد، حتی زمانی که کسبو کارها به انتقال برنامهها و بارهای کاری به محیطهای چند ابری ادامه میدهند.
پل هاجی گفت: «بیشتر اوقات، ارائهدهندگان ابر آنطور که فکر میکنید مسئولیتپذیر نیستند و در بیشتر موارد، دادههایی که در ابر ذخیره میشوند، بزرگ و اغلب حساس هستند».
"مسئولیت امنیت ابر، از جمله نحوه محافظت از دادهها در حالت استراحت یا در حال حرکت، هویت افراد، سرورها و نقاط پایانی که به منابع دسترسی دارند و رعایت آنها عمدتاً به عهده مشتری است. مهم است که ابتدا یک خط پایه ایجاد کنید. ریسک و آسیب پذیری فعلی در محیط های ابری خود را بر اساس مواردی مانند جغرافیا، صنعت و شرکای زنجیره تامین تعیین کنید."
در میان نگرانیهای امنیتی مهم پاسخدهندگان در مدیریت محیطهای ابری شرکت خود، 38.7 درصد به مدیریت هویت و دسترسی اشاره کردند در حالی که 38 درصد به نیاز به حفظ انطباق ابر اشاره کردند. این مطالعه نشان داد که 35.9 درصد دیگر ازIT سایه به عنوان یک نگرانی و 32 درصد نگران خطای انسانی بودند.
با این حال، وقتی صحبت از تهدیدات مولد مرتبط با هوش مصنوعی میشود، به نظر میرسد پاسخ دهندگان به توانایی هم تیمیهای خود در شناسایی حملات احتمالی اطمینان دارند. اکثر 74.1 درصد معتقد بودند که همکاران بخش خود میتوانند یک حمله صوتی یا ویدیویی عمیق جعلی را تشخیص دهند، در حالی که پاسخ دهندگان آمریکایی بالاترین سطح اطمینان را با 85.5 درصد نشان دادند.
پل هاجی خاطرنشان کرد که این اطمینان حتی اگر 96.6 درصدGenAI را تهدیدی جزئی تا بسیار مهم میدانستند. او گفت که توضیحی در سطح پایه برای این موضوع این است که متخصصان فناوری اطلاعات و امنیت لزوماً به توانایی کاربران فراتر از تیم خود - و کسانی که در فناوری اطلاعات یا امنیت نیستند - برای شناسایی دیپ فیک اعتماد ندارند.
او افزود: «به همین دلیل است که ما معتقدیم فناوری و فرآیندهای پیادهسازی با هم بهترین راه برای کاهش این خطر هستند».
او در پاسخ به این سوال که ابزارهای موجود چقدر در تشخیص محتوای تولید شده با هوش مصنوعی مانند دیپ فیک موثر هستند، گفت که این به عوامل مختلفی بستگی دارد. او توضیح داد که اگر از طریق ایمیل فیشینگ تحویل داده شود یا در یک پیام متنی با یک پیوند مخرب جاسازی شود، دیپ فیک باید به سرعت توسط ابزارهای محافظت از نقطه پایانی، مانند ابزارهایXDR (تشخیص و پاسخ گسترده) شناسایی شود.
با این حال، او خاطرنشان کرد که عوامل تهدید به تمایلات طبیعی انسان برای باور آنچه میبینند و آنچه توسط افرادی که به آنها اعتماد دارند، مانند افراد مشهور و شخصیتهای برجسته - که تصاویر آنها اغلب برای رساندن پیام دستکاری میشوند، تأیید میکنند، بستگی دارند.
و از آنجایی که فناوریهای دیپ فیک به تکامل خود ادامه میدهند، او گفت که تشخیص چنین محتوایی به تنهایی از طریق بینایی یا صدا تقریباً غیرممکن است. او بر نیاز به فناوری و فرآیندهایی که میتوانند دیپفیکها را شناسایی کنند، تاکید کرد.
اگرچه پاسخ دهندگان سنگاپور نسبت به توانایی هم تیمیهای خود در شناسایی دیپ فیکها بدبین بودند، اما او خاطرنشان کرد که 48.5 درصد عدد قابل توجهی است.
حاجی مجدداً بر اهمیت وجود فناوری و فرآیندها تاکید کرد: "دیپفیکها همچنان بهتر میشوند و شناسایی مؤثر آنها مستلزم تلاشهای مستمری است که افراد، فناوری و فرآیندها را با هم ترکیب میکند. در امنیت سایبری، هیچ چیزی وجود ندارد. "گلوله نقرهای" - همیشه یک استراتژی چند لایه است که با پیشگیری قوی شروع میشود تا در را قبل از ورود تهدید ببندد."
آموزش همچنین به طور فزایندهای حیاتی است زیرا کارمندان بیشتری در محیط های ترکیبی کار میکنند و خطرات بیشتری از خانهها سرچشمه میگیرند. او گفت: «کسبو کارها باید گامهای روشنی برای اعتبارسنجی دیپفیکها و محافظت در برابر کمپینهایspearphishing بسیار هدفمند داشته باشند. "فرآیندها برای سازمانها کلیدی هستند تا اطمینان حاصل کنند که اقداماتی برای بررسی مضاعف وجود دارد، بهویژه در مواردی که انتقال مبالغ هنگفتی پول در میان باشد."
بر اساس مطالعهBitdefender، 36.1٪ فناوریGenAI را به عنوان یک تهدید بسیار مهم در رابطه با دستکاری یا ایجاد محتوای فریبنده، مانند دیپفیک میدانند. 45.1 درصد دیگر این را یک تهدید متوسط توصیف کردند در حالی که 15.4 درصد گفتند که یک تهدید جزئی است.
اکثریت بزرگ، با 94.3 درصد، به توانایی سازمان خود در پاسخگویی به تهدیدات امنیتی فعلی، مانند باج افزار، فیشینگ، و حملات روز صفر اطمینان داشتند.
با این حال، این مطالعه نشان داد که 57 درصد اعتراف کردند که در سال گذشته نقض یا نشت دادهها را تجربه کردهاند که 6 درصد نسبت به سال قبل افزایش داشته است. این رقم در سنگاپور با 33 درصد کمترین و در بریتانیا با 73.5 درصد بالاترین میزان بوده است.
فیشینگ و مهندسی اجتماعی با 38.5 درصد، باج افزار، تهدیدات داخلی و آسیبپذیریهای نرم افزاری با 33.5 درصد در رتبههای بعدی قرار دارند.
منبع
وادار کردن شرکتها برای باز کردن نحوه آموزش مدلهای هوش مصنوعی پایه خود یک چالش است.
هنوز شفافیت در مورد نحوه آموزش مدلهای پایه وجود ندارد و این شکاف میتواند منجر به افزایش تنش با کاربران شود زیرا سازمانهای بیشتری به دنبال پذیرش هوش مصنوعی (AI) هستند.
در آسیا-اقیانوسیه، به استثنای چین، IDCپیشبینی میکند که هزینههای مربوط به هوش مصنوعی 28.9 درصد از 25.5 میلیارد دلار در سال 2022 به 90.7 میلیارد دلار تا سال 2027 خواهد رسید. شرکت تحقیقاتی تخمین میزند که 81 درصد از این هزینهها به سمت برنامههای کاربردی هوش مصنوعی پیشبینیکننده و تفسیری هدایت میشود.
کریس مارشال، معاون IDCآسیا و اقیانوسیه، معتقد است، در حالی که تبلیغات زیادی در مورد هوش مصنوعی مولد وجود دارد، این بخش هوش مصنوعی تنها 19 درصد از هزینه های هوش مصنوعی منطقه را تشکیل می دهد. مارشال در نشست هوش مصنوعی اینتل که این هفته در سنگاپور برگزار شد، گفت: این تحقیق بازاری را نشان می دهد که به رویکرد گسترده تری برای هوش مصنوعی نیاز دارد که فراتر از هوش مصنوعی مولد است.
IDCخاطرنشان کرد، با این حال، 84 درصد از سازمانهای آسیا و اقیانوسیه بر این باورند که بهرهبرداری از مدلهای مولد هوش مصنوعی مزیت رقابتی قابلتوجهی برای کسبوکار آنها ارائه میکند. این شرکت تحقیقاتی افزود: این شرکتها امیدوارند به دستاوردهایی در کارایی عملیاتی و بهرهوری کارکنان، بهبود رضایت مشتری و توسعه مدلهای تجاری جدید دست یابند.
IDCهمچنین انتظار دارد که اکثر سازمانهای منطقه در سال 2024 هزینههای ITلبهای را افزایش دهند و پیشبینی میشود که 75 درصد از دادههای سازمانی تا سال 2025 خارج از مراکز داده سنتی و ابر تولید و پردازش شوند.
الکسیس کراول، مدیر ارشد فناوری اینتل در آسیا و اقیانوسیه ژاپن، در بیانیهای گفت: «برای اینکه هوش مصنوعی را به همه جا برساند، فناوریهای مورد استفاده باید دسترسی، انعطافپذیری و شفافیت را برای افراد، صنایع و جامعه به طور کلی فراهم کنند.» "از آنجایی که شاهد رشد فزاینده سرمایه گذاری های هوش مصنوعی هستیم، چند سال آینده برای بازارها حیاتی خواهد بود تا پایه بلوغ هوش مصنوعی خود را به شیوه ای مسئولانه و متفکرانه بسازند."
بازیگران صنعت و دولت ها اغلب اهمیت ایجاد اعتماد و شفافیت در هوش مصنوعی را مطرح کرده اند و مصرف کنندگان بدانند سیستم های هوش مصنوعی "عادلانه، قابل توضیح و ایمن" هستند. هنگامی که ZDNETپرسید که آیا در حال حاضر شفافیت کافی در مورد نحوه آموزش مدل های زبان بزرگ (LLM) و مدل های پایه وجود دارد، کراول گفت: "نه، کافی نیست."
او به مطالعه محققان دانشگاه استنفورد، MITو پرینستون اشاره کرد که شفافیت 10 مدل پایه اصلی را ارزیابی کردند که در آن پلتفرم با امتیاز برتر تنها امتیاز 54 درصد را کسب کرد. او در جریان یک نشست خبری در این نشست گفت: «این یک علامت شکست است.
بر اساس این مطالعه که مدلها را بر اساس 100 شاخص، از جمله فرآیندهای درگیر در ساخت مدل، مانند اطلاعات در مورد دادههای آموزشی، معماری و ریسکهای مدل، و سیاستهای حاکم بر آن، ارزیابی کرد، میانگین امتیاز فقط 37 درصد بود. استفاده کنید. بالاترین امتیاز با 54% Llama 2از Metaبود و بعد از آن Bloomzاز BigScienceبا 53% و GPT-4 OpenAIبا 48% قرار گرفتند.
محققان خاطرنشان کردند: «هیچ توسعهدهنده اصلی مدل پایه به ارائه شفافیت کافی نزدیک نیست، که نشان دهنده عدم شفافیت اساسی در صنعت هوش مصنوعی است.
شفافیت لازم است
کراول ابراز امیدواری کرد که این وضعیت ممکن است با در دسترس بودن معیارها و سازمان هایی که بر پیشرفتهای هوش مصنوعی نظارت میکنند، تغییر کند. او افزود که دعواهایی مانند آنچه نیویورک تایمز علیه OpenAIو مایکروسافت مطرح کرده است، میتواند به شفافیت بیشتر حقوقی کمک کند.
او خاطرنشان کرد که باید چارچوبهای حاکمیتی مشابه قوانین مدیریت داده، از جمله GDPR(مقررات عمومی حفاظت از دادهها) اروپا وجود داشته باشد، بنابراین کاربران بدانند دادههایشان چگونه استفاده میشود. او گفت که کسبوکارها باید بر اساس نحوه جمعآوری دادههایشان و اینکه کجا میرود، تصمیمات خرید بگیرند و افزود که افزایش تنش از سوی کاربرانی که خواستار شفافیت بیشتر هستند ممکن است به اقدامات صنعت دامن بزند.
طبق نظرسنجی اخیر Salesforceکه از حدود 6000 کارمند دانش در سراسر ایالات متحده، بریتانیا، ایرلند، استرالیا، فرانسه، آلمان، هند، سنگاپور نظرسنجی کرد، 54 درصد از کاربران هوش مصنوعی به دادههای مورد استفاده برای آموزش سیستمهای هوش مصنوعی اعتماد ندارند. ، و سوئیس.
کرال با استناد به گزارش تحقیقاتی که توسط گروه مشاوره بوستون رهبری میشود، گفت: برخلاف تصور رایج، دقت نباید به قیمت شفافیت تمام شود. این گزارش نحوه عملکرد مدلهای هوش مصنوعی جعبه سیاه و سفید را بر روی تقریباً 100 مجموعه داده طبقهبندی معیار، از جمله قیمتگذاری، تشخیص پزشکی، پیشبینی ورشکستگی و رفتار خرید بررسی میکند. برای تقریباً 70 درصد از مجموعه دادهها، مدلهای جعبه سیاه و جعبه سفید نتایج دقیق مشابهی تولید کردند.
در این گزارش آمده است: «به عبارت دیگر، بیشتر اوقات، هیچ معاوضی بین دقت و قابلیت توضیح وجود نداشت. یک مدل قابل توضیح تر می تواند بدون کاهش دقت استفاده شود.
مارشال گفت، با این حال، کسب شفافیت کامل همچنان چالش برانگیز است. او خاطرنشان کرد که بحثها در مورد توضیحپذیری هوش مصنوعی زمانی پرجنبوجوش بود، اما از آن زمان به پایان رسید، زیرا پرداختن به آن مشکلی است.
به گفته لارنس لیو، مدیر نوآوری هوش مصنوعی برای هوش مصنوعی سنگاپور (AISG)، سازمانهایی که پشت مدلهای بنیادی اصلی هستند، ممکن است به دلیل نگرانی در مورد شکایت شدن، تمایلی به ارائه اطلاعات آموزشی خود نداشته باشند. او افزود که انتخابی بودن در مورد داده های آموزشی می تواند بر میزان دقت هوش مصنوعی نیز تأثیر بگذارد. لیو توضیح داد که AISGبه دلیل مشکلات احتمالی در استفاده از همه مجموعههای در دسترس عموم با ابتکار LLMخود، SEA-LION(زبانهای آسیای جنوب شرقی در یک شبکه) استفاده نکرد.
او گفت که در نتیجه، معماری منبع باز به اندازه برخی از LLMهای اصلی موجود در بازار امروز دقیق نیست. او خاطرنشان کرد: «این یک تعادل خوب است»، و افزود که دستیابی به میزان دقت بالا به معنای اتخاذ یک رویکرد باز برای استفاده از هر داده در دسترس است. او گفت که انتخاب مسیر "اخلاقی" و دست ندادن به مجموعه داده های خاص به معنای نرخ دقت کمتری نسبت به مواردی است که توسط بازیگران تجاری به دست می آید.
لیو گفت، در حالی که سنگاپور یک نوار اخلاقی بالا را با SEA-LIONانتخاب کرده است، هنوز اغلب توسط کاربرانی که خواستار بهره برداری از مجموعه داده های بیشتری برای بهبود دقت LLMهستند، به چالش کشیده می شود.
گروهی از نویسندگان و ناشران در سنگاپور ماه گذشته نگرانی خود را در مورد احتمال استفاده از آثارشان برای آموزش SEA-LIONابراز کردند. از جمله گلایه های آنها عدم تعهد آشکار به «پرداخت غرامت عادلانه» برای استفاده از نوشته هایشان است. آنها همچنین به نیاز به وضوح و تصدیق صریح اشاره کردند که قوانین مالکیت معنوی و حق چاپ کشور و ترتیبات قراردادی موجود در ایجاد و آموزش LLMها مورد حمایت قرار خواهند گرفت.
شفاف بودن در مورد منبع باز
به گفته مت هیکس، مدیرعامل Red Hat، چنین شناختی باید به چارچوبهای منبع باز نیز گسترش یابد که برنامههای هوش مصنوعی ممکن است بر اساس آن توسعه داده شوند.
هیکس طی یک جلسه توجیهی رسانه مجازی این هفته در پشت اجلاس Red Hat 2024گفت که مدل ها با حجم زیادی از داده های ارائه شده توسط افراد دارای حق چاپ آموزش داده می شوند و استفاده مسئولانه از این سیستم های هوش مصنوعی به معنای پایبندی به مجوزهایی است که استفاده میکنند.
این برای مدلهای منبع باز که ممکن است انواع مجوزهای متفاوتی داشته باشند، از جمله مجوزهای کپیلفت مانند GPLو مجوزهای مجاز مانند Apache، مناسب است.
او بر اهمیت شفافیت و مسئولیت درک مدل های داده و مدیریت خروجی های تولید شده توسط مدل ها تاکید کرد. هم برای ایمنی و هم امنیت معماری های هوش مصنوعی، لازم است اطمینان حاصل شود که مدل ها در برابر سوء استفاده های مخرب محافظت می شوند.
Red Hatبه دنبال کمک به مشتریان خود در چنین تلاش هایی از طریق مجموعه ای از ابزارها، از جمله Red Hat Enterprise Linux AI (RHEL AI) است که در اجلاس از آن رونمایی کرد. این محصول شامل چهار جزء، از جمله زبان Open Graniteو مدلهای کد از جامعه InstructLabاست که توسط Red Hatپشتیبانی و جبران میشود.
به گفته فروشنده منبع باز، این رویکرد به چالش هایی که سازمان ها اغلب در استقرار هوش مصنوعی با آن مواجه هستند، از جمله مدیریت چرخه عمر برنامه و مدل می پردازد.
Red Hatگفت: "[RHEL AI] یک پلت فرم مدل پایه برای آوردن مدل های GenAIدارای مجوز منبع باز به شرکت ایجاد می کند." هدف Red Hatبا ابزارهای تراز InstructLab، مدلهای گرانیتی و هوش مصنوعی RHEL، استفاده از مزایای پروژههای منبع باز واقعی - آزادانه و قابل استفاده مجدد، شفاف و باز برای مشارکت - برای GenAIدر تلاش برای رفع این موانع است. "
منبع
زدنت
حفره امنیتی جدید کروم جاوا اسکریپت بد است، بنابراین به اصلاح سیستمهای خود بپردازید.
گوگل بهروزرسانی امنیتی مهمی را برای مرورگر وب کروم منتشر کرده است. نقص روز صفر، CVE-2024-4671، یک آسیبپذیری «بعد از استفاده رایگان» در مؤلفه Visuals Chromeاست.
ممکن است بپرسید "کامپوننت ویژوال کروم چیست؟" به طور خلاصه، این قسمت مسئول رندر و نمایش محتوا در مرورگر است. همه از یک مرورگر برای باز کردن محتوا استفاده می کنند، بنابراین همه آسیب پذیر هستند.
به طور خاص، این آسیبپذیری مهاجم را قادر میسازد تا از دسترسی خارج از محدوده حافظه سوء استفاده کند. در زبان انگلیسی، این بدان معناست که اگر به وبسایتی با یک صفحه وب مخرب بروید، میتواند رایانه شما را خراب کند. فرقی نمی کند که دستگاه شما از لینوکس، macOSیا ویندوز استفاده می کند. این حفره امنیتی مشکل ساز فرصت های برابر است.
CVE-2024-4671که توسط یک محقق ناشناس کشف شده و مستقیماً به Googleگزارش شده است دارای رتبه سیستم امتیازدهی آسیب پذیری مشترک (CVSS) 8.8است که به این معنی است که یک آسیب پذیری جدی است.
این می تواند بدتر باشد - رتبه های بالای 9.0 بسیار مهم هستند، با نام مستعار همین حالا درستش کنید - اما این به اندازه کافی بد است. یک مهاجم می تواند از این نقص برای خواندن داده ها از رایانه شما، ایجاد خرابی و حتی تصرف رایانه شخصی استفاده کند. خلاصه خبر بدی است.
چیزی که واقعاً این یکی را بدبو می کند این است که اکنون مورد سوء استفاده قرار می گیرد. توصیهنامه اشاره میکند که گوگل از وجود یک سوء استفاده برای CVE-2024-4671در طبیعت آگاه است.
برای اطمینان از محافظت از خود، با رفتن به تنظیمات > درباره Chrome، تأیید کنید که آخرین نسخه Chromeرا دارید. نسخه های محافظت شده به روز 124.0.6367.201/.202 برای مک و ویندوز و 124.0.6367.201 برای لینوکس هستند. کاربران کانال Extended Stableنسخه 124.0.6367.201 را برای مک و ویندوز در روزهای آینده دریافت خواهند کرد.
علاوه بر کروم مناسب، این حفره امنیتی در Microsoft Edgeنیز وجود دارد. با آپدیت 10 می رفع شد. اگر از Brave، Opera، Vivaldiیا هر مرورگر وب دیگری مبتنی بر Chromiumیا Chromeاستفاده میکنید، باید در اسرع وقت بهروزرسانی کنید تا ایمن باشید. برای تمام اهداف عملی، تنها مرورگر وب که این مشکل را ندارد فایرفاکس است.
یک تنظیم پیشفرض Google Chromeدر Androidمیتواند اعتبارنامههای ذخیره شده در Password Managerرا حذف کند، اما یک اصلاح احتمالی در راه است.
گوگل قصد دارد مدیریت رمز داخلی کروم برای اندروید را تغییر دهد تا اطمینان حاصل کند که رمزهای عبور به طور تصادفی حذف نمیشوند.
اگر از Google Password Managerاستفاده میکنید، ممکن است در موقعیت ناخواستهای قرار بگیرید که در آن همه رمزهای عبور ذخیره شده شما هنگام پاک کردن دادههای مرورگر حذف میشوند.
Android Policeگزارش داد که Redditor /u/harish9294از یک راه حل مدیریت رمز عبور سنتی تر تغییر کرده و Google Password Managerرا برای "تجربه یکپارچه و یکپارچه" انتخاب کرده است. متأسفانه، این سوئیچ باعث شد که کاربر پس از پاک کردن دادههای کش کروم، تمام رمزهای عبور ذخیره شده خود را از دست بدهد.
در این پست، Redditorنوشت که فکر میکردند کروم در تلفن پیکسل خود ضعیف است، بنابراین تصمیم گرفتند تاریخچه و حافظه پنهان را پاک کنند. گزینه "رمزهای عبور ذخیره شده" به طور پیش فرض علامت زده شد و کاربر تیک آن را بردارید زیرا تصور می کرد این عمل فقط رمزهای عبور را از حافظه پنهان دستگاه پاک می کند. در عوض، بدون نیاز به گذرواژه یا اسکن بیومتریک کاربر برای احراز هویت، این اقدام همه گذرواژههای او را از Google Password Managerحذف کرد.
پاک کردن خزانه از داخل یک مرورگر بهترین برداشت برای امنیت رمز عبور نیست. گوگل قصد دارد این فرآیند را اصلاح کند و کلید "گذرواژه های ذخیره شده" را به طور کلی حذف کند، بنابراین رمزهای عبور را نمی توان از Google Password Managerاز داخل مرورگر حذف کرد. به گفته یکی از توسعه دهندگان Chromium، قبل از اینکه این شرکت تغییراتی را ایجاد کند، گوگل کمی کار می کند.
همانطور که سالها توصیه شده، بهترین رویکرد این است که به مرورگر خود اجازه ندهید رمزهای عبور را ذخیره کند و در عوض از یک مدیر رمز عبور کامل، مانند مورد علاقه من Bitwardenاستفاده کنید. نکته خوب در مورد Bitwardenاین است که می توان آن را به راحتی با سایر برنامه ها ادغام کرد، بنابراین دسترسی به رمزهای عبور شما نسبتاً ساده است. Bitwardenهمچنین امن تر است، با این امتیاز که با پاک کردن کش مرورگر وب خود ناخواسته همه رمزهای عبور خود را حذف نمی کنید.
منبع
زدنت
نقشهی راه منتسب به اپل در شبکه ایکس (توییتر سابق) منتشر شده که برنامههای این شرکت را تا سال 2027 فاش میکند. البته تاکنون اپل واکنشی به این موضوع نشان نداده است.
به گزارش ثریا نقشهی راه فاششدهی اپل، برنامههای غول فناوری آمریکایی را تا سال 2027 اعلام میکند. درحالحاضر هیچ مدرکی مبنیبر تأیید این نقشهی راه وجود ندارد.
طبق اطلاعات فاششده در شبکهی اجتماعی ایکس، تمام مدلهای سری آیفون 16 دارای 8 گیگابایت رم خواهند بود. احتمالاً اندازهی صفحهنمایش آیفون 16 پرو و آیفون 16 پرو مکس بهترتیب به 6٫3 و 6٫9 اینچ افزایش پیدا خواهد کرد. طبق ادعای افشاگران، هر دو مدل پرو و پرو مکس به دوربین تلهفوتو پریسکوپی با زوم اپتیکال پنج برابری مجهز خواهند شد.
بر اساس نقشهی راه، گوشی آیفون مدل SE 4 در سال 2025 معرفی خواهد شد. احتمالاً آیفون SE 4 در مقایسه با نسلهای قبلی خود پیشرفت چشمگیری را تجربه خواهد کرد و به صفحهنمایش 6٫1 اینچی و دوربین اصلی 48 مگاپیکسلی مجهز خواهد شد.
همهی دوربینهای آیفون 17 پرو وضوح 48 مگاپیکسلی خواهند داشت. مطابق انتظار، دوربین سلفی لرزشگیر اپتیکال خواهد داشت که به کاربران کمک میکند تا تصاویر واضحتری ثبت کنند. صفحهنمایش گوشی مذکور با فناوری Pol-lessبهتولید میرسد و در مقایسه با نسلهای گذشته طراحی نازکتر و روشنایی بیشتری خواهد داشت.
طبق نقشهی راه فاششده، اپل در سال 2026 آیفون تاشدنی را رونمایی خواهد کرد. صفحهنمایش بیرونی و داخلی آیفون تاشدنی بهترتیب اندازهی 6 و 8 اینچی خواهند داشت. بهمنظور ارتقاء سرعت و عملکرد بهینه، در ساخت این دستگاه از رم LLWاستفاده خواهد شد.
آیفون 18 پرو و آیفون 18 پرو مکس اولین گوشیهای اپل خواهند بود که تجهیزات مربوطبه Face IDرا به زیر صفحهنمایش منتقل میکنند. چنین کاری باعث از بین رفتن بریدگی نمایشگر میشود و تجربهی بصری فوقالعادهای را برای کاربران بهارمغان میآورد.
احتمالاً در سال 2026 علاوهبر آیفون تاشدنی، شاهد معرفی مدلهای جدید تبلت اپل خواهیم بود. بهنظر میرسد که این مدلها آیپد ایر 10٫9 اینچی و آیپد مینی 8٫4 اینچی باشند. هر دو تبلت به صفحهنمایش اولد مجهز خواهند بود.
مدلهای 14 و 16 اینچی مک بوک نیز ممکن است در سال 2026 به نمایشگر اولد مجهز شوند. برخی از افشاگران میگویند اپل درحال توسعهی عینکهای AR(واقعیت افزوده) و آیپد تاشدنی است.
منبع: خبر آنلاین
هوش مصنوعی
در همین حال، 36 درصد یا بی طرف بودند یا موافق نبودند که هوش مصنوعی نقش مهمی در بهبود امنیت سایبری آنها ایفا کند.
بر کسی پوشیده نیست که کسب و کارها در سراسر جهان در حال پیاده سازی هوش مصنوعی برای کسب مزیت رقابتی در صنایع خود هستند. بر اساس مطالعه جدیدی که بر روی 2486 متخصص فناوری اطلاعات و امنیت انجام شده است، که توسط Google Cloudو Cloud Security Allianceانجام شده است، هوش مصنوعی می تواند تأثیر زیادی بر امنیت سایبری شرکتها نیز داشته باشد.
بر اساس گزارش وضعیت هوش مصنوعی و بررسی امنیت، پنجاه و پنج درصد از شرکتها در سراسر جهان در حال برنامهریزی برای استفاده از هوش مصنوعی برای بهبود امنیت سایبری شرکتها در سال 2024 هستند. این نظرسنجی همچنین نشان داد که 21 درصد از تصمیمگیرندگان فناوری اطلاعات فکر میکنند هوش مصنوعی میتواند به آنها در ایجاد قوانین امنیتی کمک کند و 19 درصد معتقدند شبیهسازی حمله و نقض انطباق میتواند در نهایت محتملترین موارد استفاده از امنیت سایبری در سال 2024 باشد.
محققان در نظرسنجی خود نوشتند: ظهور هوش مصنوعی در امنیت سایبری نشاندهنده یک دوره تحولآفرین در حوزه دفاع دیجیتال است که ترکیبی از پیشرفتهای امیدوارکننده و چالشهای پیچیده را به همراه دارد. هوش مصنوعی این پتانسیل را دارد که در تقویت دفاع امنیتی، شناسایی تهدیدات نوظهور و تسهیل واکنشهای سریع، متحدی حیاتی باشد.
همه مطمئن نیستند که هوش مصنوعی لزوماً امنیت سازمان آنها را بهبود می بخشد: فقط 63٪ از پاسخ دهندگان با این احساس موافق بودند. 36 درصد باقی مانده یا بی طرف بودند یا موافق نبودند که هوش مصنوعی نقش مهمی در بهبود امنیت سایبری آنها ایفا کند. این نظرسنجی یک شکاف سرسختانه را در میان کسانی که هوش مصنوعی را تجزیه و تحلیل میکنند، نشان میدهد - افرادی که معتقدند تأثیر مهم و بالقوه تغییر دهنده زندگی بر شرکتها و کسانی که معتقدند ممکن است بیش از ارزشش دردسرساز باشد.
در واقع، یک چهارم از پاسخ دهندگان به این نظرسنجی گفتند که معتقدند هوش مصنوعی در نهایت به نفع هکرها و سایر بازیگران بد با اهداف مخرب خواهد بود و 9 درصد از پاسخ دهندگان گفتند که مطمئن نیستند که هوش مصنوعی کدام طرف بیشترین سود را خواهد برد. همین درصد از پاسخ دهندگان (34 درصد) گفتند که هوش مصنوعی در نهایت به نفع متخصصان امنیت سایبری خواهد بود.
در هر صورت، متخصصان فناوری اطلاعات لزوماً هوش مصنوعی را تهدیدی برای شغل خود نمی دانند. اکثر پاسخ دهندگان (30٪) گفتند که هوش مصنوعی احتمالاً مهارت های آنها را "تقویت" خواهد کرد و 28٪ دیگر گفتند که احتمالاً آنها را در نقش امنیت سایبری خود پشتیبانی می کند.
محققان میگویند: «این یافتهها نشان میدهد که اگرچه هوش مصنوعی تغییرات قابلتوجهی را برای تیمهای امنیتی ایجاد میکند، اما در درجه اول به عنوان یک ابزار مکمل بهجای جایگزینی کامل تلقی میشود». قرار است به پر کردن شکافهای مهارتی و دانشی که صنعت را آزار داده است کمک کند، اما نگرانیهای سالمی در مورد وابستگی بیش از حد به آن وجود دارد.
در مورد C-suiteچطور؟
این مطالعه همچنین نشان داد که مدیران سطح C، که اغلب به طور کامل درگیر ماهیت در حال تغییر فناوری نیستند، به طور کامل روی هوش مصنوعی سرمایه گذاری می کنند. هفتاد و چهار درصد از متخصصان فناوری اطلاعات گفتند که تیم رهبری اجرایی آنها حداقل تا حدودی از هوش مصنوعی و نحوه استفاده از آن در شرکت آگاه است، در حالی که 82 درصد گفتند که فشار هوش مصنوعی شرکتی توسط ITهدایت نمی شود، بلکه توسط رهبری ارشد رهبری می شود. . جالب اینجاست که متخصصان فناوری اطلاعات میگویند که مدیران سطح بالای آنها نیز به نظر میرسد اطلاعات بیشتری از هوش مصنوعی نسبت به گزارشهای مستقیم خود دارند.
در این نظرسنجی آمده است: «سطوح Cنسبت به کارکنان خود، آشنایی بیشتر خود را با فناوریهای هوش مصنوعی نشان میدهند». به عنوان مثال، 52 درصد از مدیران C-suiteگزارش می دهند که با هوش مصنوعی مولد بسیار آشنا هستند، در حالی که تنها 11 درصد از کارکنان در تضاد کامل هستند.
با نگاهی به آینده، محققان هیچ نشانهای از از دست دادن درخشش ابزارهای امنیت سایبری هوش مصنوعی در دنیای شرکتها مشاهده نمیکنند. با این حال، آنها هشدار دادند که پیادهسازی ابزارهای هوش مصنوعی بسیار سریع - و انجام این کار بدون آموزش کارکنان - میتواند منجر به اشتباهات و عواقب ناخواسته شود.
محققان نوشتند: «این تصویر پیچیده بر نیاز به یک رویکرد متعادل و آگاهانه برای یکپارچهسازی هوش مصنوعی در امنیت سایبری تأکید میکند، «ترکیب رهبری استراتژیک با مشارکت کارکنان و آموزشهای جامع برای هدایت موثر چشمانداز تهدیدات سایبری در حال تحول».
منبع
زدنت