شفافیت در مورد نحوه دقیق هزینه خدمات ضروری است زیرا سازمانها به دنبال جلوگیری از شوک صورتحساب ناشی از مصرف ابزارهای هوش مصنوعی مولد هستند.
باید در مورد چگونگی شارژ دقیق هوش مصنوعی مولد (AI) شفافیت وجود داشته باشد، زیرا بازیگران بازار عجله دارند تا پیشنهادات خود را کنار بگذارند و مشاغل به دنبال جلوگیری از شوک صورت حساب هستند.
تیم دیلون، موسس و مدیر Tech Research Asia، گفت که شفافیت در مورد استفاده و مدل تجاری چیزی است که سازمانها درخواست می کنند، بنابراین می توانند از افزایش هزینههای پنهان جلوگیری کنند. او خاطرنشان کرد: این نگرانی کلی وجود دارد که آنها شوک صورتحساب را از یک مدل مبتنی بر مصرف تجربه کنند، مشابه اینکه برخی مجبور بودند با این چالش در روزهای اولیه ابر مقابله کنند.
دیلون در مصاحبه ای، در حاشیه دریم فورس 2023 که این هفته در سانفرانسیسکو برگزار شد، گفت: این چیزی است که فروشندگانی مانند Salesforceباید با افزایش خدمات هوش مصنوعی خود به آن پی ببرند.
استفاده از این ابزارها میتواند به طور ارگانیک در یک سازمان رشد کند و از این رو منجر به عدم کنترل و آگاهی از مصرف آنها شود. او گفت همچنین اغلب هیچ سیاستی برای هدایت استفاده از هوش مصنوعی مولد وجود ندارد و افزود که تحقیقات نشان میدهد 40 درصد سازمانها در آسیا-اقیانوسیه ژاپن سیاستهای غیررسمی در مورد چنین ابزارهایی دارند، در حالی که 60 درصد سیاستهای رسمی دارند.
او خاطرنشان کرد که نگرانیها در مورد شوک صورتحساب با نرم شدن اقتصاد، همراه با شرکتهای منطقه که با کاهش بودجه احتمالی روبرو هستند، تشدید میشود. و اگر قیمتها به دلار آمریکا برچسب گذاری شود، مصرف هوش مصنوعی مولد میتواند پیشنهاد گرانی برای مشاغل در برخی از بازارهای آسیا و اقیانوسیه باشد.
با اذعان به اینکه نگرانیها در مورد شوک صورتحساب معتبر هستند، گاوین بارفیلد، معاون رئیس ASEANو مدیر ارشد فناوری Salesforce، گفت که مدلهای قیمتگذاری هنوز به عنوان خدمات هوش مصنوعی مولد تعریف میشوند که به تدریج عرضه میشوند.
بارفیلد گفت: «ما در مراحل اولیه هستیم، بنابراین همه شرکتها با این مسائل درگیر هستند. او خاطرنشان کرد که همان مشکلات زمانی که خدمات ابری برای اولین بار راه اندازی شد، ظاهر شد.
او گفت: «با بلوغ بازار و محصول، این موارد از بین خواهند رفت. به گفته بارفیلد، Salesforceخود به دنبال مدلهای قیمتگذاری متنوعی است، اما در حال حاضر یک سیستم مبتنی بر اعتبار را برای چند سرویس انتخاب کرده است. اینکه چقدر اعتبار مصرف شود بستگی به نحوه فراخوانی مدل هوش مصنوعی برای اجرای پرس و جو دارد.
در ماه جولای، Salesforceاعلام کرد که Sales GPT، که با Sales Cloud Einsteinارسال میشود، با قیمت 50 دلار برای هر کاربر در ماه در دسترس است و شامل تعداد محدودی اعتبار GPTانیشتین است. سرویس GPTکه با سرویس ابر انیشتین ارسال میشود، همچنین 50 دلار برای هر کاربر در ماه قیمت دارد و شامل تعداد محدودی اعتبار GPTانیشتین است.
مشتریان هر یک از سرویسهای هوش مصنوعی مولد میتوانند بستههای Enterprise Expansionرا برای اعتبارات بیشتر خریداری کنند که میزان استفاده آنها افزایش یابد.
جان مورگنتال، مدیر ارشد دیجیتال مخابرات سنگاپور، M1گفت: از آنجایی که خدمات هوش مصنوعی مولد مبتنی بر یک مدل استفاده هستند، بسیار مهم است که شرکت ها بتوانند مصرف خود را نظارت کنند.
او در صحبت در کنفرانس، به نیاز به اندازه گیری و پیش بینی میزان استفاده از این ابزارها در سازمانش اشاره کرد. M1در حال حاضر از چندین ابزار هوش مصنوعی از فروشندگان مختلف از جمله Salesforceاستفاده می کند و همچنین در حال آزمایش سرویس های هوش مصنوعی مولد است.
برای مثال، داشتن یک ارزش دلار، او را قادر میسازد تا تعداد پرسشهایی را که باید با این ابزارها انجام شود، مدیریت کند.
مورگنتال خاطرنشان کرد که بسته به پیچیدگی یک مورد استفاده خاص و مدل هوش مصنوعی مورد نیاز برای خودکارسازی یا تولید پاسخ، ممکن است از نظر ROI(بازده سرمایهگذاری) ایجاد پرس و جو با هوش مصنوعی مولد منطقی نباشد.
این موضوعی است که شرکت ها باید در مورد آن محتاط باشند وگرنه ممکن است هزینه ها افزایش یابد. او گفت که اتوماسیون به دست آمده از هوش مصنوعی مولد ممکن است ارزش هزینه تحویل آن را نداشته باشد.
همچنین به این معنی است که سازمانها باید فرآیندها، از جمله در دسترس بودن دادهها، مورد نیاز برای اجرای یک پرس و جو و دستیابی به نتیجه مطلوب را ترسیم کنند تا بتوانند هزینه اعمال هوش مصنوعی مولد را در مورد استفاده اندازهگیری کنند.
اجازه دادن به مشتریان برای ایجاد درخواست های خود
Salesforceاین هفته پیشنمایشهای جدید هوش مصنوعی مولد را ارائه کرد که به گفته مدیران آن، مشتریان سازمانی را قادر میسازد تا راحتتر این ابزارها را برای پشتیبانی از عملیات خود سفارشی کنند.
در میان آنها می توان به Einstein Copilotاشاره کرد که به عنوان یک دستیار هوش مصنوعی محاوره ای معرفی می شود که می تواند با هر برنامه Salesforceادغام شود و کاربران را قادر می سازد به زبان طبیعی سؤال بپرسند.
پاسخ ها بر اساس داده های شرکت اختصاصی ایجاد شده توسط Salesforce Data Cloud، که قبلا Genieنامیده می شد، تولید می شوند. موتور داده همه مجموعههای داده، از جمله دادههای مشتری، دادههای تله متری، و مکالمات Slackرا برای ایجاد یک نمای واحد از مشتری، گرد هم میآورد.
به گفته Salesforce، Data Cloudدر حال حاضر 30 تریلیون تراکنش در ماه را پردازش می کند و روزانه 100 میلیارد رکورد را به هم متصل می کند. موتور داده اکنون به صورت بومی با پلتفرم انیشتین 1 ادغام شده است و کسب و کارها را قادر می سازد هوش مصنوعی، اتوماسیون و تجزیه و تحلیل را برای هر تجربه مشتری اعمال کنند.
این برنامه انیشتین کوپایلوت را قادر میسازد تا گزینههایی را برای اقدامات اضافی فراتر از درخواست کاربر، مانند برنامه اقدام توصیهشده پس از تماس فروش، ارائه دهد.
سازمانهایی که میخواهند برنامههای هوش مصنوعی مولد را با اعلانها، مهارتها و مدلهای هوش مصنوعی اختصاصی خود بسازند، میتوانند از طریق استودیوی انیشتین Copilotاین کار را انجام دهند. این برنامه شامل Prompt Builderاست که به کاربران اجازه میدهد اعلانهای هوش مصنوعی تولیدی را ایجاد و آزمایش کنند که با نام تجاری شرکت و سبک ارتباطی آنها همسو باشد. و آنها می توانند این کار را بدون هیچ گونه تخصص فنی انجام دهند و مدیران بازاریابی را قادر می سازند تا از Prompt Builderبخواهند تا یک پیام مناسب بر اساس تاریخچه خرید یا سفارش مشتری ایجاد کند.
Einstein Copilot Studioهمچنین شامل Skills Builderاست که به شرکتها اجازه میدهد تا اقدامات سفارشی مبتنی بر هوش مصنوعی را برای اجرای وظایف خاص ایجاد کنند. به عنوان مثال، می تواند یک مهارت "تحلیل رقبا" ایجاد کند که داده های بازار فعلی، ارقام فروش را تجزیه و تحلیل می کند و تماس های APIرا برای استخراج داده ها از منابع خارجی ارسال می کند.
علاوه بر این، یک مؤلفه Model Builderسازمانهایی را که میخواهند از مدلهای هوش مصنوعی خود استفاده کنند، قادر میسازد. آنها میتوانند یکی از LLMهای اختصاصی Salesforce(مدلهای زبان بزرگ) را انتخاب کنند یا مدلهای هوش مصنوعی شریک پیشبینیکننده و مولد ترجیحی خود را ادغام کنند. آنها می توانند اینها را روی داده ها در Data Cloudبدون جابجایی یا کپی کردن داده ها آموزش دهند.
این بدان معناست که Einstein Copilotمیتواند بینشها و محتوای دقیقتری را ارائه دهد که متناسب با پویایی کارمندان یا مشتریان شرکت باشد.
Model Builderدر نهایت از LLMهای خارجی که شامل Amazon Bedrock، Google Cloud's Vertex AI، Anthropicو Cohereهستند، پشتیبانی خواهد کرد. در حال حاضر، فقط OpenAI.Wرا پشتیبانی می کند
Einstein Copilotدر حال حاضر در حال آزمایش است، در حالی که Copilot Studioاواخر پاییز امسال وارد مرحله آزمایشی خواهد شد. بهبودهای لایه اعتماد Einsteinعموماً در پلتفرم انیشتین فروشنده از اکتبر 2023 در دسترس خواهد بود. هیچ جزئیات قیمتی برای پیشنهادات جدید در دسترس نیست.
Data Cloudدر حال حاضر برای مشتریان نسخه Enterpriseیا بالاتر بدون هیچ هزینه ای در نظر گرفته شده است. این شامل قابلیت هایی است که به سازمان ها اجازه می دهد 10000 پروفایل مشتری را متحد کنند و شامل دو مجوز Tableau Creatorاست.
علاوه بر این، یک لایه جدید اعتماد انیشتین زیربنای تمام محصولات انیشتین خواهد بود و یک معماری هوش مصنوعی ایمن ارائه میکند که به گفته Salesforceاطمینان حاصل میکند که پاسخهای هوش مصنوعی مولد مشتریانش با دادههای با کیفیتی که در برابر تعصبات احتمالی و استانداردهای امنیتی و حریم خصوصی بررسی میشوند، تامین میشود.
لایه اعتماد که با Salesforce Data Cloudیکپارچه شده است، چنین خطراتی را کاهش می دهد، داده ها را در برابر خطرات سمی و نام تجاری بررسی می کند، اطلاعات قابل شناسایی شخصی را پنهان می کند و داده های مشتری را حفظ نمی کند.
به گفته Salesforce، بهبودهای لایه اعتماد Einsteinعموماً در اکتبر 2023 در دسترس خواهند بود.
منبع:زدنت
عدم اعتماد عمومی به امنیت دادهها و حریم خصوصی سازمانها را از ورود همه جانبه به هوش مصنوعی مولد باز می دارد.
هوش مصنوعی مولد (AI) به عنوان ضروری برای سازمانها برای اطمینان از ارتباط با بازار مورد حمایت قرار میگیرد، اما برخی از آنها به دلیل نگرانیها در مورد دادهها و اعتماد، تردید دارند.
این مسائل بهویژه برای کسبوکارهایی که در بخشهایی با قوانین حاکمیت دادههای سختگیرانه و پایگاههای مشتری بزرگ فعالیت میکنند، مهم است، و آنها را مجبور میکند تا با وجود مزایای تبلیغی، برای استفاده از ابزارهای هوش مصنوعی مولد وقت بگذارند.
به عنوان مثال، سرور فاروک، رئیس عملیات توسعه در Jollibee Foods Corporationگفت، توانایی تولید گزارشهای فروش از طریق یک اعلان، بهعنوان مثال، به جای نیاز به کمانچه دستی با صفحات گسترده، پتانسیل جالبی برای ابزارهای هوش مصنوعی مولد مانند Salesforce's Einstein Copilotارائه میدهد. اپراتور زنجیره ای رستوران فیلیپین از Heroku Salesforceبرای ساخت برنامه های خود و Mulesoftبه عنوان میان افزار برای اتصال برنامه های خود از جمله ERPو سیستم های مدیریت سفارش استفاده می کند.
Jollibee 15000کارمند دارد و تقریباً 4000 فروشگاه در سراسر جهان در 34 کشور جهان راه اندازی می کند. برنامه های کاربردی آن عمدتاً بر روی ابر اجرا می شوند، بنابراین مراکز داده خود را به استثنای یک اینترانت کوچک حفظ نمی کند.
فاروک همچنین پتانسیل استفاده از هوش مصنوعی را در تولید می بیند، جایی که می تواند در خط لوله تولید و مونتاژ کارایی خود را افزایش دهد. به عنوان مثال، هوش مصنوعی می تواند به نظارت بر کیفیت غذا و پیش بینی تقاضا کمک کند.
با این حال، علاقه او به استفاده بالقوه از هوش مصنوعی محدود به عملیات پشتیبان است. فاروک در مورد دور نگه داشتن هوش مصنوعی مولد از تعاملات با مشتری و عملیات رویارویی با مشتری - حداقل در حال حاضر، مصمم است.
او خاطرنشان کرد: با توجه به اینکه این فناوری هنوز در مراحل ابتدایی خود است، هنوز چیزهای زیادی وجود دارد که باید درک شود و از طریق آنها کار شود.
او گفت: «ما خروجی [و پاسخهایی که] تولید میکند را میبینیم، اما واقعاً نمیدانیم که چگونه [به پاسخ] رسیده است». "این جعبه سیاه وجود دارد... باید ابهام زدایی شود. من می خواهم بدانم چگونه کار می کند، چگونه به پاسخ خود رسیده است، و آیا این پاسخ [هر بار که سوال پرسیده می شود] قابل تکرار است."
وی با بیان اینکه در حال حاضر اینگونه نیست، گفت: خطر توهم نیز نگران کننده است. وی خاطرنشان کرد: در غیاب یک حادثه امنیتی، اطلاعات کمی در مورد وجود مسائل ذاتی امنیت سایبری وجود دارد که باید حل شود.
فاروکه گفت: «در حال حاضر، تبلیغات زیادی در بازار وجود دارد.
او از فروشندگان هوش مصنوعی خواست توضیح دهند که مدلهای زبان بزرگشان چگونه شکل میگیرند، چه دادههایی را مصرف میکنند و دقیقاً چه کاری برای ایجاد پاسخ انجام میدهند. او گفت: «آنها باید از این کار که انگار جادو است [زمانی که] کدی وجود دارد که آن را اجرا می کند و علم پشت آن وجود دارد، دست بردارند. به ما کمک کنید آن را بفهمیم [زیرا] ما دوست نداریم فناوریای را بپذیریم که درک کاملی از آن نداریم.»
او بر نیاز به پاسخگویی و شفافیت، در کنار تضمین هایی که داده های مشتریانی که برای آموزش مدل های هوش مصنوعی استفاده می شوند، عمومی نخواهد شد، تاکید کرد. این امر بسیار مهم است، به ویژه برای سازمان هایی که نیاز به رعایت مقررات حفظ حریم خصوصی داده ها در حوزه قضایی محلی خود دارند.
تا زمانی که این مسائل برطرف نشود، او گفت که حاضر نیست اطلاعات مشتریان خود را در معرض خطر قرار دهد.
اعتماد همچنین چیزی است که وزارت تجارت و صنعت سنگاپور (MTI) به طور خاص از نظر حفظ حریم خصوصی و امنیت داده ها جدی می گیرد. ده سازمان دولتی زیر نظر این وزارتخانه حضور دارند، از جمله EDBو هیئت گردشگری سنگاپور.
شارون نگ، مدیر ارشد اجرایی خانواده وزارت MTIگفت، به ویژه، داده های این وزارتخانه باید در سنگاپور حفظ شود و این ثابت می شود که مانع بزرگی در تضمین امنیت داده ها و حاکمیت است. این بدان معناست که هر مدل هوش مصنوعی و زبان بزرگی که استفاده میکند باید در محیط خودش میزبانی شود، حتی آنهایی که توسط فروشندگان آمریکایی مانند پلتفرم Salesforce Einstein Copilotاجرا میشوند.
او خاطرنشان کرد، مانند فاروک، نگ نیز بر نیاز به شفافیت، به ویژه جزئیات نحوه عملکرد لایه امنیتی، از جمله اینکه چه نوع رمزگذاری استفاده میشود و آیا دادهها حفظ میشوند، تاکید کرد.
تیم او در حال حاضر در حال بررسی این موضوع است که چگونه ابزارهای هوش مصنوعی مولد، از جمله Salesforce، میتوانند به این وزارتخانه کمک کنند، چرا که این وزارتخانه همچنان آماده استفاده از هوش مصنوعی مختلف و مدلهای زبان بزرگ موجود در بازار است. او گفت که این کار هزینه کمتری نسبت به ساخت مدل های خود دارد و زمان عرضه به بازار را کوتاه می کند.
او خاطرنشان کرد، با این حال، استفاده از هر مدل هوش مصنوعی همچنان منوط به ملاحظات امنیتی و اعتماد است. MTIدر حال حاضر در حال اجرای خلبان های هوش مصنوعی مولد با هدف بهبود کارایی عملیاتی و تسهیل وظایف کاری در سراسر آژانس های خود است.
برای مخابرات سنگاپور M1، ارائه خدمات بهتر به مشتریان KPIواضح برای هوش مصنوعی مولد است. جان مورگنتال، مدیر ارشد دیجیتال M1گفت، با این حال، مانند MTIو Jollibee، انطباق و اعتماد به داده ها بسیار مهم است. این شرکت مخابراتی در حال حاضر در حال اجرای اثبات مفاهیم است تا ارزیابی کند که چگونه هوش مصنوعی مولد می تواند تعاملات چت ربات آن با مشتریان را افزایش دهد و آیا می تواند از زبان های دیگری به جز انگلیسی پشتیبانی کند یا خیر.
مورگنتال گفت، این به معنای کار با فروشندگان برای تعیین پارامترها و درک مکانهایی است که مدلهای زبان بزرگ و هوش مصنوعی در آن مستقر هستند. مشابه MTIو Jollibee، M1همچنین باید با مقرراتی مطابقت داشته باشد که برخی از دادههای آن، از جمله آنهایی که روی پلتفرمهای ابری میزبانی میشوند، برای اقامت در بازار محلیاش الزامی است.
او گفت که شرکت مخابراتی سنگاپور همچنین باید مراقب داده های مورد استفاده برای آموزش مدل ها و پاسخ های تولید شده باشد که باید آزمایش و تایید شوند. اینها نه تنها باید بر اساس دستورالعملهای تعیینشده توسط فروشنده، مانند لایه اعتماد Salesforce، بلکه در برابر نردههایی که شرکت مادر M1 Keppelدر اختیار دارد، بررسی شود.
پرداختن به شکاف اعتماد مولد هوش مصنوعی
چنین تلاشهایی در بحبوحه کاهش اعتماد به استفاده از هوش مصنوعی حیاتی خواهد بود.
بر اساس نظرسنجی Salesforceکه ماه گذشته منتشر شد، هم سازمانها و هم مصرفکنندگان در حال حاضر نسبت به قبل نسبت به استفاده از هوش مصنوعی کمتر باز هستند. حدود 73 درصد از خریداران تجاری و 51 درصد از مصرف کنندگان از فناوری استفاده شده برای بهبود تجربیات خود استقبال می کنند که به ترتیب از 82 درصد و 65 درصد در سال 2022 کاهش یافته است.
و در حالی که 76 درصد از مشتریان به کسب و کارها برای ادعاهای صادقانه در مورد محصولات و خدمات خود اعتماد دارند، 57 درصد کمتر به آنها اعتماد دارند که از هوش مصنوعی اخلاقی استفاده کنند. 68 درصد دیگر معتقدند پیشرفت های هوش مصنوعی باعث شده است که شرکت ها قابل اعتماد باشند.
تیم دیلون، بنیانگذار و مدیر Tech Research Asia، با اشاره به واکنش منفی زوم در هنگام تغییر شرایط خدمات خود، گفت: شکاف اعتماد یک مسئله و نگرانی مهم برای سازمانها است و به آن حق استفاده از ویدیو و صدا کاربران را میدهد. و داده های چت برای آموزش مدل های هوش مصنوعی آن.
دیلون در مصاحبه در حاشیه نمایشگاه Dreamforce 2023که این هفته در سانفرانسیسکو برگزار شد، گفت که فروشندگان هوش مصنوعی مولد می خواهند از سناریوی مشابه اجتناب کنند. بازیگران بازار مانند Salesforceو مایکروسافت تلاشهایی را برای رفع شکاف اعتماد انجام داده اند، که به گفته او گام مثبتی به جلو بود.
فیل هاسی، مدیرعامل و موسس شرکت تحقیقاتی CapioIT، خاطرنشان کرد، جدای از پرداختن به مسائل اعتماد، سازمانهایی که قصد دارند هوش مصنوعی مولد را اتخاذ کنند، باید به اجرای مدیریت تغییر نیز توجه کنند.
هاسی در ادامه گفت: این حوزهای است که اغلب از بحث کنار گذاشته می شود. سازمانها باید هزینهها و مجموعه مهارتهایی را که باید کسب کنند و نقشهایی که باید دوباره مهارت پیدا کنند، در نتیجه گسترش هوش مصنوعی مولد، مشخص کنند.
او گفت که یک استراتژی مدیریت تغییر مناسب برای اطمینان از انتقال آرام و حفظ استعدادها کلیدی است.
منبع:زدنت
امنیت
دادههای جدید گروه NCCنشان میدهد که نرخ وقوع باجافزار در ماه ژوئیه رکوردهای قبلی را شکسته است.
حملات باجافزاری در جولای 2023 به سطح رکوردی رسیدند که ناشی از بهرهبرداری گروه باجافزار Cl0pاز نرمافزار MOVEitبود.
در گزارش جدیدی که توسط تیم اطلاعات تهدید جهانی NCC Groupمنتشر شده است، تحلیلگران در ماه گذشته رکورد تعداد حملات سایبری مرتبط با باج افزار را مشاهده کردند که 502 حادثه بزرگ ردیابی شد. به گفته محققان، این نشان دهنده افزایش 154 درصدی نسبت به سال گذشته در مقایسه با 198 حمله در جولای 2022 است.
اعداد جولای نشان دهنده افزایش 16 درصدی نسبت به ماه قبل است و 434 مورد باج افزار در ژوئن 2023 ثبت شده است.
NCC Groupمیگوید که این تعداد رکورد در بخش کوچکی به دلیل فعالیتهای Cl0Pاست، یک گروه بدنام که به سوء استفاده از نرمافزار MOVEitمتصل است.
Cl0pکیست؟
Cl0p، همچنین شناخته شده یا مرتبط با Lace Tempest، مسئول 171 حمله از 502 حمله در ماه ژوئیه بود که بسیاری از آنها به دلیل بهره برداری از نرم افزار انتقال فایل MOVEitبوده است.
Cl0pاز سال 2019 وجود داشته است و به عنوان باج افزار به عنوان یک سرویس (RaaS) شناخته می شود که به مجرمان سایبری ارائه می دهد. Cl0pکه با نام TA505یا مرتبط با آن نیز شناخته میشود، بهشدت اهدافی با ارزش بالا را با هدف اخاذی پرداختهای باجافزاری بالا تعقیب کرده است و اپراتورها اغلب اطلاعات را قبل از رمزگذاری در چیزی که به عنوان تاکتیک اخاذی مضاعف شناخته میشود، سرقت میکنند.
اگر قربانیان از پرداخت امتناع کنند، در معرض خطر انتشار اطلاعات دزدیده شده خود به صورت آنلاین و نامگذاری در یک سایت عمومی قرار می گیرند.
بهره برداری MOVEit
بهره برداری MOVEitکه به عنوان یک "فاجعه آهسته حرکت می کند" صدها سازمان را در سراسر جهان تحت تاثیر قرار داده است و داده های متعلق به میلیون ها نفر به سرقت رفته است.
در ماه مه، Progress Softwareیک آسیبپذیری روز صفر را در سرویس انتقال فایل، MOVEit Transferو MOVEit Cloudگزارش کرد که میتواند منجر به افزایش امتیازات و دسترسی غیرمجاز احتمالی به محیطهای مشتری شود. مشکل این است که MOVEitتوسط سازمان های دولتی و صنایع بسیار تحت نظارت، هم به طور مستقیم و هم از طریق زنجیره تامین نرم افزار استفاده می شود.
قربانیان ادعا شده عبارتند از: وزارت انرژی ایالات متحده، شل، بی بی سی، آفکام، مرکز تسویه حساب دانشجویان ملی، و بسیاری از دانشگاه های ایالات متحده.
صنایع تحت تاثیر
در مجموع، بازیکنان صنعتی 31 درصد از حملات باج افزار یا 155 حادثه ثبت شده را تشکیل می دهند.
بازیگران صنعت شامل خدمات حرفه ای و تجاری، تولید، ساخت و ساز و مهندسی هستند. به گفته محققان، سرویسهای حرفهای و تجاری بیشترین هدف را در ماه جولای داشتهاند و باجافزارهای Cl0p، LockBit 3.0و 8Baseمسئول 48 درصد از کل حملات سایبری ثبتشده هستند.
در حالی که این بخشها بیشترین تعداد حملات باجافزاری را تا کنون در سال جاری متحمل شدهاند، بخشهای دورهای مصرفکننده با 79 حمله - یا 16 درصد از کل در ماه جولای، در رتبه دوم قرار گرفتهاند. این دسته نشان دهنده هتل ها و سرگرمی ها، رسانه ها، خرده فروشی ها، خانه سازی، بخش خودرو و موارد دیگر است.
وقتی صحبت از فناوری به میان میآید، با 72 مورد - یا 14 درصد حملات ماهانه - در رتبه سوم قرار دارد - NCC Groupمیگوید این صنعت «بیشترین افزایش را در اعداد مطلق در سه بخش برتر در این ماه تجربه کرده است [و] این احتمالاً به دلیل فعالیت Cl0p."
Cl0pمسئول 39 حمله سایبری علیه این بخش یا 54 درصد بود که شامل حملات علیه سازمانهای ارائهدهنده خدمات فناوری اطلاعات و نرمافزار، تامینکنندگان نیمهرسانا، لوازم الکترونیکی مصرفی و خدمات مخابراتی میشود.
گروههای باج افزار جدید در صحنه ظاهر میشوند
پس از Cl0p، Lockbit 3.0به عنوان دومین باج افزار فعال در ماه جولای رتبه بندی شد و مسئول 50 حمله یا 10٪ بود. در حالی که این کاهش 17 درصدی ماه به ماه را نشان میدهد، جولای همچنین صحنهای برای بازیگران تهدیدکننده جدید و تغییر نامگذاری شده بود تا حضور خود را اعلام کنند.
به عنوان مثال، Noescape- که گمان می رود برند جدیدی از آوادون باشد، که پس از ارسال هزاران کلید رمزگشایی به یک رسانه در سال 2021 بسته شد - 16 مورد از حملات ثبت شده را به خود اختصاص داد و به حملات دیگری از جمله 8Base، BianLian، BlackCat، Playو کاکتوس.
مت هال، رئیس جهانی اطلاعات تهدیدات در شرکت "بسیاری از سازمانها هنوز با تاثیر حمله MOVEit Cl0pمبارزه میکنند، که نشان میدهد حملات باجافزاری چقدر گسترده و طولانیمدت میتوانند باشند - هیچ سازمان یا فردی ایمن نیست." NCC Group، نظر داد. "این کمپین به ویژه با توجه به اینکه Cl0pتوانسته با به خطر انداختن یک محیط از صدها سازمان اخاذی کند بسیار مهم است. نه تنها باید در حفاظت از محیط خود هوشیار باشید، بلکه باید به پروتکل های امنیتی سازمان ها نیز توجه زیادی داشته باشید. شما به عنوان بخشی از زنجیره تامین خود با آن کار می کنید."
منبع
زدنت
لینوکس
دو آسیبپذیری جدید تراشه، AMD Inceptionو Intel Downfall، توروالدز را مجبور کردند تا رفعهای امنیتی لینوکس را حذف کند.
به طرز عجیبی، هر دو حملات کانال جانبی میتوانند منجر به نشت دادههای ممتاز به فرآیندهای غیرمجاز شوند. توروالدز آنها را به عنوان "مسئله دیگری که در آن فضای کاربران یک ساختار ریزمعماری را مسموم می کند که می تواند برای افشای اطلاعات ممتاز از طریق یک کانال جانبی استفاده شود" توصیف کرد.
که این مسئله به کارشناسان امنیت لینوکس خواهد رسید. بله، این نمونه دیگری از آسیبپذیریهای امنیتی است که Meltdownو Spectreاینتل را در محافل لینوکس بدنام کرده. خوشبختانه، برخلاف آن دو مورد قبلی، توسعه دهندگان این بار از قبل به خوبی میدانستند که مشکلی با سیلیکون وجود دارد، بنابراین وصلهها قبل از ظاهر شدن اخبار جدیدترین حفرهها منتشر شدند.
در این ادغام اخیر، توروالدز و شرکت اقداماتی را در سمت هسته ترکیب کردند که آسیبپذیری سرریز AMD (RAS)را به معماری Zen 3و Zen 4خنثی میکند. این آسیبپذیری به فضای کاربران اجازه میدهد یک ساختار ریزمعماری را آلوده کند، که متعاقباً میتواند برای جذب اطلاعات ممتاز از طریق یک کانال جانبی مورد سوء استفاده قرار گیرد.
AMDبه شما خواهد گفت که این مسئله چندان مهم نیست: غول تراشه بر این باور است که این آسیبپذیری فقط به صورت بالقوه قابل بهرهبرداری محلی است، مثلاً از طریق بدافزار دانلود شده. با این وجود، AMD"به مشتریان توصیه می کند از بهترین شیوه های امنیتی، از جمله اجرای نرم افزارهای به روز و ابزارهای تشخیص بدافزار استفاده کنند."
با این حال، محققان امنیتی ETHزوریخ که این نقص را پیدا کردند چندان خوشبین نیستند. آنها معتقدند که Inceptionمی تواند توسط یک مهاجم در رایانش ابری استفاده شود، جایی که مشتریان معمولاً منابع سخت افزاری پردازش یکسانی را به اشتراک می گذارند.
محققان می گویند که Inceptionیک کلاس جدید از حملات اعدام گذرا است که از آموزش در اجرای گذرا (TTE) استفاده می کند. حملات TTEبه جای تلاش برای نشت داده ها در یک پنجره گذرا، از پنجره گذرا برای درج پیش بینی های جدید در پیش بینی شاخه سوء استفاده می کنند. در ترکیب با Phantom، که راهی برای فعال کردن پنجرههای گذرا از دستورالعملهای دلخواه است، Inceptionمیتواند راه بدی برای پاک کردن دادههای خصوصی باشد.
جالب است که پیتر زیجلسترا، توسعهدهنده هسته لینوکس کهنه کار، که وابسته به اینتل است، وصلههای AMDرا اصلاح کرد. این تا حدودی طعنه آمیز است که شاهد باشیم مهندس اینتل در تصحیح هسته کدهای کاهش دهنده AMDرهبری می کند.
توسعه دهندگان هسته لینوکس همچنین به آسیب پذیری Intel Gather Data Sampling (GDS)معروف به Downfallپرداختند. این آسیب پذیری خاص بر پردازنده های Coreاینتل از نسل ششم Skylakeتا نسل یازدهم Tiger Lakeتأثیر می گذارد. به طور خلاصه، این احتمال وجود دارد که رایانه شخصی، سرورهای شما و پردازنده های ابری شما همگی آسیب پذیر باشند.
به گفته دانیال مقیمی، دانشمند تحقیقاتی ارشد گوگل که Downfallرا کشف کرد، "این آسیب پذیری ناشی از ویژگی های بهینه سازی حافظه در پردازنده های اینتل است که به طور ناخواسته رجیسترهای سخت افزاری داخلی را به نرم افزار نشان می دهد. این به نرم افزارهای غیرقابل اعتماد اجازه می دهد تا به داده های ذخیره شده توسط برنامه های دیگر دسترسی داشته باشند، که نباید به طور معمول در دسترس باشد."
مقیمی نشان داده است که می توان از یک اکسپلویت برای سرقت کلیدهای امنیتی و رمز عبور کاربر دیگر استفاده کرد. مقیمی خاطرنشان می کند که بدترین آنها این است که چنین حملاتی "بسیار کاربردی" هستند. "دو هفته طول کشید تا یک حمله انتها به انتها برای سرقت کلیدهای رمزگذاری از OpenSSLایجاد کنم. این فقط مستلزم آن است که مهاجم و قربانی هسته پردازشگر فیزیکی یکسانی را به اشتراک بگذارند، چیزی که اغلب در رایانه های امروزی اتفاق می افتد، اجرای چندوظیفه ای پیشگیرانه و همزمان. چند رشته ای."
Intel Software Guard Extensions (SGX)، یک ویژگی امنیتی سخت افزاری اینتل که در CPUهای اینتل برای محافظت از داده های کاربران در برابر نرم افزارهای مخرب موجود است، نیز در برابر این آسیب پذیری درمانده نیست.
برای برخی از کاربران، رفع مشکل ممکن است بیشتر از مشکل به نظر برسد. طبق گفته اینتل، برخی از بارهای کاری ممکن است تا 50 درصد سربار را تجربه کنند. این مقداری کاهش سرعت است! مقیمی هشدار می دهد، با این حال، "این ایده بدی است. حتی اگر حجم کاری شما از دستورالعمل های برداری استفاده نمی کند، CPUهای مدرن برای بهینه سازی عملیات رایج، مانند کپی کردن حافظه و تغییر محتوای رجیستر، به ثبات های برداری متکی هستند."
با این حال، برای لینوکس، کاهش سرعت ممکن است چندان بد نباشد. مایکل لارابل، مهندس نرم افزار لینوکس و سردبیر سایت هاردکور لینوکس فورونیکس، پچ های Downfallرا محک زده است. Larabelدریافت که به جای تأثیرگذاری بر تعامل I/Oیا فضای کاربر و هسته - همانطور که اصلاحات Meltdown، Spectreو بستگان آنها انجام دادند - رفع Downfallفقط نرم افزارهای محدود به فضای کاربر را مختل می کند. او همچنین دریافت که در حالی که عملکرد بهتر آنطور که اینتل پیشبینی میکرد بد نبود، هنوز هم کاهش قابل توجهی وجود داشت.
وصله های امنیتی لینوکس در Linux Gitبرای هسته لینوکس 6.5 آینده گنجانده شده است. آخرین نسخه های پایدار نقطه ای که این وصله ها را در خود جای داده اند شامل نسخه های لینوکس 6.4.9، 6.1.44، 5.15.125، 5.10.189، 4.19.290 و 4.14.321 می باشد. این نسخه ها شامل سری پایدار لینوکس 6.4 و هسته های سری پشتیبانی بلند مدت (LTS) می شود.
این وصلهها گزارش وضعیت آسیبپذیریهای اجرای حدسزنی CPUرا تسهیل میکنند و کنترلهای جدیدی را برای اصلاح رفتار آنها در ارتباط با آخرین میکروکد CPUمعرفی میکنند. البته برای کارکرد این پچ ها باید آپدیت های میکروکد AMDو Intelرا نیز نصب کنید.
خب چکاری باید انجام بدی؟ برای نصب میکروکد جدید به محض در دسترس بودن آماده شوید. سپس، با در دسترس قرار گرفتن وصلهها، سیستمهای لینوکس خود را وصله کنید. این برای کاربران دسکتاپ لینوکس مشکل بزرگی نخواهد بود، اما برای کسانی از شما که لینوکس را بر روی سرورها و ابرهای خود اجرا می کنند، خواهد بود.
منبع
زدنت
این نرم افزار توسط OpenAI، یک شرکت تحقیقاتی و هوش مصنوعی توسعه یافته است. ChatGPTیک ابزار پردازش زبان طبیعی است که قادر به پاسخگویی به پرسشها و ارائه اطلاعات بر اساس مجموعه دادههای جمعآوریشده از مجموعه دادهها، از جمله کتابها و صفحات وب آنلاین است و از آن زمان به ابزاری ارزشمند برای جمعآوری، تجزیه و تحلیل و کارهای نوشتن اطلاعات در لحظه برای میلیونها کاربر در سراسر جهان تبدیل شده است.
در حالی که برخی از کارشناسان بر این باورند که این فناوری میتواند به سطحی از اختلال در اینترنت برسد، برخی دیگر خاطرنشان میکنند که ChatGPT«عدم دقت مطمئن» را نشان میدهد. انبوه دانشآموزان از طریق این ابزار در حال سرقت مقالات درسی دستگیر شدهاند، و اگر مجموعه دادهها تأیید نشود، ابزارهایی مانند ChatGPTمیتوانند به ابزارهای ناخواسته برای انتشار اطلاعات نادرست و تبلیغات تبدیل شوند.
در واقع، کمیسیون تجارت فدرال ایالات متحده (FTC) در حال بررسی هوش مصنوعی باز در مورد مدیریت اطلاعات شخصی و دادههای مورد استفاده برای ایجاد مدل زبان آن است.
با این حال، فراتر از نگرانیهای مربوط به حفاظت از دادهها، هر زمان که یک نوآوری فنآوری جدید ایجاد شود، مسیرهایی برای سوء استفاده نیز وجود دارد. فقط زمان زیادی بود که چت ربات هوش مصنوعی برای اهداف مخرب شبیه سازی شود و یکی از این ابزارها اکنون در بازار است که به نام WormGPTشناخته میشود.
WormGPTچیست؟
در 13 ژوئیه، محققان شرکت امنیت سایبری SlashNextیک پست وبلاگی منتشر کردند که کشف WormGPT، ابزاری را که برای فروش در انجمن هکرها تبلیغ میشود، منتشر کردند.
به گفته کاربر انجمن، پروژه WormGPTقصد دارد یک "جایگزین" برای ChatGPTباشد، "یکی که به شما امکان میدهد انواع کارهای غیرقانونی را انجام دهید و در آینده به راحتی آن را به صورت آنلاین بفروشید."
SlashNextبه ابزاری که به عنوان یک ماژول هوش مصنوعی بر اساس مدل زبان GPTJتوصیف شده است، دسترسی پیدا کرد. WormGPTظاهراً با منابع داده از جمله اطلاعات مربوط به بدافزار آموزش دیده است اما مجموعه داده های خاص فقط برای نویسنده WormGPTشناخته شده است.
برای مثال WormGPTممکن است کدهای مخرب تولید کند یا ایمیلهای فیشینگ قانعکننده ایجاد کند.
WormGPTبرای چه مواردی استفاده می شود؟
WormGTPبه عنوان "شبیه ChatGPTاست اما هیچ مرز یا محدودیت اخلاقی ندارد."
ChatGPTدارای مجموعه ای از قوانین است که سعی می کند کاربران را از سوء استفاده غیراخلاقی از چت بات جلوگیری کند. این شامل امتناع از انجام وظایف مربوط به جرم و بدافزار است. با این حال، کاربران به طور مداوم راه هایی برای دور زدن این محدودیت ها پیدا می کنند.
محققان توانستند از WormGPTبرای ایجاد ایمیلی استفاده کنند که هدف آن تحت فشار قرار دادن یک مدیر حساب غیرقانونی برای پرداخت یک فاکتور تقلبی بود. تیم از اینکه چگونه مدل زبان این کار را به خوبی مدیریت کرد شگفت زده شد و نتیجه را "به طرز قابل توجهی متقاعدکننده [و همچنین] از نظر استراتژیک حیلهگر نامید."
در حالی که آنها نگفتند که آیا سرویس نوشتن بدافزار را امتحان کرده اند یا خیر، قابل قبول است که ربات هوش مصنوعی بتواند با توجه به اینکه محدودیت های ChatGPTوجود ندارد.
طبق گزارش کانال تلگرامی که برای تبلیغ این ابزار راه اندازی شده است، پست های مشاهده شده نشان می دهد که توسعه دهنده در حال ایجاد یک مدل اشتراک برای دسترسی است که از 60 تا 700 دلار متغیر است. یکی از اعضای کانال، "darkstux" ادعا می کند که در حال حاضر بیش از 1500 کاربر WormGPTوجود دارد.
برای مثال ChatGPTمیتواند ایمیلهای حرفهای، نامههای پوششی، رزومه، سفارشهای خرید و موارد دیگر را پیشنویس کند. این به تنهایی میتواند برخی از رایجترین شاخصهای ایمیل فیشینگ را حذف کند: اشتباهات املایی، مشکلات گرامری، و مشکلات زبان ثانویه. به خودی خود، این امر به تنهایی می تواند برای کسب و کارهایی که سعی در شناسایی و آموزش کارکنان خود برای تشخیص پیام های مشکوک دارند، دردسر ایجاد کند.
محققان SlashNextمی گویند: "مجرمان سایبری می توانند از چنین فناوری برای ایجاد خودکار ایمیلهای جعلی بسیار متقاعد کننده، شخصی سازی شده برای گیرنده استفاده کنند، بنابراین شانس موفقیت برای حمله را افزایش می دهند."
منبع:زدنت
مدلهای بنیادی بستر خوبی را فراهم میکنند که سازمانها میتوانند از آن برای کنترل دادههای آموزشی هوش مصنوعی خود استفاده کنند.
سازمانهایی که میخواهند از هوش مصنوعی مولد (AI) به طور مؤثرتری استفاده کنند، باید از دادههای خود برای آموزش سیستمهای هوش مصنوعی استفاده کنند و از مدلهای پایه به عنوان نقطه شروع استفاده کنند.
انجام این کار میتواند زمینه مرتبطتری را فراهم کند و نگرانیها در مورد خطرات احتمالی، مانند عدم دقت و نقض مالکیت معنوی را برطرف کند.
دقت، به ویژه، اولویت اصلی شرکتی مانند Jivaاست. فروشنده agritechاز هوش مصنوعی برای تقویت برنامه موبایل خود، Crop Doctorاستفاده میکند، که بیماریهای محصول را از طریق پردازش تصویر و بینایی کامپیوتری شناسایی میکند و درمانهایی را توصیه میکند. همچنین برای تعیین شایستگی اعتباری کشاورزانی که پیش از برداشت محصول درخواست پیش پرداخت نقدی میکنند، از هوش مصنوعی استفاده میکند و پس از پرداخت محصول، وامها را برمیگرداند.
این ابزار از هوش مصنوعی و ابزارهای یادگیری ماشینی مختلف، از جمله Pinecorn، OpenAI، و scikit-learn، و همچنین TensorFlowو Vertex AIگوگل استفاده میکند. جیوا در سنگاپور، اندونزی و هند فعالیت دارد.
به گفته تجاس دینکار، مدیر ارشد فناوری Jiva، این مدلهای هوش مصنوعی خود را بر روی هزاران تصویر حاشیهنویسی برای هر بیماری آموزش میدهد. شرکت agritechصدها هزار تصویر را از طریق تیمهای میدانی خود و کشاورزانی که بخشی از شبکه Jivaهستند و از برنامه AgriCentralآن که در هند موجود است استفاده میکنند، جمع آوری کرده است.
کارشناسان میدانی آن در جمع آوری اولیه و حاشیه نویسی تصاویر شرکت دارند، قبل از اینکه این تصاویر به کارشناسان زراعت منتقل شود تا تصاویر را بیشتر حاشیه نویسی کنند. اینها سپس به مدل آموزشی مورد استفاده برای شناسایی بیماری گیاهی اضافه می شوند.
برای محصولات جدید یا محصولاتی که تیم متخصصانش کمتر با آنها آشنا هستند، Jivaپلتفرمهای دیگری مانند Plantixرا ارائه میکند که دارای مجموعه دادههای گستردهای برای تشخیص تصویر و اطلاعات تشخیص است.
دینکار گفت که ارائه اطلاعات دقیق حیاتی است زیرا دادهها میتوانند برداشت و معیشت کشاورزان را بهبود بخشند. برای اطمینان بیشتر از صحت دادهها، هوش مصنوعی مولد و مدلهای زبان بزرگ (LLM) تنها از مجموعه داده هایی استفاده می کنند که خود جیوا منبع و بررسی شده است.
او گفت که علاوه بر این از چت بات خواسته شده است که از طریق مهندسی سریع، هر گونه داده از پیش آموزش دیده در مورد کشاورزی را که ممکن است در LLMها وجود داشته باشد، نادیده بگیرد.
اگر دادهای برای استخراج وجود نداشته باشد، ربات چت پاسخی را برمیگرداند که میگوید قادر به شناسایی بیماری محصول نیست. او گفت: "شما میخواهید اطمینان حاصل کنید که دادههای کافی وجود دارد. ما نمی خواهیم پاسخ مبهم ارائه کنیم."
Jivaهمچنین از کتابخانه تصویر خود برای ساخت بر روی پلتفرمهایی مانند Plantixاستفاده میکند. دینکار گفت که این مدلها خط پایه خوبی را ارائه میکنند، اما از آنجایی که توسط شرکتهای جهانی توسعه داده میشوند، ممکن است لزوماً به اندازه کافی بر روی دادههای خاص یک منطقه یا بازار آموزش داده نشده باشند.
او گفت که این موضوع به این معنی بود که Jivaمجبور بود برای محصولاتی که در اندونزی و هند رایجتر بودند، مانند ذرت، مدلهای آموزشی ایجاد کند. او با اشاره به اهمیت بومیسازی در مدلهای هوش مصنوعی افزود، این محصولات بهتر از Plantixیا سایر محصولات تولید شده عمل میکنند.
مدل های پایه دقیق برای گرفتن نتایج بهتر
استفاده از مدلهای داده پایه یک راه برای شروع سریع با هوش مصنوعی مولد است. با این حال، به گفته اولیویه کلاین، کارشناس ارشد خدمات وب آمازون (AWS) آسیا و اقیانوسیه، یک چالش رایج با این رویکرد این است که دادهها ممکن است به صنعتی که در آن کسب و کار در آن فعالیت میکند، مرتبط نباشد.
کلاین گفت که برای موفقیت در استقرار هوش مصنوعی مولد خود، سازمانها باید مدل هوش مصنوعی را با دادههای خود به خوبی تنظیم کنند. شرکتهایی که تلاش میکنند تا این کار را به درستی انجام دهند، با اجرای خود سریعتر پیش خواهند رفت.
او افزود که استفاده از هوش مصنوعی مولد به تنهایی اگر در استراتژی داده و پلتفرم سازمان تعبیه شود، قانعکنندهتر خواهد بود.
او گفت که بسته به مورد استفاده، چالش رایجی که شرکتها با آن روبرو هستند این است که آیا دادههای کافی برای آموزش مدل هوش مصنوعی دارند یا خیر. با این حال، وی خاطرنشان کرد که کمیت داده ها لزوماً با کیفیت داده برابر نیست.
او گفت که حاشیه نویسی داده ها نیز مهم است، همانطور که زمینه را برای مدل های آموزشی هوش مصنوعی به کار می برد، بنابراین سیستم پاسخهایی را ارائه میدهد که بیشتر مختص صنعت کسب و کار است.
با حاشیهنویسی دادهها، اجزای جداگانه دادههای آموزشی برچسبگذاری میشوند تا ماشینهای هوش مصنوعی بتوانند بفهمند دادهها شامل چه چیزهایی هستند و چه اجزایی مهم هستند.
کلاین به یک تصور غلط رایج اشاره کرد که همه سیستم های هوش مصنوعی یکسان هستند، که اینطور نیست. او مجدداً بر لزوم سازمانها برای اطمینان از تغییر مدلهای هوش مصنوعی بر اساس موارد استفاده و همچنین عمودی آنها تأکید کرد.
او گفت که LLMها گفتگوهای زیادی را در میان مشتریان سازمانی در مورد استفاده از هوش مصنوعی مولد در مراکز تماس، به ویژه، به راه انداختهاند. علاقهای به این موضوع وجود دارد که چگونه این فناوری میتواند تجربه را برای نمایندگان تماس افزایش دهد، کسانی که میتوانند به پاسخهای بهتر در حین پرواز دسترسی داشته باشند و آنها را برای بهبود خدمات مشتری ترکیب کنند.
او خاطرنشان کرد که اپراتورهای مرکز تماس می توانند مدل هوش مصنوعی را با استفاده از پایگاه دانش خود، که می تواند شامل چت بات و تعامل با مشتری باشد، آموزش دهند.
طبق گزارش Business Harvard Review، افزودن محتوای خاص دامنه به یک LLMموجود که قبلاً بر روی دانش عمومی و تعامل مبتنی بر زبان آموزش دیده است، معمولاً به دادههای بسیار کمتری نیاز دارد. این رویکرد تنظیم دقیق شامل تنظیم برخی پارامترهای یک مدل پایه است و فقط از صدها یا هزاران سند استفاده می کند، نه میلیونها یا میلیاردها. زمان محاسباتی کمتری نیز در مقایسه با ساخت یک مدل پایه جدید از زمین صفر مورد نیاز است.
هرچند محدودیتهایی وجود دارد. این گزارش خاطرنشان کرد که این رویکرد هنوز هم میتواند گران باشد و به تخصص علم داده نیاز دارد. علاوه بر این، همه ارائهدهندگان LLM، مانند ChatGPT-4 OpenAi، به کاربران اجازه نمیدهند که در بالای برنامههای خود تنظیم دقیق کنند.
کلاین گفت، بهره برداری از دادههای خود همچنین نگرانی مشترک مشتریان را در میان علاقه شدید به هوش مصنوعی مولد برطرف می کند، جایی که کسب و کارها می خواهند کنترل داده های مورد استفاده برای آموزش مدل های هوش مصنوعی را حفظ کنند و داده ها در محیط آنها باقی بماند.
او خاطرنشان کرد: این رویکرد تضمین می کند که هیچ "جعبه سیاه" وجود ندارد و سازمان دقیقاً می داند که از چه داده هایی برای تغذیه مدل هوش مصنوعی استفاده می شود. همچنین شفافیت را تضمین می کند و به ایجاد مسئولیت پذیری هوش مصنوعی کمک می کند.
او گفت همچنین تلاشهای مداومی برای شناسایی سیاستهای مورد نیاز برای جلوگیری از اثر جعبه سیاه وجود دارد و افزود که AWSبا تنظیمکنندهها و سیاستگذاران برای اطمینان از سازگاری محصولات هوش مصنوعی خود کار میکند. این شرکت همچنین به مشتریان کمک می کند تا با پیاده سازی های خود نیز همین کار را انجام دهند.
او گفت، برای مثال، آمازون بستر میتواند سوگیری را تشخیص دهد و محتوایی را که دستورالعملهای اخلاقی هوش مصنوعی را نقض میکند، فیلتر کند. Bedrockمجموعهای از مدلهای پایه است که شامل مدلهای اختصاصی و همچنین مدلهای صنعتی مانند Amazon Titan، Jurassic-2آزمایشگاههای AI21، Claude Anthropicو Stability AIاست.
کلاین پیشبینی میکند که مدلهای داده پایه بیشتری در آینده پدیدار شوند، از جمله مدلهای پایه عمودی خاص، تا سازمانها را با گزینههای بیشتر آموزش دهند.
مشکلات کلیدی برای حل با هوش مصنوعی مولد
در جایی که مدلهای هوش مصنوعی قوی وجود نداشته باشد، انسانها میتوانند پا پس بگذارند.
دینکار برای مسائل نادر یا بسیار خاص محصول، خاطرنشان کرد که تیم متخصصان زراعت Jivaمی توانند با محققان محلی و تیم های میدانی برای حل آنها همکاری کنند.
او گفت که تیم ارزیابی اعتبار این شرکت همچنین داده های تولید شده توسط سیستمهای هوش مصنوعی را با اطلاعات دیگر پوشش می دهد. برای مثال، تیم ممکن است یک بازدید در محل انجام دهد و متوجه شود که یک محصول اخیراً برای برداشت آماده شده است، که سیستم مجهز به هوش مصنوعی ممکن است در هنگام ایجاد ارزیابی اعتبار آن را در نظر نگرفته باشد.
دینکار گفت: "هدف حذف کامل انسانها نیست، بلکه انتقال آنها به مناطقی است که میتوانند افکار تطبیقی را تقویت کنند و [به کار گیرند]، که ماشینها هنوز به آن عمل نکرده اند."
در پاسخ به سوالی درباره چالشهایی که Jivaدر استفاده از هوش مصنوعی مولد خود با آن مواجه شد، به فقدان یک روش استاندارد سریع در بین نسخههای مختلف نرمافزار و ارائهدهندگان اشاره کرد.
او گفت که "همه زبان گرایی واقعی" نیز در LLMوجود ندارد، در حالی که توهم همچنان یک مسئله کلیدی است.
او توضیح داد: «مدلهای مختلف زبان بزرگ، همگی ویژگیهای خاص خود را دارند [و] تکنیکهای سریع یکسان در این موارد کار نمیکنند. به عنوان مثال، از طریق مهندسی سریع پیشرفته، Jivaتوانسته است به ربات کشاورزی خود دستور دهد تا روشن کند که آیا قادر به استنباط از زمینه، محصولی است که کشاورز به آن ارجاع می دهد یا خیر.
با این حال، او گفت، در حالی که این دستور خاص در GPT-3.5عملکرد خوبی داشت، اما در GPT-4به خوبی عمل نکرد. همچنین در LLMمتفاوت کار نمی کند.
دینکار گفت: «ناتوانی در استفاده مجدد از درخواستها در سراسر نسخهها و پلتفرمها، ایجاد مجموعههای سفارشی از تکنیکهای سریع برای هر یک را ضروری میکند. "با بهبود ابزارها و ظهور بهترین روش ها برای ایجاد مدل های مختلف زبانی بزرگ، امیدواریم درخواست های چند پلتفرمی به واقعیت تبدیل شوند."
او گفت که در پشتیبانی بین زبانی نیز به بهبودهایی نیاز است و به پاسخ های عجیبی که ربات چت آن گاهی اوقات خارج از زمینه ایجاد می کند اشاره کرد.
منبع:زدنت
هوش مصنوعی
آیا هرگز به کسی که نمیشناسید اجازه میدهید به مکالمات خصوصی شما با پزشک یا افراد مهم دیگر گوش دهد؟ آیا به آنها اجازه میدهید تکههای کوچکی از آنچه شنیدهاند را به دیگری بفروشند؟ به طور خلاصه، این همان کاری است که ردیاب های شخص ثالث انجام می دهند. آنها کارهایی را که شما به صورت آنلاین انجام میدهید تماشا میکنند و سپس آن اطلاعات را به شخص دیگری میفروشند که میخواهد چیزی به شما بفروشد.
از آنجایی که افراد بیشتری از خدمات هوش مصنوعی مولد مانند ChatGPTیا حتی Bing Chatو Google Bardاستفاده می کنند، ایمنی و اخلاقیات همه آنها زیر سوال می رود. هنگامی که میلیونها نفر برای پرسیدن سؤال، تولید متن برای نامهها یا مقالهها، نوشتن و حتی اشکالزدایی کد به یک وبسایت میروند، باید از خود بپرسید: برای همه اطلاعاتی که در این ابزارها وارد میشود چه اتفاقی میافتد و چه نقشی، اگر وجود داشته باشد؟ آیا کارگزاران داده در همه اینها دارند؟
مدیر عامل و کارشناس حریم خصوصی Ghostery، Jean-Paul Schmetz، یک یا دو چیز برای گفتن در مورد این موضوع دارد، و او در مورد نگرانی های مربوط به حفظ حریم خصوصی شما در هنگام استفاده از هوش مصنوعی مولد صحبت کند.
خبر خوب این است که OpenAIهنوز اجازه ردیابی شخص ثالث در ChatGPTرا نداده است. Schmetzمی گوید: "OpenAIاز این نظر که ایمن است، بسیار ساده است." زمانی که شما با ChatGPTچت می کنید، هیچ کس را ندارند که از بالای شانه شما نگاه کند.
او میافزاید: «تنها چیزی که کاربر باید نگران آن باشد این است که بتواند از دادههای شما برای آموزش استفاده کند، بنابراین هرچه بنویسید توسط OpenAIاستفاده میشود. این به وضوح در خطمشی رازداری شرکت بیان شده است، اگرچه شما میتوانید با پر کردن فرم Googleاز OpenAIاز اشتراکگذاری داده خودداری کنید.
ارزش توجه به هشدار اشمتز را دارد. در سال 2021، محققان آسیبپذیریهایی را در سیستم GPT-2برای آموزش حملات استخراج دادهها کشف کردند که از نقش ذاتی مدل در یادگیری از دادههایی که کاربران وارد میکنند سوء استفاده میکنند.
"با وارد کردن پرس و جوهای هدفمند خاص، نهادهای مخرب می توانند هوش مصنوعی را تحریک کنند تا داده های خاصی را که قبلا توسط یک کاربر وارد شده است بازگو کند - که می تواند شامل اطلاعات شناسایی شخصی مانند نام، آدرس و شماره تلفن همراه با هر چیز دیگری باشد که هدف با آن به اشتراک گذاشته است. اشمتس توضیح می دهد که سیستم.
در حالی که ما به طور قطع نمی دانیم که آیا این آسیب پذیری در GPT-4وجود دارد یا خیر، Schmetzتوضیح می دهد که در مدل رایگان نیز وجود دارد.
رئیس و یکی از بنیانگذاران OpenAI، گرگ براکمن، این هفته بیانیه ای را به اشتراک گذاشت که بر تعهد این شرکت به ایمنی با مدل هایش تاکید کرد. براکمن گفت: «ما معتقدیم که دورههای آموزشی قدرتمند باید به دولتها گزارش شود، با پیشبینیهای پیچیدهتر از توانایی و تأثیر آنها همراه باشد و به بهترین شیوهها مانند آزمایش قابلیتهای خطرناک نیاز داشته باشد».
بسیاری از ما که در کنار اینترنت بزرگ شدهایم میدانیم که سه قانون مهم برای آن وجود دارد: اطلاعات خصوصی را آنلاین قرار ندهید، هر چیزی را که میخوانید باور نکنید، و مراقب مجرمان سایبری باشید.
Schmetzمیافزاید: «کاربرانی که مراقب اطلاعاتی که با هوش مصنوعی به اشتراک میگذارند، در معرض خطر قرار نخواهند گرفت، زیرا این دادههای شخص اول تنها در صورتی قابل استخراج هستند که کاربر آن را از ابتدا وارد کرده باشد.»
منبع
زدنت
کشورها باید اطمینان حاصل کنند که مهارتهای مناسبی برای تقویت دفاع سایبری و حفاظت از مرزهای دیجیتالی خود دارند، زیرا فناوریهایی مانند هوش مصنوعی مولد(AI) پذیرفته شده و به تکامل خود ادامه میدهند.
برای مثال، سنگاپور می خواهد نیروهای مسلح سایبری خود را تطبیق دهد و استعدادهای آینده را با قابلیتهای پیشرفته هوش مصنوعی آموزش دهد. واحد دفاع سایبری نیروهای مسلح سنگاپور، موسوم به سرویس دیجیتال و اطلاعات(DIS)، روز شنبه قراردادی را با هوش مصنوعی سنگاپور امضا کرد تا «تخصص هوش مصنوعی ملی» را برای دفاع دیجیتال تعمیق بخشد.
هوش مصنوعی سنگاپور که در ماه می 2017 توسط بنیاد ملی تحقیقات راه اندازی شد، وظیفه ایجاد قابلیتها و اکوسیستم هوش مصنوعی کشور را بر عهده دارد که شامل استارت آپها و شرکتهای محلی است که محصولات هوش مصنوعی را توسعه میدهند.
این همکاری بهDIS کمک میکند تا با نوآوری هوش مصنوعی در دانشگاه و صنعت همگام شود امید است که این رویکرد مشترک تضمین کند که نیروهای مسلح دفاع سایبری میتوانند از حجم اطلاعات در حال رشد برای شناسایی و پاسخگویی بهتر به تهدیدات سایبری فزاینده در سنگاپور استفاده کنند.
این وزارتخانه گفت کهDIS میتواند از طرحهای توسعه استعداد و صنعت هوش مصنوعی سنگاپور، از جمله 100آزمایش و برنامه کارآموزی هوش مصنوعی، استفاده کند. این مهارتها برای تقویت توانایی استقرار تکنیکهای پیشرفته هوش مصنوعی، مانند مدلهای زبان بزرگ، و ادغام آنها در عملیاتهای دفاع ملی مورد استفاده قرار خواهند گرفت.
این مشارکت همچنین شاهد خواهد بود کهDIS ارائههای دورههای خود را به ماژولهایLearnAI سنگاپورAI گسترش میدهد. DIS از شبکههای دانشجویی موجود در سنگاپور برای تقویت استعداد خود بهره میبرد. به عنوان مثال، شرکت کنندگان در برنامه کارآموزی هوش مصنوعی می توانند از طریق پروژه های مختلف به توسعه دفاع ملی کمک کنند.
کو سنگ منگ، رئیس هوش مصنوعی سنگاپور گفت: «همکاری ما باDIS تضمین میکند که سنگاپور دارای یک خط لوله قوی و انعطافپذیر از استعدادهای هوش مصنوعی است که از مسائل مربوط به دفاع ملی آگاهی دارند و دارای تخصص مربوطه برای محافظت از مرزهای دیجیتال ما و محافظت از سنگاپور هستند. LearnAI.
یک برنامه آموزشی امنیت سایبری نیز در روز جمعه راه اندازی شد که افراد حرفه ای میان دوره ای و فارغ التحصیلان تازه کار بدون آموزش قبلی را هدف قرار می دهد. این دوره آموزشی تمام وقت و پولی که به عنوان برنامه کارآموزی سایبریCSIT شناخته می شود، در طول هفت ماه با هدف آموزش و مهارت مجدد 100 نفر در سه سال آینده انجام می شود.
این طرح آموزشی توسط مرکز فناوریهای اطلاعات استراتژیک(CSIT)، یک آژانس فنی که در وزارت دفاع سنگاپور قرار دارد، مدیریت میشود. متقاضیان دوره منتخب با یک مربیCSIT و متخصص امنیت سایبری مطابقت داده می شوند، که دانش آموزان را در مسیر مهارت آموزی و سفر آموزشی آنها راهنمایی می کند.
به داوطلبانی که این برنامه را تکمیل می کنند، یک نقش دائمی درCSIT، با حداقل دو سال سابقه خدمت، پیشنهاد می شود.
تئو چی هن، وزیر ارشد و وزیر هماهنگی امنیت ملی، گفت که ایجاد یک استخر قوی در امنیت سایبری بسیار مهم است زیرا فناوریهای جدید از جمله یادگیری ماشینی، هوش مصنوعی، اینترنت اشیا و وب 3.0 در زندگی روزمره ادغام شدهاند.
منبع
این شرکت از شما میخواهد که آسیبپذیریها را در چت بینگ مبتنی بر هوش مصنوعی بیابید و گزارش دهید، و آماده است برای آنها به شما پول پرداخت کند.
از آنجایی که هوش مصنوعی به لطف قدرتهایش در تولید محتوا، توسعه نرمافزار و جایگزینی موتورهای جستجو به روند خود ادامه میدهد، شرکتها راههایی را برای رفع آسیبپذیریها و ایمنتر کردن ابزارهای هوش مصنوعی خود سرکوب میکنند. پس از اعلام برنامه پاداش باگ OpenAIدر چند هفته پیش، مایکروسافت برنامه خود را گسترش داد تا Bing Chatجدید را نیز در بر بگیرد.
یک برنامه جایزه اشکال برای محققان امنیتی و هکرهای اخلاقی است که در ازای دریافت پاداش، از یافتن آسیبپذیری در برنامههای رایانهای یا وبسایتها استقبال میکنند. هنگامی که یکی از این محققان امنیتی مشکلی را پیدا می کند که به آن "باگ" نیز می گویند، باید آن را گزارش کنند تا جایزه خود را دریافت کنند.
مایکروسافت بهطور مداوم برنامههای پاداش باگ خود را در تلاش برای ایجاد مشارکتهای موفق متقابل با محققان امنیتی برای بهبود خدماتی مانند NET، Edge، Azureو Identityبه روز میکند. در آگوست 2022، این شرکت اعلام کرد که 13.7 میلیون دلار پاداش باگ در آن سال مالی گذشته داشته است.
هر کسی که به دنبال دریافت نقدی از آخرین گسترش برنامه پاداش باگ برای Bingجدید است، باید گزارش دقیق خود را از طریق لیست ارسال کلی ارسال کند و Bingرا از لیست محصولات انتخاب کند. موارد ارسالی باید شامل نوع مشکل، نسخهای که حاوی اشکال است، بهروزرسانیهایی که نصب کردهاند، پیکربندیهای ویژه مورد نیاز برای بازتولید اشکال، دستورالعملهای گام به گام برای بازتولید مشکل در اولین نصب، اثبات یا مفهومی و و تأثیر این موضوع، از جمله اینکه چگونه یک مهاجم می تواند از موضوع سوء استفاده کند.
پس از ارسال، مایکروسافت تعیین می کند که آیا واجد شرایط است یا خیر و مهندسان آن را بررسی می کنند و در صورت امکان، پاداشی را پرداخت می کنند.
بینگ چت جدید موتور جستجوی اصلاح شده مایکروسافت با هوش مصنوعی است که فرمت چت و تولید کننده تصویر جدید ساخته شده بر روی GPT-4 OpenAIرا اجرا میکند.
منبع: زد نت
حملات سایبری با هدف قرار دادن سختافزار گوشیهای هوشمند اندرویدی افزایش یافته است. گوگل برنامهای برای بهبود سیستم دفاعی دارد.
گوگل در حال کار بر روی بهبود امنیت سایبری تلفنهای هوشمند و تبلتهای اندرویدی با تقویت سیستم دفاعی کل اکوسیستم در سطح سیستمافزار است.
Firmwareنرم افزار رایانهای است که پشت پیکربندی و کنترل سخت افزار دستگاه قرار دارد. به دلیل این وضعیت، سیستم عامل اغلب اولین کدی است که هنگام روشن شدن دستگاه اجرا می شود و آن را پایه و اساس هر چیز دیگری در سیستم میکند.
این موقعیت به این معنی است که سیستم عامل نقش اصلی را در امنیت دستگاه شما و سیستم عامل آن، از جمله پیکربندی تنظیمات امنیتی سخت افزار، ایفا میکند.
نقش کلیدی سفتافزار در مدیریت تمام جنبههای یک دستگاه به این معنی است که اگر مهاجم بتواند تلفن هوشمند یا تبلتی را در سطح میانافزار به خطر بیاندازد، میتواند به طور مداوم و تقریباً کاملاً مخفیانه به دستگاه دسترسی پیدا کند، که به آنها اجازه میدهد تا از همه چیز شما جاسوسی کنند و اطلاعات حساس را به سرقت برد و یا حتی از کارکرد دستگاه جلوگیری کند.
حملات سختافزار گسترده نیستند و معمولاً بسیار هدفمند هستند - اما گوگل به آنچه که به عنوان افزایش تحقیقات امنیت سایبری توصیف میکند که آسیبپذیریها در میانافزار اندروید را کشف میکند، واکنش نشان میدهد.
محققان در یک بهروزرسانی وبلاگ امنیتی گوگل گفتند: «از آنجایی که امنیت پلتفرم اندروید به طور پیوسته بهبود یافته است، برخی از محققان امنیتی تمرکز خود را به بخشهای دیگر پشته نرمافزار از جمله سیستمافزار تغییر دادهاند.
در طول دهه گذشته، انتشارات، گفتگوها، برندگان مسابقه Pwn2Ownو CVEهای متعددی وجود داشته است که هدف آنها سوءاستفاده از آسیب پذیری ها در سیستم عامل در حال اجرا در این پردازنده های ثانویه بوده است.
برخی از این آسیبپذیریها منجر به اجرای کد از راه دور در دستگاهها، به ویژه پس از سوء استفاده از Wi-Fiو باگهای باند پایه سلولی شده است.
اکنون گوگل میگوید که امنیت اندروید را با استفاده از درسهای آموخته شده از ایمنسازی سایر قسمتهای کد و سختتر کردن سفتافزار برای محافظت از آن - و کاربران - در برابر تهدیدات سایبری بالقوه بهبود میبخشد.
این فرآیند شامل بهبود ضدعفونیکنندههای مبتنی بر کامپایلر - ابزار برنامهنویسی که اشکالات برنامههای رایانهای را شناسایی میکند - و سایر کاهشهای سوءاستفاده در میانافزار، همراه با بهبود ویژگیهای ایمنی حافظه خواهد بود. بهبود حافظه به دنبال جلوگیری از حملاتی است که مستقیماً حافظه سفتافزار را هدف قرار میدهند، مانند حملات سرریز بافر.
همانطور که گوگل اشاره می کند، چالش هایی پیرامون اجرای این رویکرد وجود دارد.
گوگل سکیوریتی که همچنین از دیگر سازندگان دستگاههای اندرویدی میخواهد از این روش پیروی کنند، گفت: «سختسازی سیستمافزاری که روی فلز لخت اجرا میشود تا سطح حفاظت را در سطوح بیشتر در اندروید افزایش دهد - یکی از اولویتهای امنیت Androidاست.
"در حرکت رو به جلو، هدف ما گسترش استفاده از این فناوریهای کاهش برای اهداف فلزی بیشتر است و ما قویاً شرکای خود را تشویق میکنیم که همین کار را انجام دهند. ما آماده کمک به شرکای اکوسیستم خود برای سختتر کردن سیستم عامل فلزی لخت هستیم."
منبع: زدنت