‫ fars_sakha بلاگ

شفافیت در مورد نحوه دقیق هزینه خدمات ضروری است زیرا سازمان‌ها به دنبال جلوگیری از شوک صورتحساب ناشی از مصرف ابزارهای هوش مصنوعی مولد هستند.

 

باید در مورد چگونگی شارژ دقیق هوش مصنوعی مولد (AI) شفافیت وجود داشته باشد، زیرا بازیگران بازار عجله دارند تا پیشنهادات خود را کنار بگذارند و مشاغل به دنبال جلوگیری از شوک صورت حساب هستند.

تیم دیلون، موسس و مدیر Tech Research Asia، گفت که شفافیت در مورد استفاده و مدل تجاری چیزی است که سازمان‌ها درخواست می کنند، بنابراین می توانند از افزایش هزینه‌های پنهان جلوگیری کنند. او خاطرنشان کرد: این نگرانی کلی وجود دارد که آنها شوک صورتحساب را از یک مدل مبتنی بر مصرف تجربه کنند، مشابه اینکه برخی مجبور بودند با این چالش در روزهای اولیه ابر مقابله کنند.

دیلون در مصاحبه ای، در حاشیه دریم فورس 2023 که این هفته در سانفرانسیسکو برگزار شد، گفت: این چیزی است که فروشندگانی مانند Salesforceباید با افزایش خدمات هوش مصنوعی خود به آن پی ببرند.

استفاده از این ابزارها می‌تواند به طور ارگانیک در یک سازمان رشد کند و از این رو منجر به عدم کنترل و آگاهی از مصرف آنها شود. او گفت همچنین اغلب هیچ سیاستی برای هدایت استفاده از هوش مصنوعی مولد وجود ندارد و افزود که تحقیقات نشان می‌دهد 40 درصد سازمان‌ها در آسیا-اقیانوسیه ژاپن سیاست‌های غیررسمی در مورد چنین ابزارهایی دارند، در حالی که 60 درصد سیاست‌های رسمی دارند.

او خاطرنشان کرد که نگرانی‌ها در مورد شوک صورتحساب با نرم شدن اقتصاد، همراه با شرکت‌های منطقه که با کاهش بودجه احتمالی روبرو هستند، تشدید می‌شود. و اگر قیمت‌ها به دلار آمریکا برچسب گذاری شود، مصرف هوش مصنوعی مولد می‌تواند پیشنهاد گرانی برای مشاغل در برخی از بازارهای آسیا و اقیانوسیه باشد.

با اذعان به اینکه نگرانی‌ها در مورد شوک صورت‌حساب معتبر هستند، گاوین بارفیلد، معاون رئیس ASEANو مدیر ارشد فناوری Salesforce، گفت که مدل‌های قیمت‌گذاری هنوز به عنوان خدمات هوش مصنوعی مولد تعریف می‌شوند که به تدریج عرضه می‌شوند.

بارفیلد گفت: «ما در مراحل اولیه هستیم، بنابراین همه شرکت‌ها با این مسائل درگیر هستند. او خاطرنشان کرد که همان مشکلات زمانی که خدمات ابری برای اولین بار راه اندازی شد، ظاهر شد.

او گفت: «با بلوغ بازار و محصول، این موارد از بین خواهند رفت. به گفته بارفیلد، Salesforceخود به دنبال مدل‌های قیمت‌گذاری متنوعی است، اما در حال حاضر یک سیستم مبتنی بر اعتبار را برای چند سرویس انتخاب کرده است. اینکه چقدر اعتبار مصرف شود بستگی به نحوه فراخوانی مدل هوش مصنوعی برای اجرای پرس و جو دارد.

در ماه جولای، Salesforceاعلام کرد که Sales GPT، که با Sales Cloud Einsteinارسال می‌شود، با قیمت 50 دلار برای هر کاربر در ماه در دسترس است و شامل تعداد محدودی اعتبار GPTانیشتین است. سرویس GPTکه با سرویس ابر انیشتین ارسال می‌شود، همچنین 50 دلار برای هر کاربر در ماه قیمت دارد و شامل تعداد محدودی اعتبار GPTانیشتین است.

مشتریان هر یک از سرویس‌های هوش مصنوعی مولد می‌توانند بسته‌های Enterprise Expansionرا برای اعتبارات بیشتر خریداری کنند که میزان استفاده آنها افزایش یابد.

جان مورگنتال، مدیر ارشد دیجیتال مخابرات سنگاپور، M1گفت: از آنجایی که خدمات هوش مصنوعی مولد مبتنی بر یک مدل استفاده هستند، بسیار مهم است که شرکت ها بتوانند مصرف خود را نظارت کنند.

 

او در صحبت در کنفرانس، به نیاز به اندازه گیری و پیش بینی میزان استفاده از این ابزارها در سازمانش اشاره کرد. M1در حال حاضر از چندین ابزار هوش مصنوعی از فروشندگان مختلف از جمله Salesforceاستفاده می کند و همچنین در حال آزمایش سرویس های هوش مصنوعی مولد است.

برای مثال، داشتن یک ارزش دلار، او را قادر می‌سازد تا تعداد پرسش‌هایی را که باید با این ابزارها انجام شود، مدیریت کند.

مورگنتال خاطرنشان کرد که بسته به پیچیدگی یک مورد استفاده خاص و مدل هوش مصنوعی مورد نیاز برای خودکارسازی یا تولید پاسخ، ممکن است از نظر ROI(بازده سرمایه‌گذاری) ایجاد پرس و جو با هوش مصنوعی مولد منطقی نباشد.

این موضوعی است که شرکت ها باید در مورد آن محتاط باشند وگرنه ممکن است هزینه ها افزایش یابد. او گفت که اتوماسیون به دست آمده از هوش مصنوعی مولد ممکن است ارزش هزینه تحویل آن را نداشته باشد.

همچنین به این معنی است که سازمان‌ها باید فرآیندها، از جمله در دسترس بودن داده‌ها، مورد نیاز برای اجرای یک پرس و جو و دستیابی به نتیجه مطلوب را ترسیم کنند تا بتوانند هزینه اعمال هوش مصنوعی مولد را در مورد استفاده اندازه‌گیری کنند.

 

اجازه دادن به مشتریان برای ایجاد درخواست های خود

Salesforceاین هفته پیش‌نمایش‌های جدید هوش مصنوعی مولد را ارائه کرد که به گفته مدیران آن، مشتریان سازمانی را قادر می‌سازد تا راحت‌تر این ابزارها را برای پشتیبانی از عملیات خود سفارشی کنند.

در میان آنها می توان به Einstein Copilotاشاره کرد که به عنوان یک دستیار هوش مصنوعی محاوره ای معرفی می شود که می تواند با هر برنامه Salesforceادغام شود و کاربران را قادر می سازد به زبان طبیعی سؤال بپرسند.

پاسخ ها بر اساس داده های شرکت اختصاصی ایجاد شده توسط Salesforce Data Cloud، که قبلا Genieنامیده می شد، تولید می شوند. موتور داده همه مجموعه‌های داده، از جمله داده‌های مشتری، داده‌های تله متری، و مکالمات Slackرا برای ایجاد یک نمای واحد از مشتری، گرد هم می‌آورد.

به گفته Salesforce، Data Cloudدر حال حاضر 30 تریلیون تراکنش در ماه را پردازش می کند و روزانه 100 میلیارد رکورد را به هم متصل می کند. موتور داده اکنون به صورت بومی با پلتفرم انیشتین 1 ادغام شده است و کسب و کارها را قادر می سازد هوش مصنوعی، اتوماسیون و تجزیه و تحلیل را برای هر تجربه مشتری اعمال کنند.

این برنامه انیشتین کوپایلوت را قادر می‌سازد تا گزینه‌هایی را برای اقدامات اضافی فراتر از درخواست کاربر، مانند برنامه اقدام توصیه‌شده پس از تماس فروش، ارائه دهد.

سازمان‌هایی که می‌خواهند برنامه‌های هوش مصنوعی مولد را با اعلان‌ها، مهارت‌ها و مدل‌های هوش مصنوعی اختصاصی خود بسازند، می‌توانند از طریق استودیوی انیشتین Copilotاین کار را انجام دهند. این برنامه شامل Prompt Builderاست که به کاربران اجازه می‌دهد اعلان‌های هوش مصنوعی تولیدی را ایجاد و آزمایش کنند که با نام تجاری شرکت و سبک ارتباطی آنها همسو باشد. و آنها می توانند این کار را بدون هیچ گونه تخصص فنی انجام دهند و مدیران بازاریابی را قادر می سازند تا از Prompt Builderبخواهند تا یک پیام مناسب بر اساس تاریخچه خرید یا سفارش مشتری ایجاد کند.

Einstein Copilot Studioهمچنین شامل Skills Builderاست که به شرکت‌ها اجازه می‌دهد تا اقدامات سفارشی مبتنی بر هوش مصنوعی را برای اجرای وظایف خاص ایجاد کنند. به عنوان مثال، می تواند یک مهارت "تحلیل رقبا" ایجاد کند که داده های بازار فعلی، ارقام فروش را تجزیه و تحلیل می کند و تماس های APIرا برای استخراج داده ها از منابع خارجی ارسال می کند.

علاوه بر این، یک مؤلفه Model Builderسازمان‌هایی را که می‌خواهند از مدل‌های هوش مصنوعی خود استفاده کنند، قادر می‌سازد. آن‌ها می‌توانند یکی از LLMهای اختصاصی Salesforce(مدل‌های زبان بزرگ) را انتخاب کنند یا مدل‌های هوش مصنوعی شریک پیش‌بینی‌کننده و مولد ترجیحی خود را ادغام کنند. آنها می توانند اینها را روی داده ها در Data Cloudبدون جابجایی یا کپی کردن داده ها آموزش دهند.

 

این بدان معناست که Einstein Copilotمی‌تواند بینش‌ها و محتوای دقیق‌تری را ارائه دهد که متناسب با پویایی کارمندان یا مشتریان شرکت باشد.

Model Builderدر نهایت از LLMهای خارجی که شامل Amazon Bedrock، Google Cloud's Vertex AI، Anthropicو Cohereهستند، پشتیبانی خواهد کرد. در حال حاضر، فقط OpenAI.Wرا پشتیبانی می کند

Einstein Copilotدر حال حاضر در حال آزمایش است، در حالی که Copilot Studioاواخر پاییز امسال وارد مرحله آزمایشی خواهد شد. بهبودهای لایه اعتماد Einsteinعموماً در پلتفرم انیشتین فروشنده از اکتبر 2023 در دسترس خواهد بود. هیچ جزئیات قیمتی برای پیشنهادات جدید در دسترس نیست.

Data Cloudدر حال حاضر برای مشتریان نسخه Enterpriseیا بالاتر بدون هیچ هزینه ای در نظر گرفته شده است. این شامل قابلیت هایی است که به سازمان ها اجازه می دهد 10000 پروفایل مشتری را متحد کنند و شامل دو مجوز Tableau Creatorاست.

علاوه بر این، یک لایه جدید اعتماد انیشتین زیربنای تمام محصولات انیشتین خواهد بود و یک معماری هوش مصنوعی ایمن ارائه می‌کند که به گفته Salesforceاطمینان حاصل می‌کند که پاسخ‌های هوش مصنوعی مولد مشتریانش با داده‌های با کیفیتی که در برابر تعصبات احتمالی و استانداردهای امنیتی و حریم خصوصی بررسی می‌شوند، تامین می‌شود.

لایه اعتماد که با Salesforce Data Cloudیکپارچه شده است، چنین خطراتی را کاهش می دهد، داده ها را در برابر خطرات سمی و نام تجاری بررسی می کند، اطلاعات قابل شناسایی شخصی را پنهان می کند و داده های مشتری را حفظ نمی کند.

  به گفته Salesforce، بهبودهای لایه اعتماد Einsteinعموماً در اکتبر 2023 در دسترس خواهند بود.

 

منبع:زدنت

عدم اعتماد عمومی به امنیت داده‌ها و حریم خصوصی سازمان‌ها را از ورود همه جانبه به هوش مصنوعی مولد باز می دارد.

 

هوش مصنوعی مولد (AI) به عنوان ضروری برای سازمان‌ها برای اطمینان از ارتباط با بازار مورد حمایت قرار می‌گیرد، اما برخی از آن‌ها به دلیل نگرانی‌ها در مورد داده‌ها و اعتماد، تردید دارند.

این مسائل به‌ویژه برای کسب‌وکارهایی که در بخش‌هایی با قوانین حاکمیت داده‌های سخت‌گیرانه و پایگاه‌های مشتری بزرگ فعالیت می‌کنند، مهم است، و آنها را مجبور می‌کند تا با وجود مزایای تبلیغی، برای استفاده از ابزارهای هوش مصنوعی مولد وقت بگذارند.

به عنوان مثال، سرور فاروک، رئیس عملیات توسعه در Jollibee Foods Corporationگفت، توانایی تولید گزارش‌های فروش از طریق یک اعلان، به‌عنوان مثال، به جای نیاز به کمانچه دستی با صفحات گسترده، پتانسیل جالبی برای ابزارهای هوش مصنوعی مولد مانند Salesforce's Einstein Copilotارائه می‌دهد. اپراتور زنجیره ای رستوران فیلیپین از Heroku Salesforceبرای ساخت برنامه های خود و Mulesoftبه عنوان میان افزار برای اتصال برنامه های خود از جمله ERPو سیستم های مدیریت سفارش استفاده می کند.

Jollibee 15000کارمند دارد و تقریباً 4000 فروشگاه در سراسر جهان در 34 کشور جهان راه اندازی می کند. برنامه های کاربردی آن عمدتاً بر روی ابر اجرا می شوند، بنابراین مراکز داده خود را به استثنای یک اینترانت کوچک حفظ نمی کند.

فاروک همچنین پتانسیل استفاده از هوش مصنوعی را در تولید می بیند، جایی که می تواند در خط لوله تولید و مونتاژ کارایی خود را افزایش دهد. به عنوان مثال، هوش مصنوعی می تواند به نظارت بر کیفیت غذا و پیش بینی تقاضا کمک کند.

با این حال، علاقه او به استفاده بالقوه از هوش مصنوعی محدود به عملیات پشتیبان است. فاروک در مورد دور نگه داشتن هوش مصنوعی مولد از تعاملات با مشتری و عملیات رویارویی با مشتری - حداقل در حال حاضر، مصمم است.

او خاطرنشان کرد: با توجه به اینکه این فناوری هنوز در مراحل ابتدایی خود است، هنوز چیزهای زیادی وجود دارد که باید درک شود و از طریق آنها کار شود.

او گفت: «ما خروجی [و پاسخ‌هایی که] تولید می‌کند را می‌بینیم، اما واقعاً نمی‌دانیم که چگونه [به پاسخ] رسیده است». "این جعبه سیاه وجود دارد... باید ابهام زدایی شود. من می خواهم بدانم چگونه کار می کند، چگونه به پاسخ خود رسیده است، و آیا این پاسخ [هر بار که سوال پرسیده می شود] قابل تکرار است."

وی با بیان اینکه در حال حاضر اینگونه نیست، گفت: خطر توهم نیز نگران کننده است. وی خاطرنشان کرد: در غیاب یک حادثه امنیتی، اطلاعات کمی در مورد وجود مسائل ذاتی امنیت سایبری وجود دارد که باید حل شود.

فاروکه گفت: «در حال حاضر، تبلیغات زیادی در بازار وجود دارد.

او از فروشندگان هوش مصنوعی خواست توضیح دهند که مدل‌های زبان بزرگشان چگونه شکل می‌گیرند، چه داده‌هایی را مصرف می‌کنند و دقیقاً چه کاری برای ایجاد پاسخ انجام می‌دهند. او گفت: «آنها باید از این کار که انگار جادو است [زمانی که] کدی وجود دارد که آن را اجرا می کند و علم پشت آن وجود دارد، دست بردارند. به ما کمک کنید آن را بفهمیم [زیرا] ما دوست نداریم فناوری‌ای را بپذیریم که درک کاملی از آن نداریم.»

او بر نیاز به پاسخگویی و شفافیت، در کنار تضمین هایی که داده های مشتریانی که برای آموزش مدل های هوش مصنوعی استفاده می شوند، عمومی نخواهد شد، تاکید کرد. این امر بسیار مهم است، به ویژه برای سازمان هایی که نیاز به رعایت مقررات حفظ حریم خصوصی داده ها در حوزه قضایی محلی خود دارند.

تا زمانی که این مسائل برطرف نشود، او گفت که حاضر نیست اطلاعات مشتریان خود را در معرض خطر قرار دهد.

 

اعتماد همچنین چیزی است که وزارت تجارت و صنعت سنگاپور (MTI) به طور خاص از نظر حفظ حریم خصوصی و امنیت داده ها جدی می گیرد. ده سازمان دولتی زیر نظر این وزارتخانه حضور دارند، از جمله EDBو هیئت گردشگری سنگاپور.

شارون نگ، مدیر ارشد اجرایی خانواده وزارت MTIگفت، به ویژه، داده های این وزارتخانه باید در سنگاپور حفظ شود و این ثابت می شود که مانع بزرگی در تضمین امنیت داده ها و حاکمیت است. این بدان معناست که هر مدل هوش مصنوعی و زبان بزرگی که استفاده می‌کند باید در محیط خودش میزبانی شود، حتی آنهایی که توسط فروشندگان آمریکایی مانند پلتفرم Salesforce Einstein Copilotاجرا می‌شوند.

او خاطرنشان کرد، مانند فاروک، نگ نیز بر نیاز به شفافیت، به ویژه جزئیات نحوه عملکرد لایه امنیتی، از جمله اینکه چه نوع رمزگذاری استفاده می‌شود و آیا داده‌ها حفظ می‌شوند، تاکید کرد.

تیم او در حال حاضر در حال بررسی این موضوع است که چگونه ابزارهای هوش مصنوعی مولد، از جمله Salesforce، می‌توانند به این وزارتخانه کمک کنند، چرا که این وزارتخانه همچنان آماده استفاده از هوش مصنوعی مختلف و مدل‌های زبان بزرگ موجود در بازار است. او گفت که این کار هزینه کمتری نسبت به ساخت مدل های خود دارد و زمان عرضه به بازار را کوتاه می کند.

او خاطرنشان کرد، با این حال، استفاده از هر مدل هوش مصنوعی همچنان منوط به ملاحظات امنیتی و اعتماد است. MTIدر حال حاضر در حال اجرای خلبان های هوش مصنوعی مولد با هدف بهبود کارایی عملیاتی و تسهیل وظایف کاری در سراسر آژانس های خود است.

برای مخابرات سنگاپور M1، ارائه خدمات بهتر به مشتریان KPIواضح برای هوش مصنوعی مولد است. جان مورگنتال، مدیر ارشد دیجیتال M1گفت، با این حال، مانند MTIو Jollibee، انطباق و اعتماد به داده ها بسیار مهم است. این شرکت مخابراتی در حال حاضر در حال اجرای اثبات مفاهیم است تا ارزیابی کند که چگونه هوش مصنوعی مولد می تواند تعاملات چت ربات آن با مشتریان را افزایش دهد و آیا می تواند از زبان های دیگری به جز انگلیسی پشتیبانی کند یا خیر.

مورگنتال گفت، این به معنای کار با فروشندگان برای تعیین پارامترها و درک مکان‌هایی است که مدل‌های زبان بزرگ و هوش مصنوعی در آن مستقر هستند. مشابه MTIو Jollibee، M1همچنین باید با مقرراتی مطابقت داشته باشد که برخی از داده‌های آن، از جمله آن‌هایی که روی پلتفرم‌های ابری میزبانی می‌شوند، برای اقامت در بازار محلی‌اش الزامی است.

او گفت که شرکت مخابراتی سنگاپور همچنین باید مراقب داده های مورد استفاده برای آموزش مدل ها و پاسخ های تولید شده باشد که باید آزمایش و تایید شوند. اینها نه تنها باید بر اساس دستورالعمل‌های تعیین‌شده توسط فروشنده، مانند لایه اعتماد Salesforce، بلکه در برابر نرده‌هایی که شرکت مادر M1 Keppelدر اختیار دارد، بررسی شود.

 

پرداختن به شکاف اعتماد مولد هوش مصنوعی

چنین تلاش‌هایی در بحبوحه کاهش اعتماد به استفاده از هوش مصنوعی حیاتی خواهد بود.

بر اساس نظرسنجی Salesforceکه ماه گذشته منتشر شد، هم سازمان‌ها و هم مصرف‌کنندگان در حال حاضر نسبت به قبل نسبت به استفاده از هوش مصنوعی کمتر باز هستند. حدود 73 درصد از خریداران تجاری و 51 درصد از مصرف کنندگان از فناوری استفاده شده برای بهبود تجربیات خود استقبال می کنند که به ترتیب از 82 درصد و 65 درصد در سال 2022 کاهش یافته است.

و در حالی که 76 درصد از مشتریان به کسب و کارها برای ادعاهای صادقانه در مورد محصولات و خدمات خود اعتماد دارند، 57 درصد کمتر به آنها اعتماد دارند که از هوش مصنوعی اخلاقی استفاده کنند. 68 درصد دیگر معتقدند پیشرفت های هوش مصنوعی باعث شده است که شرکت ها قابل اعتماد باشند.

تیم دیلون، بنیانگذار و مدیر Tech Research Asia، با اشاره به واکنش منفی زوم در هنگام تغییر شرایط خدمات خود، گفت: شکاف اعتماد یک مسئله و نگرانی مهم برای سازمان‌ها است و به آن حق استفاده از ویدیو و صدا کاربران را می‌دهد. و داده های چت برای آموزش مدل های هوش مصنوعی آن.

دیلون در مصاحبه در حاشیه نمایشگاه Dreamforce 2023که این هفته در سانفرانسیسکو برگزار شد، گفت که فروشندگان هوش مصنوعی مولد می خواهند از سناریوی مشابه اجتناب کنند. بازیگران بازار مانند Salesforceو مایکروسافت تلاش‌هایی را برای رفع شکاف اعتماد انجام داده اند، که به گفته او گام مثبتی به جلو بود.

فیل هاسی، مدیرعامل و موسس شرکت تحقیقاتی CapioIT، خاطرنشان کرد، جدای از پرداختن به مسائل اعتماد، سازمان‌هایی که قصد دارند هوش مصنوعی مولد را اتخاذ کنند، باید به اجرای مدیریت تغییر نیز توجه کنند.

هاسی در ادامه گفت: این حوزه‌ای است که اغلب از بحث کنار گذاشته می شود. سازمان‌ها باید هزینه‌ها و مجموعه مهارت‌هایی را که باید کسب کنند و نقش‌هایی که باید دوباره مهارت پیدا کنند، در نتیجه گسترش هوش مصنوعی مولد، مشخص کنند.

او گفت که یک استراتژی مدیریت تغییر مناسب برای اطمینان از انتقال آرام و حفظ استعدادها کلیدی است.

 

منبع:زدنت

امنیت

داده‌های جدید گروه NCCنشان می‌دهد که نرخ وقوع باج‌افزار در ماه ژوئیه رکوردهای قبلی را شکسته است.

حملات باج‌افزاری در جولای 2023 به سطح رکوردی رسیدند که ناشی از بهره‌برداری گروه باج‌افزار Cl0pاز نرم‌افزار MOVEitبود.

 

در گزارش جدیدی که توسط تیم اطلاعات تهدید جهانی NCC Groupمنتشر شده است، تحلیلگران در ماه گذشته رکورد تعداد حملات سایبری مرتبط با باج افزار را مشاهده کردند که 502 حادثه بزرگ ردیابی شد. به گفته محققان، این نشان دهنده افزایش 154 درصدی نسبت به سال گذشته در مقایسه با 198 حمله در جولای 2022 است.

اعداد جولای نشان دهنده افزایش 16 درصدی نسبت به ماه قبل است و 434 مورد باج افزار در ژوئن 2023 ثبت شده است.

NCC Groupمی‌گوید که این تعداد رکورد در بخش کوچکی به دلیل فعالیت‌های Cl0Pاست، یک گروه بدنام که به سوء استفاده از نرم‌افزار MOVEitمتصل است.

Cl0pکیست؟

Cl0p، همچنین شناخته شده یا مرتبط با Lace Tempest، مسئول 171 حمله از 502 حمله در ماه ژوئیه بود که بسیاری از آنها به دلیل بهره برداری از نرم افزار انتقال فایل MOVEitبوده است.

Cl0pاز سال 2019 وجود داشته است و به عنوان باج افزار به عنوان یک سرویس (RaaS) شناخته می شود که به مجرمان سایبری ارائه می دهد. Cl0pکه با نام TA505یا مرتبط با آن نیز شناخته می‌شود، به‌شدت اهدافی با ارزش بالا را با هدف اخاذی پرداخت‌های باج‌افزاری بالا تعقیب کرده است و اپراتورها اغلب اطلاعات را قبل از رمزگذاری در چیزی که به عنوان تاکتیک اخاذی مضاعف شناخته می‌شود، سرقت می‌کنند.

اگر قربانیان از پرداخت امتناع کنند، در معرض خطر انتشار اطلاعات دزدیده شده خود به صورت آنلاین و نامگذاری در یک سایت عمومی قرار می گیرند.

بهره برداری MOVEit

بهره برداری MOVEitکه به عنوان یک "فاجعه آهسته حرکت می کند" صدها سازمان را در سراسر جهان تحت تاثیر قرار داده است و داده های متعلق به میلیون ها نفر به سرقت رفته است.

در ماه مه، Progress Softwareیک آسیب‌پذیری روز صفر را در سرویس انتقال فایل، MOVEit Transferو MOVEit Cloudگزارش کرد که می‌تواند منجر به افزایش امتیازات و دسترسی غیرمجاز احتمالی به محیط‌های مشتری شود. مشکل این است که MOVEitتوسط سازمان های دولتی و صنایع بسیار تحت نظارت، هم به طور مستقیم و هم از طریق زنجیره تامین نرم افزار استفاده می شود.

قربانیان ادعا شده عبارتند از: وزارت انرژی ایالات متحده، شل، بی بی سی، آفکام، مرکز تسویه حساب دانشجویان ملی، و بسیاری از دانشگاه های ایالات متحده.

صنایع تحت تاثیر

در مجموع، بازیکنان صنعتی 31 درصد از حملات باج افزار یا 155 حادثه ثبت شده را تشکیل می دهند.

بازیگران صنعت شامل خدمات حرفه ای و تجاری، تولید، ساخت و ساز و مهندسی هستند. به گفته محققان، سرویس‌های حرفه‌ای و تجاری بیشترین هدف را در ماه جولای داشته‌اند و باج‌افزارهای Cl0p، LockBit 3.0و 8Baseمسئول 48 درصد از کل حملات سایبری ثبت‌شده هستند.

در حالی که این بخش‌ها بیشترین تعداد حملات باج‌افزاری را تا کنون در سال جاری متحمل شده‌اند، بخش‌های دوره‌ای مصرف‌کننده با 79 حمله - یا 16 درصد از کل در ماه جولای، در رتبه دوم قرار گرفته‌اند. این دسته نشان دهنده هتل ها و سرگرمی ها، رسانه ها، خرده فروشی ها، خانه سازی، بخش خودرو و موارد دیگر است.

وقتی صحبت از فناوری به میان می‌آید، با 72 مورد - یا 14 درصد حملات ماهانه - در رتبه سوم قرار دارد - NCC Groupمی‌گوید این صنعت «بیشترین افزایش را در اعداد مطلق در سه بخش برتر در این ماه تجربه کرده است [و] این احتمالاً به دلیل فعالیت Cl0p."

Cl0pمسئول 39 حمله سایبری علیه این بخش یا 54 درصد بود که شامل حملات علیه سازمان‌های ارائه‌دهنده خدمات فناوری اطلاعات و نرم‌افزار، تامین‌کنندگان نیمه‌رسانا، لوازم الکترونیکی مصرفی و خدمات مخابراتی می‌شود.

 

گروه‌های باج افزار جدید در صحنه ظاهر می‌شوند

پس از Cl0p، Lockbit 3.0به عنوان دومین باج افزار فعال در ماه جولای رتبه بندی شد و مسئول 50 حمله یا 10٪ بود. در حالی که این کاهش 17 درصدی ماه به ماه را نشان می‌دهد، جولای همچنین صحنه‌ای برای بازیگران تهدیدکننده جدید و تغییر نام‌گذاری شده بود تا حضور خود را اعلام کنند.

به عنوان مثال، Noescape- که گمان می رود برند جدیدی از آوادون باشد، که پس از ارسال هزاران کلید رمزگشایی به یک رسانه در سال 2021 بسته شد - 16 مورد از حملات ثبت شده را به خود اختصاص داد و به حملات دیگری از جمله 8Base، BianLian، BlackCat، Playو کاکتوس.

مت هال، رئیس جهانی اطلاعات تهدیدات در شرکت "بسیاری از سازمان‌ها هنوز با تاثیر حمله MOVEit Cl0pمبارزه می‌کنند، که نشان می‌دهد حملات باج‌افزاری چقدر گسترده و طولانی‌مدت می‌توانند باشند - هیچ سازمان یا فردی ایمن نیست." NCC Group، نظر داد. "این کمپین به ویژه با توجه به اینکه Cl0pتوانسته با به خطر انداختن یک محیط از صدها سازمان اخاذی کند بسیار مهم است. نه تنها باید در حفاظت از محیط خود هوشیار باشید، بلکه باید به پروتکل های امنیتی سازمان ها نیز توجه زیادی داشته باشید. شما به عنوان بخشی از زنجیره تامین خود با آن کار می کنید."

 

منبع

زدنت

لینوکس

دو آسیب‌پذیری جدید تراشه، AMD Inceptionو Intel Downfall، توروالدز را مجبور کردند تا رفع‌های امنیتی لینوکس را حذف کند.

 

به طرز عجیبی، هر دو حملات کانال جانبی می‌توانند منجر به نشت داده‌های ممتاز به فرآیندهای غیرمجاز شوند. توروالدز آنها را به عنوان "مسئله دیگری که در آن فضای کاربران یک ساختار ریزمعماری را مسموم می کند که می تواند برای افشای اطلاعات ممتاز از طریق یک کانال جانبی استفاده شود" توصیف کرد.

که این مسئله به کارشناسان امنیت لینوکس خواهد رسید. بله، این نمونه دیگری از آسیب‌پذیری‌های امنیتی است که Meltdownو Spectreاینتل را در محافل لینوکس بدنام کرده. خوشبختانه، برخلاف آن دو مورد قبلی، توسعه دهندگان این بار از قبل به خوبی می‌دانستند که مشکلی با سیلیکون وجود دارد، بنابراین وصله‌ها قبل از ظاهر شدن اخبار جدیدترین حفره‌ها منتشر شدند.

در این ادغام اخیر، توروالدز و شرکت اقداماتی را در سمت هسته ترکیب کردند که آسیب‌پذیری سرریز AMD ‪(RAS)را به معماری Zen 3و Zen 4خنثی می‌کند. این آسیب‌پذیری به فضای کاربران اجازه می‌دهد یک ساختار ریزمعماری را آلوده کند، که متعاقباً می‌تواند برای جذب اطلاعات ممتاز از طریق یک کانال جانبی مورد سوء استفاده قرار گیرد.

AMDبه شما خواهد گفت که این مسئله چندان مهم نیست: غول تراشه بر این باور است که این آسیب‌پذیری فقط به صورت بالقوه قابل بهره‌برداری محلی است، مثلاً از طریق بدافزار دانلود شده. با این وجود، AMD"به مشتریان توصیه می کند از بهترین شیوه های امنیتی، از جمله اجرای نرم افزارهای به روز و ابزارهای تشخیص بدافزار استفاده کنند."

با این حال، محققان امنیتی ETHزوریخ که این نقص را پیدا کردند چندان خوشبین نیستند. آنها معتقدند که Inceptionمی تواند توسط یک مهاجم در رایانش ابری استفاده شود، جایی که مشتریان معمولاً منابع سخت افزاری پردازش یکسانی را به اشتراک می گذارند.

محققان می گویند که Inceptionیک کلاس جدید از حملات اعدام گذرا است که از آموزش در اجرای گذرا (TTE) استفاده می کند. حملات TTEبه جای تلاش برای نشت داده ها در یک پنجره گذرا، از پنجره گذرا برای درج پیش بینی های جدید در پیش بینی شاخه سوء استفاده می کنند. در ترکیب با Phantom، که راهی برای فعال کردن پنجره‌های گذرا از دستورالعمل‌های دلخواه است، Inceptionمی‌تواند راه بدی برای پاک کردن داده‌های خصوصی باشد.

جالب است که پیتر زیجلسترا، توسعه‌دهنده هسته لینوکس کهنه کار، که وابسته به اینتل است، وصله‌های AMDرا اصلاح کرد. این تا حدودی طعنه آمیز است که شاهد باشیم مهندس اینتل در تصحیح هسته کدهای کاهش دهنده AMDرهبری می کند.

توسعه دهندگان هسته لینوکس همچنین به آسیب پذیری Intel Gather Data Sampling ‪(GDS)معروف به Downfallپرداختند. این آسیب پذیری خاص بر پردازنده های Coreاینتل از نسل ششم Skylakeتا نسل یازدهم Tiger Lakeتأثیر می گذارد. به طور خلاصه، این احتمال وجود دارد که رایانه شخصی، سرورهای شما و پردازنده های ابری شما همگی آسیب پذیر باشند.

به گفته دانیال مقیمی، دانشمند تحقیقاتی ارشد گوگل که Downfallرا کشف کرد، "این آسیب پذیری ناشی از ویژگی های بهینه سازی حافظه در پردازنده های اینتل است که به طور ناخواسته رجیسترهای سخت افزاری داخلی را به نرم افزار نشان می دهد. این به نرم افزارهای غیرقابل اعتماد اجازه می دهد تا به داده های ذخیره شده توسط برنامه های دیگر دسترسی داشته باشند، که نباید به طور معمول در دسترس باشد."

مقیمی نشان داده است که می توان از یک اکسپلویت برای سرقت کلیدهای امنیتی و رمز عبور کاربر دیگر استفاده کرد. مقیمی خاطرنشان می کند که بدترین آنها این است که چنین حملاتی "بسیار کاربردی" هستند. "دو هفته طول کشید تا یک حمله انتها به انتها برای سرقت کلیدهای رمزگذاری از OpenSSLایجاد کنم. این فقط مستلزم آن است که مهاجم و قربانی هسته پردازشگر فیزیکی یکسانی را به اشتراک بگذارند، چیزی که اغلب در رایانه های امروزی اتفاق می افتد، اجرای چندوظیفه ای پیشگیرانه و همزمان. چند رشته ای."

 

Intel Software Guard Extensions ‪(SGX)، یک ویژگی امنیتی سخت افزاری اینتل که در CPUهای اینتل برای محافظت از داده های کاربران در برابر نرم افزارهای مخرب موجود است، نیز در برابر این آسیب پذیری درمانده نیست.

برای برخی از کاربران، رفع مشکل ممکن است بیشتر از مشکل به نظر برسد. طبق گفته اینتل، برخی از بارهای کاری ممکن است تا 50 درصد سربار را تجربه کنند. این مقداری کاهش سرعت است! مقیمی هشدار می دهد، با این حال، "این ایده بدی است. حتی اگر حجم کاری شما از دستورالعمل های برداری استفاده نمی کند، CPUهای مدرن برای بهینه سازی عملیات رایج، مانند کپی کردن حافظه و تغییر محتوای رجیستر، به ثبات های برداری متکی هستند."

با این حال، برای لینوکس، کاهش سرعت ممکن است چندان بد نباشد. مایکل لارابل، مهندس نرم افزار لینوکس و سردبیر سایت هاردکور لینوکس فورونیکس، پچ های Downfallرا محک زده است. Larabelدریافت که به جای تأثیرگذاری بر تعامل I/Oیا فضای کاربر و هسته - همانطور که اصلاحات Meltdown، Spectreو بستگان آنها انجام دادند - رفع Downfallفقط نرم افزارهای محدود به فضای کاربر را مختل می کند. او همچنین دریافت که در حالی که عملکرد بهتر آن‌طور که اینتل پیش‌بینی می‌کرد بد نبود، هنوز هم کاهش قابل توجهی وجود داشت.

وصله های امنیتی لینوکس در Linux Gitبرای هسته لینوکس 6.5 آینده گنجانده شده است. آخرین نسخه های پایدار نقطه ای که این وصله ها را در خود جای داده اند شامل نسخه های لینوکس 6.4.9، 6.1.44، 5.15.125، 5.10.189، 4.19.290 و 4.14.321 می باشد. این نسخه ها شامل سری پایدار لینوکس 6.4 و هسته های سری پشتیبانی بلند مدت (LTS) می شود.

این وصله‌ها گزارش وضعیت آسیب‌پذیری‌های اجرای حدس‌زنی CPUرا تسهیل می‌کنند و کنترل‌های جدیدی را برای اصلاح رفتار آن‌ها در ارتباط با آخرین میکروکد CPUمعرفی می‌کنند. البته برای کارکرد این پچ ها باید آپدیت های میکروکد AMDو Intelرا نیز نصب کنید.

خب چکاری باید انجام بدی؟ برای نصب میکروکد جدید به محض در دسترس بودن آماده شوید. سپس، با در دسترس قرار گرفتن وصله‌ها، سیستم‌های لینوکس خود را وصله کنید. این برای کاربران دسکتاپ لینوکس مشکل بزرگی نخواهد بود، اما برای کسانی از شما که لینوکس را بر روی سرورها و ابرهای خود اجرا می کنند، خواهد بود.

 

منبع

زدنت

این نرم افزار توسط OpenAI، یک شرکت تحقیقاتی و هوش مصنوعی توسعه یافته است. ChatGPTیک ابزار پردازش زبان طبیعی است که قادر به پاسخگویی به پرسش‌ها و ارائه اطلاعات بر اساس مجموعه داده‌های جمع‌آوری‌شده از مجموعه داده‌ها، از جمله کتاب‌ها و صفحات وب آنلاین است و از آن زمان به ابزاری ارزشمند برای جمع‌آوری، تجزیه و تحلیل و کارهای نوشتن اطلاعات در لحظه برای میلیون‌ها کاربر در سراسر جهان تبدیل شده است.

 

در حالی که برخی از کارشناسان بر این باورند که این فناوری می‌تواند به سطحی از اختلال در اینترنت برسد، برخی دیگر خاطرنشان می‌کنند که ChatGPT«عدم دقت مطمئن» را نشان می‌دهد. انبوه دانش‌آموزان از طریق این ابزار در حال سرقت مقالات درسی دستگیر شده‌اند، و اگر مجموعه داده‌ها تأیید نشود، ابزارهایی مانند ChatGPTمی‌توانند به ابزارهای ناخواسته برای انتشار اطلاعات نادرست و تبلیغات تبدیل شوند.

در واقع، کمیسیون تجارت فدرال ایالات متحده (FTC) در حال بررسی هوش مصنوعی باز در مورد مدیریت اطلاعات شخصی و داده‌های مورد استفاده برای ایجاد مدل زبان آن است.

با این حال، فراتر از نگرانی‌های مربوط به حفاظت از داده‌ها، هر زمان که یک نوآوری فن‌آوری جدید ایجاد شود، مسیرهایی برای سوء استفاده نیز وجود دارد. فقط زمان زیادی بود که چت ربات هوش مصنوعی برای اهداف مخرب شبیه سازی شود  و یکی از این ابزارها اکنون در بازار است که به نام WormGPTشناخته می‌شود.

 

WormGPTچیست؟

در 13 ژوئیه، محققان شرکت امنیت سایبری SlashNextیک پست وبلاگی منتشر کردند که کشف WormGPT، ابزاری را که برای فروش در انجمن هکرها تبلیغ می‌شود، منتشر کردند.

به گفته کاربر انجمن، پروژه WormGPTقصد دارد یک "جایگزین" برای ChatGPTباشد، "یکی که به شما امکان می‌دهد انواع کارهای غیرقانونی را انجام دهید و در آینده به راحتی آن را به صورت آنلاین بفروشید."

SlashNextبه ابزاری که به عنوان یک ماژول هوش مصنوعی بر اساس مدل زبان GPTJتوصیف شده است، دسترسی پیدا کرد. WormGPTظاهراً با منابع داده از جمله اطلاعات مربوط به بدافزار آموزش دیده است اما مجموعه داده های خاص فقط برای نویسنده WormGPTشناخته شده است.

برای مثال WormGPTممکن است کدهای مخرب تولید کند یا ایمیل‌های فیشینگ قانع‌کننده ایجاد کند.

 

WormGPTبرای چه مواردی استفاده می شود؟

WormGTPبه عنوان "شبیه ChatGPTاست اما هیچ مرز یا محدودیت اخلاقی ندارد."

ChatGPTدارای مجموعه ای از قوانین است که سعی می کند کاربران را از سوء استفاده غیراخلاقی از چت بات جلوگیری کند. این شامل امتناع از انجام وظایف مربوط به جرم و بدافزار است. با این حال، کاربران به طور مداوم راه هایی برای دور زدن این محدودیت ها پیدا می کنند.

محققان توانستند از WormGPTبرای ایجاد ایمیلی استفاده کنند که هدف آن تحت فشار قرار دادن یک مدیر حساب غیرقانونی برای پرداخت یک فاکتور تقلبی بود. تیم از اینکه چگونه مدل زبان این کار را به خوبی مدیریت کرد شگفت زده شد و نتیجه را "به طرز قابل توجهی متقاعدکننده [و همچنین] از نظر استراتژیک حیله‌گر نامید."

 

در حالی که آنها نگفتند که آیا سرویس نوشتن بدافزار را امتحان کرده اند یا خیر، قابل قبول است که ربات هوش مصنوعی بتواند با توجه به اینکه محدودیت های ChatGPTوجود ندارد.

طبق گزارش کانال تلگرامی که برای تبلیغ این ابزار راه اندازی شده است، پست های مشاهده شده  نشان می دهد که توسعه دهنده در حال ایجاد یک مدل اشتراک برای دسترسی است که از 60 تا 700 دلار متغیر است. یکی از اعضای کانال، "darkstux" ادعا می کند که در حال حاضر بیش از 1500 کاربر WormGPTوجود دارد.

برای مثال ChatGPTمی‌تواند ایمیل‌های حرفه‌ای، نامه‌های پوششی، رزومه، سفارش‌های خرید و موارد دیگر را پیش‌نویس کند. این به تنهایی می‌تواند برخی از رایج‌ترین شاخص‌های ایمیل فیشینگ را حذف کند: اشتباهات املایی، مشکلات گرامری، و مشکلات زبان ثانویه. به خودی خود، این امر به تنهایی می تواند برای کسب و کارهایی که سعی در شناسایی و آموزش کارکنان خود برای تشخیص پیام های مشکوک دارند، دردسر ایجاد کند.

محققان SlashNextمی گویند: "مجرمان سایبری می توانند از چنین فناوری برای ایجاد خودکار ایمیل‌های جعلی بسیار متقاعد کننده، شخصی سازی شده برای گیرنده استفاده کنند، بنابراین شانس موفقیت برای حمله را افزایش می دهند."

منبع:زدنت

مدل‌های بنیادی بستر خوبی را فراهم می‌کنند که سازمان‌ها می‌توانند از آن برای کنترل داده‌های آموزشی هوش مصنوعی خود استفاده کنند.

 

سازمان‌هایی که می‌خواهند از هوش مصنوعی مولد (AI) به طور مؤثرتری استفاده کنند، باید از داده‌های خود برای آموزش سیستم‌های هوش مصنوعی استفاده کنند و از مدل‌های پایه به عنوان نقطه شروع استفاده کنند.

انجام این کار می‌تواند زمینه مرتبط‌تری را فراهم کند و نگرانی‌ها در مورد خطرات احتمالی، مانند عدم دقت و نقض مالکیت معنوی را برطرف کند.

دقت، به ویژه، اولویت اصلی شرکتی مانند Jivaاست. فروشنده agritechاز هوش مصنوعی برای تقویت برنامه موبایل خود، Crop Doctorاستفاده می‌کند، که بیماری‌های محصول را از طریق پردازش تصویر و بینایی کامپیوتری شناسایی می‌کند و درمان‌هایی را توصیه می‌کند. همچنین برای تعیین شایستگی اعتباری کشاورزانی که پیش از برداشت محصول درخواست پیش پرداخت نقدی می‌کنند، از هوش مصنوعی استفاده می‌کند و پس از پرداخت محصول، وام‌ها را برمی‌گرداند.

این ابزار از هوش مصنوعی و ابزارهای یادگیری ماشینی مختلف، از جمله Pinecorn، OpenAI، و scikit-learn، و همچنین TensorFlowو Vertex AIگوگل استفاده می‌کند. جیوا در سنگاپور، اندونزی و هند فعالیت دارد.

به گفته تجاس دینکار، مدیر ارشد فناوری Jiva، این مدل‌های هوش مصنوعی خود را بر روی هزاران تصویر حاشیه‌نویسی برای هر بیماری آموزش می‌دهد. شرکت agritechصدها هزار تصویر را از طریق تیم‌های میدانی خود و کشاورزانی که بخشی از شبکه Jivaهستند و از برنامه AgriCentralآن که در هند موجود است استفاده می‌کنند، جمع آوری کرده است.

کارشناسان میدانی آن در جمع آوری اولیه و حاشیه نویسی تصاویر شرکت دارند، قبل از اینکه این تصاویر به کارشناسان زراعت منتقل شود تا تصاویر را بیشتر حاشیه نویسی کنند. اینها سپس به مدل آموزشی مورد استفاده برای شناسایی بیماری گیاهی اضافه می شوند.

برای محصولات جدید یا محصولاتی که تیم متخصصانش کمتر با آنها آشنا هستند، Jivaپلتفرم‌های دیگری مانند Plantixرا ارائه می‌کند که دارای مجموعه داده‌های گسترده‌ای برای تشخیص تصویر و اطلاعات تشخیص است.

دینکار گفت که ارائه اطلاعات دقیق حیاتی است زیرا داده‌ها می‌توانند برداشت و معیشت کشاورزان را بهبود بخشند. برای اطمینان بیشتر از صحت داده‌ها، هوش مصنوعی مولد و مدل‌های زبان بزرگ (LLM) تنها از مجموعه داده هایی استفاده می کنند که خود جیوا منبع و بررسی شده است.

او گفت که علاوه بر این از چت بات خواسته شده است که از طریق مهندسی سریع، هر گونه داده از پیش آموزش دیده در مورد کشاورزی را که ممکن است در LLMها وجود داشته باشد، نادیده بگیرد.

اگر داده‌ای برای استخراج وجود نداشته باشد، ربات چت پاسخی را برمی‌گرداند که می‌گوید قادر به شناسایی بیماری محصول نیست. او گفت: "شما می‌خواهید اطمینان حاصل کنید که داده‌های کافی وجود دارد. ما نمی خواهیم پاسخ مبهم ارائه کنیم."

Jivaهمچنین از کتابخانه تصویر خود برای ساخت بر روی پلتفرم‌هایی مانند Plantixاستفاده می‌کند. دینکار گفت که این مدل‌ها خط پایه خوبی را ارائه می‌کنند، اما از آنجایی که توسط شرکت‌های جهانی توسعه داده می‌شوند، ممکن است لزوماً به اندازه کافی بر روی داده‌های خاص یک منطقه یا بازار آموزش داده نشده باشند.

او گفت که این موضوع به این معنی بود که Jivaمجبور بود برای محصولاتی که در اندونزی و هند رایج‌تر بودند، مانند ذرت، مدل‌های آموزشی ایجاد کند. او با اشاره به اهمیت بومی‌سازی در مدل‌های هوش مصنوعی افزود، این محصولات بهتر از Plantixیا سایر محصولات تولید شده عمل می‌کنند.

 

مدل های پایه دقیق برای گرفتن نتایج بهتر

استفاده از مدل‌های داده پایه یک راه برای شروع سریع با هوش مصنوعی مولد است. با این حال، به گفته اولیویه کلاین، کارشناس ارشد خدمات وب آمازون (AWS) آسیا و اقیانوسیه، یک چالش رایج با این رویکرد این است که داده‌ها ممکن است به صنعتی که در آن کسب و کار در آن فعالیت می‌کند، مرتبط نباشد.

کلاین گفت که برای موفقیت در استقرار هوش مصنوعی مولد خود، سازمان‌ها باید مدل هوش مصنوعی را با داده‌های خود به خوبی تنظیم کنند. شرکت‌هایی که تلاش می‌کنند تا این کار را به درستی انجام دهند، با اجرای خود سریعتر پیش خواهند رفت.

او افزود که استفاده از هوش مصنوعی مولد به تنهایی اگر در استراتژی داده و پلتفرم سازمان تعبیه شود، قانع‌کننده‌تر خواهد بود.

او گفت که بسته به مورد استفاده، چالش رایجی که شرکت‌ها با آن روبرو هستند این است که آیا داده‌های کافی برای آموزش مدل هوش مصنوعی دارند یا خیر. با این حال، وی خاطرنشان کرد که کمیت داده ها لزوماً با کیفیت داده برابر نیست.

او گفت که حاشیه نویسی داده ها نیز مهم است، همانطور که زمینه را برای مدل های آموزشی هوش مصنوعی به کار می برد، بنابراین سیستم پاسخ‌هایی را ارائه می‌دهد که بیشتر مختص صنعت کسب و کار است.

با حاشیه‌نویسی داده‌ها، اجزای جداگانه داده‌های آموزشی برچسب‌گذاری می‌شوند تا ماشین‌های هوش مصنوعی بتوانند بفهمند داده‌ها شامل چه چیزهایی هستند و چه اجزایی مهم هستند.

کلاین به یک تصور غلط رایج اشاره کرد که همه سیستم های هوش مصنوعی یکسان هستند، که اینطور نیست. او مجدداً بر لزوم سازمان‌ها برای اطمینان از تغییر مدل‌های هوش مصنوعی بر اساس موارد استفاده و همچنین عمودی آنها تأکید کرد.

او گفت که LLMها گفتگوهای زیادی را در میان مشتریان سازمانی در مورد استفاده از هوش مصنوعی مولد در مراکز تماس، به ویژه، به راه انداخته‌اند. علاقه‌ای به این موضوع وجود دارد که چگونه این فناوری می‌تواند تجربه را برای نمایندگان تماس افزایش دهد، کسانی که می‌توانند به پاسخ‌های بهتر در حین پرواز دسترسی داشته باشند و آنها را برای بهبود خدمات مشتری ترکیب کنند.

او خاطرنشان کرد که اپراتورهای مرکز تماس می توانند مدل هوش مصنوعی را با استفاده از پایگاه دانش خود، که می تواند شامل چت بات و تعامل با مشتری باشد، آموزش دهند.

طبق گزارش Business Harvard Review، افزودن محتوای خاص دامنه به یک LLMموجود که قبلاً بر روی دانش عمومی و تعامل مبتنی بر زبان آموزش دیده است، معمولاً به داده‌های بسیار کمتری نیاز دارد. این رویکرد تنظیم دقیق شامل تنظیم برخی پارامترهای یک مدل پایه است و فقط از صدها یا هزاران سند استفاده می کند، نه میلیون‌ها یا میلیاردها. زمان محاسباتی کمتری نیز در مقایسه با ساخت یک مدل پایه جدید از زمین صفر مورد نیاز است.

هرچند محدودیت‌هایی وجود دارد. این گزارش خاطرنشان کرد که این رویکرد هنوز هم می‌تواند گران باشد و به تخصص علم داده نیاز دارد. علاوه بر این، همه ارائه‌دهندگان LLM، مانند ChatGPT-4 OpenAi، به کاربران اجازه نمی‌دهند که در بالای برنامه‌های خود تنظیم دقیق کنند.

کلاین گفت، بهره برداری از داده‌های خود همچنین نگرانی مشترک مشتریان را در میان علاقه شدید به هوش مصنوعی مولد برطرف می کند، جایی که کسب و کارها می خواهند کنترل داده های مورد استفاده برای آموزش مدل های هوش مصنوعی را حفظ کنند و داده ها در محیط آنها باقی بماند.

او خاطرنشان کرد: این رویکرد تضمین می کند که هیچ "جعبه سیاه" وجود ندارد و سازمان دقیقاً می داند که از چه داده هایی برای تغذیه مدل هوش مصنوعی استفاده می شود. همچنین شفافیت را تضمین می کند و به ایجاد مسئولیت پذیری هوش مصنوعی کمک می کند.

او گفت همچنین تلاش‌های مداومی برای شناسایی سیاست‌های مورد نیاز برای جلوگیری از اثر جعبه سیاه وجود دارد و افزود که AWSبا تنظیم‌کننده‌ها و سیاست‌گذاران برای اطمینان از سازگاری محصولات هوش مصنوعی خود کار می‌کند. این شرکت همچنین به مشتریان کمک می کند تا با پیاده سازی های خود نیز همین کار را انجام دهند.

او گفت، برای مثال، آمازون بستر می‌تواند سوگیری را تشخیص دهد و محتوایی را که دستورالعمل‌های اخلاقی هوش مصنوعی را نقض می‌کند، فیلتر کند. Bedrockمجموعه‌ای از مدل‌های پایه است که شامل مدل‌های اختصاصی و همچنین مدل‌های صنعتی مانند Amazon Titan، Jurassic-2آزمایشگاه‌های AI21، Claude Anthropicو Stability AIاست.

کلاین پیش‌بینی می‌کند که مدل‌های داده پایه بیشتری در آینده پدیدار شوند، از جمله مدل‌های پایه عمودی خاص، تا سازمان‌ها را با گزینه‌های بیشتر آموزش دهند.

مشکلات کلیدی برای حل با هوش مصنوعی مولد

در جایی که مدل‌های هوش مصنوعی قوی وجود نداشته باشد، انسان‌ها می‌توانند پا پس بگذارند.

دینکار برای مسائل نادر یا بسیار خاص محصول، خاطرنشان کرد که تیم متخصصان زراعت Jivaمی توانند با محققان محلی و تیم های میدانی برای حل آنها همکاری کنند.

او گفت که تیم ارزیابی اعتبار این شرکت همچنین داده های تولید شده توسط سیستم‌های هوش مصنوعی را با اطلاعات دیگر پوشش می دهد. برای مثال، تیم ممکن است یک بازدید در محل انجام دهد و متوجه شود که یک محصول اخیراً برای برداشت آماده شده است، که سیستم مجهز به هوش مصنوعی ممکن است در هنگام ایجاد ارزیابی اعتبار آن را در نظر نگرفته باشد.

دینکار گفت: "هدف حذف کامل انسان‌ها نیست، بلکه انتقال آنها به مناطقی است که می‌توانند افکار تطبیقی را تقویت کنند و [به کار گیرند]، که ماشین‌ها هنوز به آن عمل نکرده اند."

در پاسخ به سوالی درباره چالش‌هایی که Jivaدر استفاده از هوش مصنوعی مولد خود با آن مواجه شد، به فقدان یک روش استاندارد سریع در بین نسخه‌های مختلف نرم‌افزار و ارائه‌دهندگان اشاره کرد.

او گفت که "همه زبان گرایی واقعی" نیز در LLMوجود ندارد، در حالی که توهم همچنان یک مسئله کلیدی است.

او توضیح داد: «مدل‌های مختلف زبان بزرگ، همگی ویژگی‌های خاص خود را دارند [و] تکنیک‌های سریع یکسان در این موارد کار نمی‌کنند. به عنوان مثال، از طریق مهندسی سریع پیشرفته، Jivaتوانسته است به ربات کشاورزی خود دستور دهد تا روشن کند که آیا قادر به استنباط از زمینه، محصولی است که کشاورز به آن ارجاع می دهد یا خیر.

با این حال، او گفت، در حالی که این دستور خاص در GPT-3.5عملکرد خوبی داشت، اما در GPT-4به خوبی عمل نکرد. همچنین در LLMمتفاوت کار نمی کند.

دینکار گفت: «ناتوانی در استفاده مجدد از درخواست‌ها در سراسر نسخه‌ها و پلتفرم‌ها، ایجاد مجموعه‌های سفارشی از تکنیک‌های سریع برای هر یک را ضروری می‌کند. "با بهبود ابزارها و ظهور بهترین روش ها برای ایجاد مدل های مختلف زبانی بزرگ، امیدواریم درخواست های چند پلتفرمی به واقعیت تبدیل شوند."

او گفت که در پشتیبانی بین زبانی نیز به بهبودهایی نیاز است و به پاسخ های عجیبی که ربات چت آن گاهی اوقات خارج از زمینه ایجاد می کند اشاره کرد.

 منبع:زدنت

هوش مصنوعی

آیا هرگز به کسی که نمی‌شناسید اجازه می‌دهید به مکالمات خصوصی شما با پزشک یا افراد مهم دیگر گوش دهد؟ آیا به آن‌ها اجازه می‌دهید تکه‌های کوچکی از آنچه شنیده‌اند را به دیگری بفروشند؟ به طور خلاصه، این همان کاری است که ردیاب های شخص ثالث انجام می دهند. آن‌ها کارهایی را که شما به صورت آنلاین انجام می‌دهید تماشا می‌کنند و سپس آن اطلاعات را به شخص دیگری می‌فروشند که می‌خواهد چیزی به شما بفروشد.

 

از آنجایی که افراد بیشتری از خدمات هوش مصنوعی مولد مانند ChatGPTیا حتی Bing Chatو Google Bardاستفاده می کنند، ایمنی و اخلاقیات همه آنها زیر سوال می رود. هنگامی که میلیون‌ها نفر برای پرسیدن سؤال، تولید متن برای نامه‌ها یا مقاله‌ها، نوشتن و حتی اشکال‌زدایی کد به یک وب‌سایت می‌روند، باید از خود بپرسید: برای همه اطلاعاتی که در این ابزارها وارد می‌شود چه اتفاقی می‌افتد و چه نقشی، اگر وجود داشته باشد؟ آیا کارگزاران داده در همه اینها دارند؟

مدیر عامل و کارشناس حریم خصوصی Ghostery، Jean-Paul Schmetz، یک یا دو چیز برای گفتن در مورد این موضوع دارد، و او در مورد نگرانی های مربوط به حفظ حریم خصوصی شما در هنگام استفاده از هوش مصنوعی مولد صحبت کند.

خبر خوب این است که OpenAIهنوز اجازه ردیابی شخص ثالث در ChatGPTرا نداده است. Schmetzمی گوید: "OpenAIاز این نظر که ایمن است، بسیار ساده است." زمانی که شما با ChatGPTچت می کنید، هیچ کس را ندارند که از بالای شانه شما نگاه کند.

او می‌افزاید: «تنها چیزی که کاربر باید نگران آن باشد این است که بتواند از داده‌های شما برای آموزش استفاده کند، بنابراین هرچه بنویسید توسط OpenAIاستفاده می‌شود. این به وضوح در خط‌مشی رازداری شرکت بیان شده است، اگرچه شما می‌توانید با پر کردن فرم Googleاز OpenAIاز اشتراک‌گذاری داده خودداری کنید.

ارزش توجه به هشدار اشمتز را دارد. در سال 2021، محققان آسیب‌پذیری‌هایی را در سیستم GPT-2برای آموزش حملات استخراج داده‌ها کشف کردند که از نقش ذاتی مدل در یادگیری از داده‌هایی که کاربران وارد می‌کنند سوء استفاده می‌کنند.

"با وارد کردن پرس و جوهای هدفمند خاص، نهادهای مخرب می توانند هوش مصنوعی را تحریک کنند تا داده های خاصی را که قبلا توسط یک کاربر وارد شده است بازگو کند - که می تواند شامل اطلاعات شناسایی شخصی مانند نام، آدرس و شماره تلفن همراه با هر چیز دیگری باشد که هدف با آن به اشتراک گذاشته است. اشمتس توضیح می دهد که سیستم.

در حالی که ما به طور قطع نمی دانیم که آیا این آسیب پذیری در GPT-4وجود دارد یا خیر، Schmetzتوضیح می دهد که در مدل رایگان نیز وجود دارد.

رئیس و یکی از بنیانگذاران OpenAI، گرگ براکمن، این هفته بیانیه ای را به اشتراک گذاشت که بر تعهد این شرکت به ایمنی با مدل هایش تاکید کرد. براکمن گفت: «ما معتقدیم که دوره‌های آموزشی قدرتمند باید به دولت‌ها گزارش شود، با پیش‌بینی‌های پیچیده‌تر از توانایی و تأثیر آن‌ها همراه باشد و به بهترین شیوه‌ها مانند آزمایش قابلیت‌های خطرناک نیاز داشته باشد».

بسیاری از ما که در کنار اینترنت بزرگ شده‌ایم می‌دانیم که سه قانون مهم برای آن وجود دارد: اطلاعات خصوصی را آنلاین قرار ندهید، هر چیزی را که می‌خوانید باور نکنید، و مراقب مجرمان سایبری باشید.

Schmetzمی‌افزاید: «کاربرانی که مراقب اطلاعاتی که با هوش مصنوعی به اشتراک می‌گذارند، در معرض خطر قرار نخواهند گرفت، زیرا این داده‌های شخص اول تنها در صورتی قابل استخراج هستند که کاربر آن را از ابتدا وارد کرده باشد.»

 

منبع

زدنت

کشورها باید اطمینان حاصل کنند که مهارت‌های مناسبی برای تقویت دفاع سایبری و حفاظت از مرزهای دیجیتالی خود دارند، زیرا فناوری‌هایی مانند هوش مصنوعی مولد(AI) پذیرفته شده و به تکامل خود ادامه می‌دهند.

برای مثال، سنگاپور می خواهد نیروهای مسلح سایبری خود را تطبیق دهد و استعدادهای آینده را با قابلیت‌های پیشرفته هوش مصنوعی آموزش دهد. واحد دفاع سایبری نیروهای مسلح سنگاپور، موسوم به سرویس دیجیتال و اطلاعات(DIS)، روز شنبه قراردادی را با هوش مصنوعی سنگاپور امضا کرد تا «تخصص هوش مصنوعی ملی» را برای دفاع دیجیتال تعمیق بخشد.
هوش مصنوعی سنگاپور که در ماه می 2017 توسط بنیاد ملی تحقیقات راه اندازی شد، وظیفه ایجاد قابلیت‌ها و اکوسیستم هوش مصنوعی کشور را بر عهده دارد که شامل استارت آپ‌ها و شرکت‌های محلی است که محصولات هوش مصنوعی را توسعه می‌دهند.
این همکاری بهDIS کمک می‌کند تا با نوآوری هوش مصنوعی در دانشگاه و صنعت همگام شود امید است که این رویکرد مشترک تضمین کند که نیروهای مسلح دفاع سایبری می‌توانند از حجم اطلاعات در حال رشد برای شناسایی و پاسخگویی بهتر به تهدیدات سایبری فزاینده در سنگاپور استفاده کنند.
این وزارتخانه گفت کهDIS می‌تواند از طرح‌های توسعه استعداد و صنعت هوش مصنوعی سنگاپور، از جمله 100آزمایش و برنامه کارآموزی هوش مصنوعی، استفاده کند. این مهارت‌ها برای تقویت توانایی استقرار تکنیک‌های پیشرفته هوش مصنوعی، مانند مدل‌های زبان بزرگ، و ادغام آن‌ها در عملیات‌های دفاع ملی مورد استفاده قرار خواهند گرفت.
این مشارکت همچنین شاهد خواهد بود کهDIS ارائه‌های دوره‌های خود را به ماژول‌هایLearnAI سنگاپورAI گسترش می‌دهد. DIS از شبکه‌های دانشجویی موجود در سنگاپور برای تقویت استعداد خود بهره می‌برد. به عنوان مثال، شرکت کنندگان در برنامه کارآموزی هوش مصنوعی می توانند از طریق پروژه های مختلف به توسعه دفاع ملی کمک کنند.
کو سنگ منگ، رئیس هوش مصنوعی سنگاپور گفت: «همکاری ما باDIS تضمین می‌کند که سنگاپور دارای یک خط لوله قوی و انعطاف‌پذیر از استعدادهای هوش مصنوعی است که از مسائل مربوط به دفاع ملی آگاهی دارند و دارای تخصص مربوطه برای محافظت از مرزهای دیجیتال ما و محافظت از سنگاپور هستند. LearnAI.
یک برنامه آموزشی امنیت سایبری نیز در روز جمعه راه اندازی شد که افراد حرفه ای میان دوره ای و فارغ التحصیلان تازه کار بدون آموزش قبلی را هدف قرار می دهد. این دوره آموزشی تمام وقت و پولی که به عنوان برنامه کارآموزی سایبریCSIT شناخته می شود، در طول هفت ماه با هدف آموزش و مهارت مجدد 100 نفر در سه سال آینده انجام می شود.
این طرح آموزشی توسط مرکز فناوری‌های اطلاعات استراتژیک(CSIT)، یک آژانس فنی که در وزارت دفاع سنگاپور قرار دارد، مدیریت می‌شود. متقاضیان دوره منتخب با یک مربیCSIT و متخصص امنیت سایبری مطابقت داده می شوند، که دانش آموزان را در مسیر مهارت آموزی و سفر آموزشی آنها راهنمایی می کند.
به داوطلبانی که این برنامه را تکمیل می کنند، یک نقش دائمی درCSIT، با حداقل دو سال سابقه خدمت، پیشنهاد می شود.
تئو چی هن، وزیر ارشد و وزیر هماهنگی امنیت ملی، گفت که ایجاد یک استخر قوی در امنیت سایبری بسیار مهم است زیرا فناوری‌های جدید از جمله یادگیری ماشینی، هوش مصنوعی، اینترنت اشیا و وب 3.0 در زندگی روزمره ادغام شده‌اند.
 

منبع

زدنت

این شرکت از شما می‌خواهد که آسیب‌پذیری‌ها را در چت بینگ مبتنی بر هوش مصنوعی بیابید و گزارش دهید، و آماده است برای آن‌ها به شما پول پرداخت کند.

 

از آنجایی که هوش مصنوعی به لطف قدرت‌هایش در تولید محتوا، توسعه نرم‌افزار و جایگزینی موتورهای جستجو به روند خود ادامه می‌دهد، شرکت‌ها راه‌هایی را برای رفع آسیب‌پذیری‌ها و ایمن‌تر کردن ابزارهای هوش مصنوعی خود سرکوب می‌کنند. پس از اعلام برنامه پاداش باگ OpenAIدر چند هفته پیش، مایکروسافت برنامه خود را گسترش داد تا Bing Chatجدید را نیز در بر بگیرد.

یک برنامه جایزه اشکال برای محققان امنیتی و هکرهای اخلاقی است که در ازای دریافت پاداش، از یافتن آسیب‌پذیری در برنامه‌های رایانه‌ای یا وب‌سایت‌ها استقبال می‌کنند. هنگامی که یکی از این محققان امنیتی مشکلی را پیدا می کند که به آن "باگ" نیز می گویند، باید آن را گزارش کنند تا جایزه خود را دریافت کنند.

مایکروسافت به‌طور مداوم برنامه‌های پاداش باگ خود را در تلاش برای ایجاد مشارکت‌های موفق متقابل با محققان امنیتی برای بهبود خدماتی مانند NET، Edge، Azureو Identityبه روز می‌کند. در آگوست 2022، این شرکت اعلام کرد که 13.7 میلیون دلار پاداش باگ در آن سال مالی گذشته داشته است.

هر کسی که به دنبال دریافت نقدی از آخرین گسترش برنامه پاداش باگ برای Bingجدید است، باید گزارش دقیق خود را از طریق لیست ارسال کلی ارسال کند و Bingرا از لیست محصولات انتخاب کند. موارد ارسالی باید شامل نوع مشکل، نسخه‌ای که حاوی اشکال است، به‌روزرسانی‌هایی که نصب کرده‌اند، پیکربندی‌های ویژه مورد نیاز برای بازتولید اشکال، دستورالعمل‌های گام به گام برای بازتولید مشکل در اولین نصب، اثبات یا مفهومی و و تأثیر این موضوع، از جمله اینکه چگونه یک مهاجم می تواند از موضوع سوء استفاده کند.

پس از ارسال، مایکروسافت تعیین می کند که آیا واجد شرایط است یا خیر و مهندسان آن را بررسی می کنند و در صورت امکان، پاداشی را پرداخت می کنند.

بینگ چت جدید موتور جستجوی اصلاح شده مایکروسافت با هوش مصنوعی است که فرمت چت و تولید کننده تصویر جدید ساخته شده بر روی GPT-4 OpenAIرا اجرا می‌کند.

 

منبع: زد نت

حملات سایبری با هدف قرار دادن سخت‌افزار گوشی‌های هوشمند اندرویدی افزایش یافته است. گوگل برنامه‌ای برای بهبود سیستم دفاعی دارد.

گوگل در حال کار بر روی بهبود امنیت سایبری تلفن‌های هوشمند و تبلت‌های اندرویدی با تقویت سیستم دفاعی کل اکوسیستم در سطح سیستم‌افزار است.

Firmwareنرم افزار رایانه‌ای است که پشت پیکربندی و کنترل سخت افزار دستگاه قرار دارد. به دلیل این وضعیت، سیستم عامل اغلب اولین کدی است که هنگام روشن شدن دستگاه اجرا می شود و آن را پایه و اساس هر چیز دیگری در سیستم می‌کند.

این موقعیت به این معنی است که سیستم عامل نقش اصلی را در امنیت دستگاه شما و سیستم عامل آن، از جمله پیکربندی تنظیمات امنیتی سخت افزار، ایفا می‌کند.

نقش کلیدی سفت‌افزار در مدیریت تمام جنبه‌های یک دستگاه به این معنی است که اگر مهاجم بتواند تلفن هوشمند یا تبلتی را در سطح میان‌افزار به خطر بیاندازد، می‌تواند به طور مداوم و تقریباً کاملاً مخفیانه به دستگاه دسترسی پیدا کند، که به آنها اجازه می‌دهد تا از همه چیز شما جاسوسی کنند و اطلاعات حساس را به سرقت برد و یا حتی از کارکرد دستگاه جلوگیری کند.

حملات سخت‌افزار گسترده نیستند و معمولاً بسیار هدفمند هستند - اما گوگل به آنچه که به عنوان افزایش تحقیقات امنیت سایبری توصیف می‌کند که آسیب‌پذیری‌ها در میان‌افزار اندروید را کشف می‌کند، واکنش نشان می‌دهد.

محققان در یک به‌روزرسانی وبلاگ امنیتی گوگل گفتند: «از آنجایی که امنیت پلتفرم اندروید به طور پیوسته بهبود یافته است، برخی از محققان امنیتی تمرکز خود را به بخش‌های دیگر پشته نرم‌افزار از جمله سیستم‌افزار تغییر داده‌اند.

در طول دهه گذشته، انتشارات، گفتگوها، برندگان مسابقه Pwn2Ownو CVEهای متعددی وجود داشته است که هدف آنها سوءاستفاده از آسیب پذیری ها در سیستم عامل در حال اجرا در این پردازنده های ثانویه بوده است.

برخی از این آسیب‌پذیری‌ها منجر به اجرای کد از راه دور در دستگاه‌ها، به ویژه پس از سوء استفاده از Wi-Fiو باگ‌های باند پایه سلولی شده است.

اکنون گوگل می‌گوید که امنیت اندروید را با استفاده از درس‌های آموخته شده از ایمن‌سازی سایر قسمت‌های کد و سخت‌تر کردن سفت‌افزار برای محافظت از آن - و کاربران - در برابر تهدیدات سایبری بالقوه بهبود می‌بخشد.

این فرآیند شامل بهبود ضدعفونی‌کننده‌های مبتنی بر کامپایلر - ابزار برنامه‌نویسی که اشکالات برنامه‌های رایانه‌ای را شناسایی می‌کند - و سایر کاهش‌های سوءاستفاده در میان‌افزار، همراه با بهبود ویژگی‌های ایمنی حافظه خواهد بود. بهبود حافظه به دنبال جلوگیری از حملاتی است که مستقیماً حافظه سفت‌افزار را هدف قرار می‌دهند، مانند حملات سرریز بافر.

همانطور که گوگل اشاره می کند، چالش هایی پیرامون اجرای این رویکرد وجود دارد.

گوگل سکیوریتی که همچنین از دیگر سازندگان دستگاه‌های اندرویدی می‌خواهد از این روش پیروی کنند، گفت: «سخت‌سازی سیستم‌افزاری که روی فلز لخت اجرا می‌شود تا سطح حفاظت را در سطوح بیشتر در اندروید افزایش دهد - یکی از اولویت‌های امنیت Androidاست.

"در حرکت رو به جلو، هدف ما گسترش استفاده از این فناوری‌های کاهش برای اهداف فلزی بیشتر است و ما قویاً شرکای خود را تشویق می‌کنیم که همین کار را انجام دهند. ما آماده کمک به شرکای اکوسیستم خود برای سخت‌تر کردن سیستم عامل فلزی لخت هستیم."

 منبع: زدنت