‫ fars_sakha بلاگ

وادار کردن شرکت‌ها برای باز کردن نحوه آموزش مدل‌های هوش مصنوعی پایه خود یک چالش است.

 

هنوز شفافیت در مورد نحوه آموزش مدل‌های پایه وجود ندارد و این شکاف می‌تواند منجر به افزایش تنش با کاربران شود زیرا سازمان‌های بیشتری به دنبال پذیرش هوش مصنوعی (AI) هستند.

 

در آسیا-اقیانوسیه، به استثنای چین، IDCپیش‌بینی می‌کند که هزینه‌های مربوط به هوش مصنوعی 28.9 درصد از 25.5 میلیارد دلار در سال 2022 به 90.7 میلیارد دلار تا سال 2027 خواهد رسید. شرکت تحقیقاتی تخمین می‌زند که 81 درصد از این هزینه‌ها به سمت برنامه‌های کاربردی هوش مصنوعی پیش‌بینی‌کننده و تفسیری هدایت می‌شود.

 

کریس مارشال، معاون IDCآسیا و اقیانوسیه، معتقد است، در حالی که تبلیغات زیادی در مورد هوش مصنوعی مولد وجود دارد، این بخش هوش مصنوعی تنها 19 درصد از هزینه های هوش مصنوعی منطقه را تشکیل می دهد. مارشال در نشست هوش مصنوعی اینتل که این هفته در سنگاپور برگزار شد، گفت: این تحقیق بازاری را نشان می دهد که به رویکرد گسترده تری برای هوش مصنوعی نیاز دارد که فراتر از هوش مصنوعی مولد است.

 

IDCخاطرنشان کرد، با این حال، 84 درصد از سازمان‌های آسیا و اقیانوسیه بر این باورند که بهره‌برداری از مدل‌های مولد هوش مصنوعی مزیت رقابتی قابل‌توجهی برای کسب‌وکار آن‌ها ارائه می‌کند. این شرکت تحقیقاتی افزود: این شرکت‌ها امیدوارند به دستاوردهایی در کارایی عملیاتی و بهره‌وری کارکنان، بهبود رضایت مشتری و توسعه مدل‌های تجاری جدید دست یابند.

 

IDCهمچنین انتظار دارد که اکثر سازمان‌های منطقه در سال 2024 هزینه‌های ITلبه‌ای را افزایش دهند و پیش‌بینی می‌شود که 75 درصد از داده‌های سازمانی تا سال 2025 خارج از مراکز داده سنتی و ابر تولید و پردازش شوند.

 

الکسیس کراول، مدیر ارشد فناوری اینتل در آسیا و اقیانوسیه ژاپن، در بیانیه‌ای گفت: «برای اینکه هوش مصنوعی را به همه جا برساند، فناوری‌های مورد استفاده باید دسترسی، انعطاف‌پذیری و شفافیت را برای افراد، صنایع و جامعه به طور کلی فراهم کنند.» "از آنجایی که شاهد رشد فزاینده سرمایه گذاری های هوش مصنوعی هستیم، چند سال آینده برای بازارها حیاتی خواهد بود تا پایه بلوغ هوش مصنوعی خود را به شیوه ای مسئولانه و متفکرانه بسازند."

 

بازیگران صنعت و دولت ها اغلب اهمیت ایجاد اعتماد و شفافیت در هوش مصنوعی را مطرح کرده اند و مصرف کنندگان بدانند سیستم های هوش مصنوعی "عادلانه، قابل توضیح و ایمن" هستند. هنگامی که ZDNETپرسید که آیا در حال حاضر شفافیت کافی در مورد نحوه آموزش مدل های زبان بزرگ (LLM) و مدل های پایه وجود دارد، کراول گفت: "نه، کافی نیست."

 

او به مطالعه محققان دانشگاه استنفورد، MITو پرینستون اشاره کرد که شفافیت 10 مدل پایه اصلی را ارزیابی کردند که در آن پلتفرم با امتیاز برتر تنها امتیاز 54 درصد را کسب کرد. او در جریان یک نشست خبری در این نشست گفت: «این یک علامت شکست است.

 

بر اساس این مطالعه که مدل‌ها را بر اساس 100 شاخص، از جمله فرآیندهای درگیر در ساخت مدل، مانند اطلاعات در مورد داده‌های آموزشی، معماری و ریسک‌های مدل، و سیاست‌های حاکم بر آن، ارزیابی کرد، میانگین امتیاز فقط 37 درصد بود. استفاده کنید. بالاترین امتیاز با 54% Llama 2از Metaبود و بعد از آن Bloomzاز BigScienceبا 53% و GPT-4 OpenAIبا 48% قرار گرفتند.

 

محققان خاطرنشان کردند: «هیچ توسعه‌دهنده اصلی مدل پایه به ارائه شفافیت کافی نزدیک نیست، که نشان دهنده عدم شفافیت اساسی در صنعت هوش مصنوعی است.

 

شفافیت لازم است

کراول ابراز امیدواری کرد که این وضعیت ممکن است با در دسترس بودن معیارها و سازمان هایی که بر پیشرفت‌های هوش مصنوعی نظارت می‌کنند، تغییر کند. او افزود که دعواهایی مانند آنچه نیویورک تایمز علیه OpenAIو مایکروسافت مطرح کرده است، می‌تواند به شفافیت بیشتر حقوقی کمک کند.

 

او خاطرنشان کرد که باید چارچوب‌های حاکمیتی مشابه قوانین مدیریت داده، از جمله GDPR(مقررات عمومی حفاظت از داده‌ها) اروپا وجود داشته باشد، بنابراین کاربران بدانند داده‌هایشان چگونه استفاده می‌شود. او گفت که کسب‌وکارها باید بر اساس نحوه جمع‌آوری داده‌هایشان و اینکه کجا می‌رود، تصمیمات خرید بگیرند و افزود که افزایش تنش از سوی کاربرانی که خواستار شفافیت بیشتر هستند ممکن است به اقدامات صنعت دامن بزند.

 

طبق نظرسنجی اخیر Salesforceکه از حدود 6000 کارمند دانش در سراسر ایالات متحده، بریتانیا، ایرلند، استرالیا، فرانسه، آلمان، هند، سنگاپور نظرسنجی کرد، 54 درصد از کاربران هوش مصنوعی به داده‌های مورد استفاده برای آموزش سیستم‌های هوش مصنوعی اعتماد ندارند. ، و سوئیس.

 

کرال با استناد به گزارش تحقیقاتی که توسط گروه مشاوره بوستون رهبری می‌شود، گفت: برخلاف تصور رایج، دقت نباید به قیمت شفافیت تمام شود. این گزارش نحوه عملکرد مدل‌های هوش مصنوعی جعبه سیاه و سفید را بر روی تقریباً 100 مجموعه داده طبقه‌بندی معیار، از جمله قیمت‌گذاری، تشخیص پزشکی، پیش‌بینی ورشکستگی و رفتار خرید بررسی می‌کند. برای تقریباً 70 درصد از مجموعه داده‌ها، مدل‌های جعبه سیاه و جعبه سفید نتایج دقیق مشابهی تولید کردند.

 

در این گزارش آمده است: «به عبارت دیگر، بیشتر اوقات، هیچ معاوضی بین دقت و قابلیت توضیح وجود نداشت. یک مدل قابل توضیح تر می تواند بدون کاهش دقت استفاده شود.

 

مارشال گفت، با این حال، کسب شفافیت کامل همچنان چالش برانگیز است. او خاطرنشان کرد که بحث‌ها در مورد توضیح‌پذیری هوش مصنوعی زمانی پرجنب‌وجوش بود، اما از آن زمان به پایان رسید، زیرا پرداختن به آن مشکلی است.

 

به گفته لارنس لیو، مدیر نوآوری هوش مصنوعی برای هوش مصنوعی سنگاپور (AISG)، سازمان‌هایی که پشت مدل‌های بنیادی اصلی هستند، ممکن است به دلیل نگرانی در مورد شکایت شدن، تمایلی به ارائه اطلاعات آموزشی خود نداشته باشند. او افزود که انتخابی بودن در مورد داده های آموزشی می تواند بر میزان دقت هوش مصنوعی نیز تأثیر بگذارد. لیو توضیح داد که AISGبه دلیل مشکلات احتمالی در استفاده از همه مجموعه‌های در دسترس عموم با ابتکار LLMخود، SEA-LION(زبان‌های آسیای جنوب شرقی در یک شبکه) استفاده نکرد.

 

او گفت که در نتیجه، معماری منبع باز به اندازه برخی از LLMهای اصلی موجود در بازار امروز دقیق نیست. او خاطرنشان کرد: «این یک تعادل خوب است»، و افزود که دستیابی به میزان دقت بالا به معنای اتخاذ یک رویکرد باز برای استفاده از هر داده در دسترس است. او گفت که انتخاب مسیر "اخلاقی" و دست ندادن به مجموعه داده های خاص به معنای نرخ دقت کمتری نسبت به مواردی است که توسط بازیگران تجاری به دست می آید.

 

لیو گفت، در حالی که سنگاپور یک نوار اخلاقی بالا را با SEA-LIONانتخاب کرده است، هنوز اغلب توسط کاربرانی که خواستار بهره برداری از مجموعه داده های بیشتری برای بهبود دقت LLMهستند، به چالش کشیده می شود.

 

گروهی از نویسندگان و ناشران در سنگاپور ماه گذشته نگرانی خود را در مورد احتمال استفاده از آثارشان برای آموزش SEA-LIONابراز کردند. از جمله گلایه های آنها عدم تعهد آشکار به «پرداخت غرامت عادلانه» برای استفاده از نوشته هایشان است. آنها همچنین به نیاز به وضوح و تصدیق صریح اشاره کردند که قوانین مالکیت معنوی و حق چاپ کشور و ترتیبات قراردادی موجود در ایجاد و آموزش LLMها مورد حمایت قرار خواهند گرفت.

 

شفاف بودن در مورد منبع باز

به گفته مت هیکس، مدیرعامل Red Hat، چنین شناختی باید به چارچوب‌های منبع باز نیز گسترش یابد که برنامه‌های هوش مصنوعی ممکن است بر اساس آن توسعه داده شوند.

 

هیکس طی یک جلسه توجیهی رسانه مجازی این هفته در پشت اجلاس Red Hat 2024گفت که مدل ها با حجم زیادی از داده های ارائه شده توسط افراد دارای حق چاپ آموزش داده می شوند و استفاده مسئولانه از این سیستم های هوش مصنوعی به معنای پایبندی به مجوزهایی است که استفاده می‌کنند.

 

این برای مدل‌های منبع باز که ممکن است انواع مجوزهای متفاوتی داشته باشند، از جمله مجوزهای کپی‌لفت مانند GPLو مجوزهای مجاز مانند Apache، مناسب است.

 

او بر اهمیت شفافیت و مسئولیت درک مدل های داده و مدیریت خروجی های تولید شده توسط مدل ها تاکید کرد. هم برای ایمنی و هم امنیت معماری های هوش مصنوعی، لازم است اطمینان حاصل شود که مدل ها در برابر سوء استفاده های مخرب محافظت می شوند.

 

Red Hatبه دنبال کمک به مشتریان خود در چنین تلاش هایی از طریق مجموعه ای از ابزارها، از جمله Red Hat Enterprise Linux AI (RHEL AI) است که در اجلاس از آن رونمایی کرد. این محصول شامل چهار جزء، از جمله زبان Open Graniteو مدل‌های کد از جامعه InstructLabاست که توسط Red Hatپشتیبانی و جبران می‌شود.

 

به گفته فروشنده منبع باز، این رویکرد به چالش هایی که سازمان ها اغلب در استقرار هوش مصنوعی با آن مواجه هستند، از جمله مدیریت چرخه عمر برنامه و مدل می پردازد.

 

Red Hatگفت: "[RHEL AI] یک پلت فرم مدل پایه برای آوردن مدل های GenAIدارای مجوز منبع باز به شرکت ایجاد می کند." هدف Red Hatبا ابزارهای تراز InstructLab، مدل‌های گرانیتی و هوش مصنوعی RHEL، استفاده از مزایای پروژه‌های منبع باز واقعی - آزادانه و قابل استفاده مجدد، شفاف و باز برای مشارکت - برای GenAIدر تلاش برای رفع این موانع است. "

 

منبع

زدنت

حفره امنیتی جدید کروم جاوا اسکریپت بد است، بنابراین به اصلاح سیستم‌های خود بپردازید.

 

گوگل به‌روزرسانی امنیتی مهمی را برای مرورگر وب کروم منتشر کرده است. نقص روز صفر، CVE-2024-4671، یک آسیب‌پذیری «بعد از استفاده رایگان» در مؤلفه Visuals Chromeاست.

 

ممکن است بپرسید "کامپوننت ویژوال کروم چیست؟" به طور خلاصه، این قسمت مسئول رندر و نمایش محتوا در مرورگر است. همه از یک مرورگر برای باز کردن محتوا استفاده می کنند، بنابراین همه آسیب پذیر هستند.

 

به طور خاص، این آسیب‌پذیری مهاجم را قادر می‌سازد تا از دسترسی خارج از محدوده حافظه سوء استفاده کند. در زبان انگلیسی، این بدان معناست که اگر به وب‌سایتی با یک صفحه وب مخرب بروید، می‌تواند رایانه شما را خراب کند. فرقی نمی کند که دستگاه شما از لینوکس، macOSیا ویندوز استفاده می کند. این حفره امنیتی مشکل ساز فرصت های برابر است.

 

CVE-2024-4671که توسط یک محقق ناشناس کشف شده و مستقیماً به Googleگزارش شده است دارای رتبه سیستم امتیازدهی آسیب پذیری مشترک (CVSS) 8.8است که به این معنی است که یک آسیب پذیری جدی است.

 

این می تواند بدتر باشد - رتبه های بالای 9.0 بسیار مهم هستند، با نام مستعار همین حالا درستش کنید - اما این به اندازه کافی بد است. یک مهاجم می تواند از این نقص برای خواندن داده ها از رایانه شما، ایجاد خرابی و حتی تصرف رایانه شخصی استفاده کند. خلاصه خبر بدی است.

 

چیزی که واقعاً این یکی را بدبو می کند این است که اکنون مورد سوء استفاده قرار می گیرد. توصیه‌نامه اشاره می‌کند که گوگل از وجود یک سوء استفاده برای CVE-2024-4671در طبیعت آگاه است.

 

برای اطمینان از محافظت از خود، با رفتن به تنظیمات > درباره Chrome، تأیید کنید که آخرین نسخه Chromeرا دارید. نسخه های محافظت شده به روز 124.0.6367.201/.202 برای مک و ویندوز و 124.0.6367.201 برای لینوکس هستند. کاربران کانال Extended Stableنسخه 124.0.6367.201 را برای مک و ویندوز در روزهای آینده دریافت خواهند کرد.

 

علاوه بر کروم مناسب، این حفره امنیتی در Microsoft Edgeنیز وجود دارد. با آپدیت 10 می رفع شد. اگر از Brave، Opera، Vivaldiیا هر مرورگر وب دیگری مبتنی بر Chromiumیا Chromeاستفاده می‌کنید، باید در اسرع وقت به‌روزرسانی کنید تا ایمن باشید. برای تمام اهداف عملی، تنها مرورگر وب که این مشکل را ندارد فایرفاکس است.

 

یک تنظیم پیش‌فرض Google Chromeدر Androidمی‌تواند اعتبارنامه‌های ذخیره شده در Password Managerرا حذف کند، اما یک اصلاح احتمالی در راه است.

 

گوگل قصد دارد مدیریت رمز داخلی کروم برای اندروید را تغییر دهد تا اطمینان حاصل کند که رمزهای عبور به طور تصادفی حذف نمی‌شوند.

 

اگر از Google Password Managerاستفاده می‌کنید، ممکن است در موقعیت ناخواسته‌ای قرار بگیرید که در آن همه رمزهای عبور ذخیره شده شما هنگام پاک کردن داده‌های مرورگر حذف می‌شوند.

 

Android Policeگزارش داد که Redditor /u/harish9294از یک راه حل مدیریت رمز عبور سنتی تر تغییر کرده و Google Password Managerرا برای "تجربه یکپارچه و یکپارچه" انتخاب کرده است. متأسفانه، این سوئیچ باعث شد که کاربر پس از پاک کردن داده‌های کش کروم، تمام رمزهای عبور ذخیره شده خود را از دست بدهد.

 

در این پست، Redditorنوشت که فکر می‌کردند کروم در تلفن پیکسل خود ضعیف است، بنابراین تصمیم گرفتند تاریخچه و حافظه پنهان را پاک کنند. گزینه "رمزهای عبور ذخیره شده" به طور پیش فرض علامت زده شد و کاربر تیک آن را بردارید زیرا تصور می کرد این عمل فقط رمزهای عبور را از حافظه پنهان دستگاه پاک می کند. در عوض، بدون نیاز به گذرواژه یا اسکن بیومتریک کاربر برای احراز هویت، این اقدام همه گذرواژه‌های او را از Google Password Managerحذف کرد.

 

پاک کردن خزانه از داخل یک مرورگر بهترین برداشت برای امنیت رمز عبور نیست. گوگل قصد دارد این فرآیند را اصلاح کند و کلید "گذرواژه های ذخیره شده" را به طور کلی حذف کند، بنابراین رمزهای عبور را نمی توان از Google Password Managerاز داخل مرورگر حذف کرد. به گفته یکی از توسعه دهندگان Chromium، قبل از اینکه این شرکت تغییراتی را ایجاد کند، گوگل کمی کار می کند.

 

همانطور که سال‌ها توصیه شده، بهترین رویکرد این است که به مرورگر خود اجازه ندهید رمزهای عبور را ذخیره کند و در عوض از یک مدیر رمز عبور کامل، مانند مورد علاقه من Bitwardenاستفاده کنید. نکته خوب در مورد Bitwardenاین است که می توان آن را به راحتی با سایر برنامه ها ادغام کرد، بنابراین دسترسی به رمزهای عبور شما نسبتاً ساده است. Bitwardenهمچنین امن تر است، با این امتیاز که با پاک کردن کش مرورگر وب خود ناخواسته همه رمزهای عبور خود را حذف نمی کنید.

 

منبع

زدنت