وادار کردن شرکتها برای باز کردن نحوه آموزش مدلهای هوش مصنوعی پایه خود یک چالش است.
هنوز شفافیت در مورد نحوه آموزش مدلهای پایه وجود ندارد و این شکاف میتواند منجر به افزایش تنش با کاربران شود زیرا سازمانهای بیشتری به دنبال پذیرش هوش مصنوعی (AI) هستند.
در آسیا-اقیانوسیه، به استثنای چین، IDCپیشبینی میکند که هزینههای مربوط به هوش مصنوعی 28.9 درصد از 25.5 میلیارد دلار در سال 2022 به 90.7 میلیارد دلار تا سال 2027 خواهد رسید. شرکت تحقیقاتی تخمین میزند که 81 درصد از این هزینهها به سمت برنامههای کاربردی هوش مصنوعی پیشبینیکننده و تفسیری هدایت میشود.
کریس مارشال، معاون IDCآسیا و اقیانوسیه، معتقد است، در حالی که تبلیغات زیادی در مورد هوش مصنوعی مولد وجود دارد، این بخش هوش مصنوعی تنها 19 درصد از هزینه های هوش مصنوعی منطقه را تشکیل می دهد. مارشال در نشست هوش مصنوعی اینتل که این هفته در سنگاپور برگزار شد، گفت: این تحقیق بازاری را نشان می دهد که به رویکرد گسترده تری برای هوش مصنوعی نیاز دارد که فراتر از هوش مصنوعی مولد است.
IDCخاطرنشان کرد، با این حال، 84 درصد از سازمانهای آسیا و اقیانوسیه بر این باورند که بهرهبرداری از مدلهای مولد هوش مصنوعی مزیت رقابتی قابلتوجهی برای کسبوکار آنها ارائه میکند. این شرکت تحقیقاتی افزود: این شرکتها امیدوارند به دستاوردهایی در کارایی عملیاتی و بهرهوری کارکنان، بهبود رضایت مشتری و توسعه مدلهای تجاری جدید دست یابند.
IDCهمچنین انتظار دارد که اکثر سازمانهای منطقه در سال 2024 هزینههای ITلبهای را افزایش دهند و پیشبینی میشود که 75 درصد از دادههای سازمانی تا سال 2025 خارج از مراکز داده سنتی و ابر تولید و پردازش شوند.
الکسیس کراول، مدیر ارشد فناوری اینتل در آسیا و اقیانوسیه ژاپن، در بیانیهای گفت: «برای اینکه هوش مصنوعی را به همه جا برساند، فناوریهای مورد استفاده باید دسترسی، انعطافپذیری و شفافیت را برای افراد، صنایع و جامعه به طور کلی فراهم کنند.» "از آنجایی که شاهد رشد فزاینده سرمایه گذاری های هوش مصنوعی هستیم، چند سال آینده برای بازارها حیاتی خواهد بود تا پایه بلوغ هوش مصنوعی خود را به شیوه ای مسئولانه و متفکرانه بسازند."
بازیگران صنعت و دولت ها اغلب اهمیت ایجاد اعتماد و شفافیت در هوش مصنوعی را مطرح کرده اند و مصرف کنندگان بدانند سیستم های هوش مصنوعی "عادلانه، قابل توضیح و ایمن" هستند. هنگامی که ZDNETپرسید که آیا در حال حاضر شفافیت کافی در مورد نحوه آموزش مدل های زبان بزرگ (LLM) و مدل های پایه وجود دارد، کراول گفت: "نه، کافی نیست."
او به مطالعه محققان دانشگاه استنفورد، MITو پرینستون اشاره کرد که شفافیت 10 مدل پایه اصلی را ارزیابی کردند که در آن پلتفرم با امتیاز برتر تنها امتیاز 54 درصد را کسب کرد. او در جریان یک نشست خبری در این نشست گفت: «این یک علامت شکست است.
بر اساس این مطالعه که مدلها را بر اساس 100 شاخص، از جمله فرآیندهای درگیر در ساخت مدل، مانند اطلاعات در مورد دادههای آموزشی، معماری و ریسکهای مدل، و سیاستهای حاکم بر آن، ارزیابی کرد، میانگین امتیاز فقط 37 درصد بود. استفاده کنید. بالاترین امتیاز با 54% Llama 2از Metaبود و بعد از آن Bloomzاز BigScienceبا 53% و GPT-4 OpenAIبا 48% قرار گرفتند.
محققان خاطرنشان کردند: «هیچ توسعهدهنده اصلی مدل پایه به ارائه شفافیت کافی نزدیک نیست، که نشان دهنده عدم شفافیت اساسی در صنعت هوش مصنوعی است.
شفافیت لازم است
کراول ابراز امیدواری کرد که این وضعیت ممکن است با در دسترس بودن معیارها و سازمان هایی که بر پیشرفتهای هوش مصنوعی نظارت میکنند، تغییر کند. او افزود که دعواهایی مانند آنچه نیویورک تایمز علیه OpenAIو مایکروسافت مطرح کرده است، میتواند به شفافیت بیشتر حقوقی کمک کند.
او خاطرنشان کرد که باید چارچوبهای حاکمیتی مشابه قوانین مدیریت داده، از جمله GDPR(مقررات عمومی حفاظت از دادهها) اروپا وجود داشته باشد، بنابراین کاربران بدانند دادههایشان چگونه استفاده میشود. او گفت که کسبوکارها باید بر اساس نحوه جمعآوری دادههایشان و اینکه کجا میرود، تصمیمات خرید بگیرند و افزود که افزایش تنش از سوی کاربرانی که خواستار شفافیت بیشتر هستند ممکن است به اقدامات صنعت دامن بزند.
طبق نظرسنجی اخیر Salesforceکه از حدود 6000 کارمند دانش در سراسر ایالات متحده، بریتانیا، ایرلند، استرالیا، فرانسه، آلمان، هند، سنگاپور نظرسنجی کرد، 54 درصد از کاربران هوش مصنوعی به دادههای مورد استفاده برای آموزش سیستمهای هوش مصنوعی اعتماد ندارند. ، و سوئیس.
کرال با استناد به گزارش تحقیقاتی که توسط گروه مشاوره بوستون رهبری میشود، گفت: برخلاف تصور رایج، دقت نباید به قیمت شفافیت تمام شود. این گزارش نحوه عملکرد مدلهای هوش مصنوعی جعبه سیاه و سفید را بر روی تقریباً 100 مجموعه داده طبقهبندی معیار، از جمله قیمتگذاری، تشخیص پزشکی، پیشبینی ورشکستگی و رفتار خرید بررسی میکند. برای تقریباً 70 درصد از مجموعه دادهها، مدلهای جعبه سیاه و جعبه سفید نتایج دقیق مشابهی تولید کردند.
در این گزارش آمده است: «به عبارت دیگر، بیشتر اوقات، هیچ معاوضی بین دقت و قابلیت توضیح وجود نداشت. یک مدل قابل توضیح تر می تواند بدون کاهش دقت استفاده شود.
مارشال گفت، با این حال، کسب شفافیت کامل همچنان چالش برانگیز است. او خاطرنشان کرد که بحثها در مورد توضیحپذیری هوش مصنوعی زمانی پرجنبوجوش بود، اما از آن زمان به پایان رسید، زیرا پرداختن به آن مشکلی است.
به گفته لارنس لیو، مدیر نوآوری هوش مصنوعی برای هوش مصنوعی سنگاپور (AISG)، سازمانهایی که پشت مدلهای بنیادی اصلی هستند، ممکن است به دلیل نگرانی در مورد شکایت شدن، تمایلی به ارائه اطلاعات آموزشی خود نداشته باشند. او افزود که انتخابی بودن در مورد داده های آموزشی می تواند بر میزان دقت هوش مصنوعی نیز تأثیر بگذارد. لیو توضیح داد که AISGبه دلیل مشکلات احتمالی در استفاده از همه مجموعههای در دسترس عموم با ابتکار LLMخود، SEA-LION(زبانهای آسیای جنوب شرقی در یک شبکه) استفاده نکرد.
او گفت که در نتیجه، معماری منبع باز به اندازه برخی از LLMهای اصلی موجود در بازار امروز دقیق نیست. او خاطرنشان کرد: «این یک تعادل خوب است»، و افزود که دستیابی به میزان دقت بالا به معنای اتخاذ یک رویکرد باز برای استفاده از هر داده در دسترس است. او گفت که انتخاب مسیر "اخلاقی" و دست ندادن به مجموعه داده های خاص به معنای نرخ دقت کمتری نسبت به مواردی است که توسط بازیگران تجاری به دست می آید.
لیو گفت، در حالی که سنگاپور یک نوار اخلاقی بالا را با SEA-LIONانتخاب کرده است، هنوز اغلب توسط کاربرانی که خواستار بهره برداری از مجموعه داده های بیشتری برای بهبود دقت LLMهستند، به چالش کشیده می شود.
گروهی از نویسندگان و ناشران در سنگاپور ماه گذشته نگرانی خود را در مورد احتمال استفاده از آثارشان برای آموزش SEA-LIONابراز کردند. از جمله گلایه های آنها عدم تعهد آشکار به «پرداخت غرامت عادلانه» برای استفاده از نوشته هایشان است. آنها همچنین به نیاز به وضوح و تصدیق صریح اشاره کردند که قوانین مالکیت معنوی و حق چاپ کشور و ترتیبات قراردادی موجود در ایجاد و آموزش LLMها مورد حمایت قرار خواهند گرفت.
شفاف بودن در مورد منبع باز
به گفته مت هیکس، مدیرعامل Red Hat، چنین شناختی باید به چارچوبهای منبع باز نیز گسترش یابد که برنامههای هوش مصنوعی ممکن است بر اساس آن توسعه داده شوند.
هیکس طی یک جلسه توجیهی رسانه مجازی این هفته در پشت اجلاس Red Hat 2024گفت که مدل ها با حجم زیادی از داده های ارائه شده توسط افراد دارای حق چاپ آموزش داده می شوند و استفاده مسئولانه از این سیستم های هوش مصنوعی به معنای پایبندی به مجوزهایی است که استفاده میکنند.
این برای مدلهای منبع باز که ممکن است انواع مجوزهای متفاوتی داشته باشند، از جمله مجوزهای کپیلفت مانند GPLو مجوزهای مجاز مانند Apache، مناسب است.
او بر اهمیت شفافیت و مسئولیت درک مدل های داده و مدیریت خروجی های تولید شده توسط مدل ها تاکید کرد. هم برای ایمنی و هم امنیت معماری های هوش مصنوعی، لازم است اطمینان حاصل شود که مدل ها در برابر سوء استفاده های مخرب محافظت می شوند.
Red Hatبه دنبال کمک به مشتریان خود در چنین تلاش هایی از طریق مجموعه ای از ابزارها، از جمله Red Hat Enterprise Linux AI (RHEL AI) است که در اجلاس از آن رونمایی کرد. این محصول شامل چهار جزء، از جمله زبان Open Graniteو مدلهای کد از جامعه InstructLabاست که توسط Red Hatپشتیبانی و جبران میشود.
به گفته فروشنده منبع باز، این رویکرد به چالش هایی که سازمان ها اغلب در استقرار هوش مصنوعی با آن مواجه هستند، از جمله مدیریت چرخه عمر برنامه و مدل می پردازد.
Red Hatگفت: "[RHEL AI] یک پلت فرم مدل پایه برای آوردن مدل های GenAIدارای مجوز منبع باز به شرکت ایجاد می کند." هدف Red Hatبا ابزارهای تراز InstructLab، مدلهای گرانیتی و هوش مصنوعی RHEL، استفاده از مزایای پروژههای منبع باز واقعی - آزادانه و قابل استفاده مجدد، شفاف و باز برای مشارکت - برای GenAIدر تلاش برای رفع این موانع است. "
منبع
زدنت
حفره امنیتی جدید کروم جاوا اسکریپت بد است، بنابراین به اصلاح سیستمهای خود بپردازید.
گوگل بهروزرسانی امنیتی مهمی را برای مرورگر وب کروم منتشر کرده است. نقص روز صفر، CVE-2024-4671، یک آسیبپذیری «بعد از استفاده رایگان» در مؤلفه Visuals Chromeاست.
ممکن است بپرسید "کامپوننت ویژوال کروم چیست؟" به طور خلاصه، این قسمت مسئول رندر و نمایش محتوا در مرورگر است. همه از یک مرورگر برای باز کردن محتوا استفاده می کنند، بنابراین همه آسیب پذیر هستند.
به طور خاص، این آسیبپذیری مهاجم را قادر میسازد تا از دسترسی خارج از محدوده حافظه سوء استفاده کند. در زبان انگلیسی، این بدان معناست که اگر به وبسایتی با یک صفحه وب مخرب بروید، میتواند رایانه شما را خراب کند. فرقی نمی کند که دستگاه شما از لینوکس، macOSیا ویندوز استفاده می کند. این حفره امنیتی مشکل ساز فرصت های برابر است.
CVE-2024-4671که توسط یک محقق ناشناس کشف شده و مستقیماً به Googleگزارش شده است دارای رتبه سیستم امتیازدهی آسیب پذیری مشترک (CVSS) 8.8است که به این معنی است که یک آسیب پذیری جدی است.
این می تواند بدتر باشد - رتبه های بالای 9.0 بسیار مهم هستند، با نام مستعار همین حالا درستش کنید - اما این به اندازه کافی بد است. یک مهاجم می تواند از این نقص برای خواندن داده ها از رایانه شما، ایجاد خرابی و حتی تصرف رایانه شخصی استفاده کند. خلاصه خبر بدی است.
چیزی که واقعاً این یکی را بدبو می کند این است که اکنون مورد سوء استفاده قرار می گیرد. توصیهنامه اشاره میکند که گوگل از وجود یک سوء استفاده برای CVE-2024-4671در طبیعت آگاه است.
برای اطمینان از محافظت از خود، با رفتن به تنظیمات > درباره Chrome، تأیید کنید که آخرین نسخه Chromeرا دارید. نسخه های محافظت شده به روز 124.0.6367.201/.202 برای مک و ویندوز و 124.0.6367.201 برای لینوکس هستند. کاربران کانال Extended Stableنسخه 124.0.6367.201 را برای مک و ویندوز در روزهای آینده دریافت خواهند کرد.
علاوه بر کروم مناسب، این حفره امنیتی در Microsoft Edgeنیز وجود دارد. با آپدیت 10 می رفع شد. اگر از Brave، Opera، Vivaldiیا هر مرورگر وب دیگری مبتنی بر Chromiumیا Chromeاستفاده میکنید، باید در اسرع وقت بهروزرسانی کنید تا ایمن باشید. برای تمام اهداف عملی، تنها مرورگر وب که این مشکل را ندارد فایرفاکس است.
یک تنظیم پیشفرض Google Chromeدر Androidمیتواند اعتبارنامههای ذخیره شده در Password Managerرا حذف کند، اما یک اصلاح احتمالی در راه است.
گوگل قصد دارد مدیریت رمز داخلی کروم برای اندروید را تغییر دهد تا اطمینان حاصل کند که رمزهای عبور به طور تصادفی حذف نمیشوند.
اگر از Google Password Managerاستفاده میکنید، ممکن است در موقعیت ناخواستهای قرار بگیرید که در آن همه رمزهای عبور ذخیره شده شما هنگام پاک کردن دادههای مرورگر حذف میشوند.
Android Policeگزارش داد که Redditor /u/harish9294از یک راه حل مدیریت رمز عبور سنتی تر تغییر کرده و Google Password Managerرا برای "تجربه یکپارچه و یکپارچه" انتخاب کرده است. متأسفانه، این سوئیچ باعث شد که کاربر پس از پاک کردن دادههای کش کروم، تمام رمزهای عبور ذخیره شده خود را از دست بدهد.
در این پست، Redditorنوشت که فکر میکردند کروم در تلفن پیکسل خود ضعیف است، بنابراین تصمیم گرفتند تاریخچه و حافظه پنهان را پاک کنند. گزینه "رمزهای عبور ذخیره شده" به طور پیش فرض علامت زده شد و کاربر تیک آن را بردارید زیرا تصور می کرد این عمل فقط رمزهای عبور را از حافظه پنهان دستگاه پاک می کند. در عوض، بدون نیاز به گذرواژه یا اسکن بیومتریک کاربر برای احراز هویت، این اقدام همه گذرواژههای او را از Google Password Managerحذف کرد.
پاک کردن خزانه از داخل یک مرورگر بهترین برداشت برای امنیت رمز عبور نیست. گوگل قصد دارد این فرآیند را اصلاح کند و کلید "گذرواژه های ذخیره شده" را به طور کلی حذف کند، بنابراین رمزهای عبور را نمی توان از Google Password Managerاز داخل مرورگر حذف کرد. به گفته یکی از توسعه دهندگان Chromium، قبل از اینکه این شرکت تغییراتی را ایجاد کند، گوگل کمی کار می کند.
همانطور که سالها توصیه شده، بهترین رویکرد این است که به مرورگر خود اجازه ندهید رمزهای عبور را ذخیره کند و در عوض از یک مدیر رمز عبور کامل، مانند مورد علاقه من Bitwardenاستفاده کنید. نکته خوب در مورد Bitwardenاین است که می توان آن را به راحتی با سایر برنامه ها ادغام کرد، بنابراین دسترسی به رمزهای عبور شما نسبتاً ساده است. Bitwardenهمچنین امن تر است، با این امتیاز که با پاک کردن کش مرورگر وب خود ناخواسته همه رمزهای عبور خود را حذف نمی کنید.
منبع
زدنت