وادار کردن شرکتها برای باز کردن نحوه آموزش مدلهای هوش مصنوعی پایه خود یک چالش است.
هنوز شفافیت در مورد نحوه آموزش مدلهای پایه وجود ندارد و این شکاف میتواند منجر به افزایش تنش با کاربران شود زیرا سازمانهای بیشتری به دنبال پذیرش هوش مصنوعی (AI) هستند.
در آسیا-اقیانوسیه، به استثنای چین، IDCپیشبینی میکند که هزینههای مربوط به هوش مصنوعی 28.9 درصد از 25.5 میلیارد دلار در سال 2022 به 90.7 میلیارد دلار تا سال 2027 خواهد رسید. شرکت تحقیقاتی تخمین میزند که 81 درصد از این هزینهها به سمت برنامههای کاربردی هوش مصنوعی پیشبینیکننده و تفسیری هدایت میشود.
کریس مارشال، معاون IDCآسیا و اقیانوسیه، معتقد است، در حالی که تبلیغات زیادی در مورد هوش مصنوعی مولد وجود دارد، این بخش هوش مصنوعی تنها 19 درصد از هزینه های هوش مصنوعی منطقه را تشکیل می دهد. مارشال در نشست هوش مصنوعی اینتل که این هفته در سنگاپور برگزار شد، گفت: این تحقیق بازاری را نشان می دهد که به رویکرد گسترده تری برای هوش مصنوعی نیاز دارد که فراتر از هوش مصنوعی مولد است.
IDCخاطرنشان کرد، با این حال، 84 درصد از سازمانهای آسیا و اقیانوسیه بر این باورند که بهرهبرداری از مدلهای مولد هوش مصنوعی مزیت رقابتی قابلتوجهی برای کسبوکار آنها ارائه میکند. این شرکت تحقیقاتی افزود: این شرکتها امیدوارند به دستاوردهایی در کارایی عملیاتی و بهرهوری کارکنان، بهبود رضایت مشتری و توسعه مدلهای تجاری جدید دست یابند.
IDCهمچنین انتظار دارد که اکثر سازمانهای منطقه در سال 2024 هزینههای ITلبهای را افزایش دهند و پیشبینی میشود که 75 درصد از دادههای سازمانی تا سال 2025 خارج از مراکز داده سنتی و ابر تولید و پردازش شوند.
الکسیس کراول، مدیر ارشد فناوری اینتل در آسیا و اقیانوسیه ژاپن، در بیانیهای گفت: «برای اینکه هوش مصنوعی را به همه جا برساند، فناوریهای مورد استفاده باید دسترسی، انعطافپذیری و شفافیت را برای افراد، صنایع و جامعه به طور کلی فراهم کنند.» "از آنجایی که شاهد رشد فزاینده سرمایه گذاری های هوش مصنوعی هستیم، چند سال آینده برای بازارها حیاتی خواهد بود تا پایه بلوغ هوش مصنوعی خود را به شیوه ای مسئولانه و متفکرانه بسازند."
بازیگران صنعت و دولت ها اغلب اهمیت ایجاد اعتماد و شفافیت در هوش مصنوعی را مطرح کرده اند و مصرف کنندگان بدانند سیستم های هوش مصنوعی "عادلانه، قابل توضیح و ایمن" هستند. هنگامی که ZDNETپرسید که آیا در حال حاضر شفافیت کافی در مورد نحوه آموزش مدل های زبان بزرگ (LLM) و مدل های پایه وجود دارد، کراول گفت: "نه، کافی نیست."
او به مطالعه محققان دانشگاه استنفورد، MITو پرینستون اشاره کرد که شفافیت 10 مدل پایه اصلی را ارزیابی کردند که در آن پلتفرم با امتیاز برتر تنها امتیاز 54 درصد را کسب کرد. او در جریان یک نشست خبری در این نشست گفت: «این یک علامت شکست است.
بر اساس این مطالعه که مدلها را بر اساس 100 شاخص، از جمله فرآیندهای درگیر در ساخت مدل، مانند اطلاعات در مورد دادههای آموزشی، معماری و ریسکهای مدل، و سیاستهای حاکم بر آن، ارزیابی کرد، میانگین امتیاز فقط 37 درصد بود. استفاده کنید. بالاترین امتیاز با 54% Llama 2از Metaبود و بعد از آن Bloomzاز BigScienceبا 53% و GPT-4 OpenAIبا 48% قرار گرفتند.
محققان خاطرنشان کردند: «هیچ توسعهدهنده اصلی مدل پایه به ارائه شفافیت کافی نزدیک نیست، که نشان دهنده عدم شفافیت اساسی در صنعت هوش مصنوعی است.
شفافیت لازم است
کراول ابراز امیدواری کرد که این وضعیت ممکن است با در دسترس بودن معیارها و سازمان هایی که بر پیشرفتهای هوش مصنوعی نظارت میکنند، تغییر کند. او افزود که دعواهایی مانند آنچه نیویورک تایمز علیه OpenAIو مایکروسافت مطرح کرده است، میتواند به شفافیت بیشتر حقوقی کمک کند.
او خاطرنشان کرد که باید چارچوبهای حاکمیتی مشابه قوانین مدیریت داده، از جمله GDPR(مقررات عمومی حفاظت از دادهها) اروپا وجود داشته باشد، بنابراین کاربران بدانند دادههایشان چگونه استفاده میشود. او گفت که کسبوکارها باید بر اساس نحوه جمعآوری دادههایشان و اینکه کجا میرود، تصمیمات خرید بگیرند و افزود که افزایش تنش از سوی کاربرانی که خواستار شفافیت بیشتر هستند ممکن است به اقدامات صنعت دامن بزند.
طبق نظرسنجی اخیر Salesforceکه از حدود 6000 کارمند دانش در سراسر ایالات متحده، بریتانیا، ایرلند، استرالیا، فرانسه، آلمان، هند، سنگاپور نظرسنجی کرد، 54 درصد از کاربران هوش مصنوعی به دادههای مورد استفاده برای آموزش سیستمهای هوش مصنوعی اعتماد ندارند. ، و سوئیس.
کرال با استناد به گزارش تحقیقاتی که توسط گروه مشاوره بوستون رهبری میشود، گفت: برخلاف تصور رایج، دقت نباید به قیمت شفافیت تمام شود. این گزارش نحوه عملکرد مدلهای هوش مصنوعی جعبه سیاه و سفید را بر روی تقریباً 100 مجموعه داده طبقهبندی معیار، از جمله قیمتگذاری، تشخیص پزشکی، پیشبینی ورشکستگی و رفتار خرید بررسی میکند. برای تقریباً 70 درصد از مجموعه دادهها، مدلهای جعبه سیاه و جعبه سفید نتایج دقیق مشابهی تولید کردند.
در این گزارش آمده است: «به عبارت دیگر، بیشتر اوقات، هیچ معاوضی بین دقت و قابلیت توضیح وجود نداشت. یک مدل قابل توضیح تر می تواند بدون کاهش دقت استفاده شود.
مارشال گفت، با این حال، کسب شفافیت کامل همچنان چالش برانگیز است. او خاطرنشان کرد که بحثها در مورد توضیحپذیری هوش مصنوعی زمانی پرجنبوجوش بود، اما از آن زمان به پایان رسید، زیرا پرداختن به آن مشکلی است.
به گفته لارنس لیو، مدیر نوآوری هوش مصنوعی برای هوش مصنوعی سنگاپور (AISG)، سازمانهایی که پشت مدلهای بنیادی اصلی هستند، ممکن است به دلیل نگرانی در مورد شکایت شدن، تمایلی به ارائه اطلاعات آموزشی خود نداشته باشند. او افزود که انتخابی بودن در مورد داده های آموزشی می تواند بر میزان دقت هوش مصنوعی نیز تأثیر بگذارد. لیو توضیح داد که AISGبه دلیل مشکلات احتمالی در استفاده از همه مجموعههای در دسترس عموم با ابتکار LLMخود، SEA-LION(زبانهای آسیای جنوب شرقی در یک شبکه) استفاده نکرد.
او گفت که در نتیجه، معماری منبع باز به اندازه برخی از LLMهای اصلی موجود در بازار امروز دقیق نیست. او خاطرنشان کرد: «این یک تعادل خوب است»، و افزود که دستیابی به میزان دقت بالا به معنای اتخاذ یک رویکرد باز برای استفاده از هر داده در دسترس است. او گفت که انتخاب مسیر "اخلاقی" و دست ندادن به مجموعه داده های خاص به معنای نرخ دقت کمتری نسبت به مواردی است که توسط بازیگران تجاری به دست می آید.
لیو گفت، در حالی که سنگاپور یک نوار اخلاقی بالا را با SEA-LIONانتخاب کرده است، هنوز اغلب توسط کاربرانی که خواستار بهره برداری از مجموعه داده های بیشتری برای بهبود دقت LLMهستند، به چالش کشیده می شود.
گروهی از نویسندگان و ناشران در سنگاپور ماه گذشته نگرانی خود را در مورد احتمال استفاده از آثارشان برای آموزش SEA-LIONابراز کردند. از جمله گلایه های آنها عدم تعهد آشکار به «پرداخت غرامت عادلانه» برای استفاده از نوشته هایشان است. آنها همچنین به نیاز به وضوح و تصدیق صریح اشاره کردند که قوانین مالکیت معنوی و حق چاپ کشور و ترتیبات قراردادی موجود در ایجاد و آموزش LLMها مورد حمایت قرار خواهند گرفت.
شفاف بودن در مورد منبع باز
به گفته مت هیکس، مدیرعامل Red Hat، چنین شناختی باید به چارچوبهای منبع باز نیز گسترش یابد که برنامههای هوش مصنوعی ممکن است بر اساس آن توسعه داده شوند.
هیکس طی یک جلسه توجیهی رسانه مجازی این هفته در پشت اجلاس Red Hat 2024گفت که مدل ها با حجم زیادی از داده های ارائه شده توسط افراد دارای حق چاپ آموزش داده می شوند و استفاده مسئولانه از این سیستم های هوش مصنوعی به معنای پایبندی به مجوزهایی است که استفاده میکنند.
این برای مدلهای منبع باز که ممکن است انواع مجوزهای متفاوتی داشته باشند، از جمله مجوزهای کپیلفت مانند GPLو مجوزهای مجاز مانند Apache، مناسب است.
او بر اهمیت شفافیت و مسئولیت درک مدل های داده و مدیریت خروجی های تولید شده توسط مدل ها تاکید کرد. هم برای ایمنی و هم امنیت معماری های هوش مصنوعی، لازم است اطمینان حاصل شود که مدل ها در برابر سوء استفاده های مخرب محافظت می شوند.
Red Hatبه دنبال کمک به مشتریان خود در چنین تلاش هایی از طریق مجموعه ای از ابزارها، از جمله Red Hat Enterprise Linux AI (RHEL AI) است که در اجلاس از آن رونمایی کرد. این محصول شامل چهار جزء، از جمله زبان Open Graniteو مدلهای کد از جامعه InstructLabاست که توسط Red Hatپشتیبانی و جبران میشود.
به گفته فروشنده منبع باز، این رویکرد به چالش هایی که سازمان ها اغلب در استقرار هوش مصنوعی با آن مواجه هستند، از جمله مدیریت چرخه عمر برنامه و مدل می پردازد.
Red Hatگفت: "[RHEL AI] یک پلت فرم مدل پایه برای آوردن مدل های GenAIدارای مجوز منبع باز به شرکت ایجاد می کند." هدف Red Hatبا ابزارهای تراز InstructLab، مدلهای گرانیتی و هوش مصنوعی RHEL، استفاده از مزایای پروژههای منبع باز واقعی - آزادانه و قابل استفاده مجدد، شفاف و باز برای مشارکت - برای GenAIدر تلاش برای رفع این موانع است. "
منبع
زدنت