‫ در میان علاقه رو به رشد هوش مصنوعی، شفافیت به شدت کم است

وادار کردن شرکت‌ها برای باز کردن نحوه آموزش مدل‌های هوش مصنوعی پایه خود یک چالش است.

 

هنوز شفافیت در مورد نحوه آموزش مدل‌های پایه وجود ندارد و این شکاف می‌تواند منجر به افزایش تنش با کاربران شود زیرا سازمان‌های بیشتری به دنبال پذیرش هوش مصنوعی (AI) هستند.

 

در آسیا-اقیانوسیه، به استثنای چین، IDCپیش‌بینی می‌کند که هزینه‌های مربوط به هوش مصنوعی 28.9 درصد از 25.5 میلیارد دلار در سال 2022 به 90.7 میلیارد دلار تا سال 2027 خواهد رسید. شرکت تحقیقاتی تخمین می‌زند که 81 درصد از این هزینه‌ها به سمت برنامه‌های کاربردی هوش مصنوعی پیش‌بینی‌کننده و تفسیری هدایت می‌شود.

 

کریس مارشال، معاون IDCآسیا و اقیانوسیه، معتقد است، در حالی که تبلیغات زیادی در مورد هوش مصنوعی مولد وجود دارد، این بخش هوش مصنوعی تنها 19 درصد از هزینه های هوش مصنوعی منطقه را تشکیل می دهد. مارشال در نشست هوش مصنوعی اینتل که این هفته در سنگاپور برگزار شد، گفت: این تحقیق بازاری را نشان می دهد که به رویکرد گسترده تری برای هوش مصنوعی نیاز دارد که فراتر از هوش مصنوعی مولد است.

 

IDCخاطرنشان کرد، با این حال، 84 درصد از سازمان‌های آسیا و اقیانوسیه بر این باورند که بهره‌برداری از مدل‌های مولد هوش مصنوعی مزیت رقابتی قابل‌توجهی برای کسب‌وکار آن‌ها ارائه می‌کند. این شرکت تحقیقاتی افزود: این شرکت‌ها امیدوارند به دستاوردهایی در کارایی عملیاتی و بهره‌وری کارکنان، بهبود رضایت مشتری و توسعه مدل‌های تجاری جدید دست یابند.

 

IDCهمچنین انتظار دارد که اکثر سازمان‌های منطقه در سال 2024 هزینه‌های ITلبه‌ای را افزایش دهند و پیش‌بینی می‌شود که 75 درصد از داده‌های سازمانی تا سال 2025 خارج از مراکز داده سنتی و ابر تولید و پردازش شوند.

 

الکسیس کراول، مدیر ارشد فناوری اینتل در آسیا و اقیانوسیه ژاپن، در بیانیه‌ای گفت: «برای اینکه هوش مصنوعی را به همه جا برساند، فناوری‌های مورد استفاده باید دسترسی، انعطاف‌پذیری و شفافیت را برای افراد، صنایع و جامعه به طور کلی فراهم کنند.» "از آنجایی که شاهد رشد فزاینده سرمایه گذاری های هوش مصنوعی هستیم، چند سال آینده برای بازارها حیاتی خواهد بود تا پایه بلوغ هوش مصنوعی خود را به شیوه ای مسئولانه و متفکرانه بسازند."

 

بازیگران صنعت و دولت ها اغلب اهمیت ایجاد اعتماد و شفافیت در هوش مصنوعی را مطرح کرده اند و مصرف کنندگان بدانند سیستم های هوش مصنوعی "عادلانه، قابل توضیح و ایمن" هستند. هنگامی که ZDNETپرسید که آیا در حال حاضر شفافیت کافی در مورد نحوه آموزش مدل های زبان بزرگ (LLM) و مدل های پایه وجود دارد، کراول گفت: "نه، کافی نیست."

 

او به مطالعه محققان دانشگاه استنفورد، MITو پرینستون اشاره کرد که شفافیت 10 مدل پایه اصلی را ارزیابی کردند که در آن پلتفرم با امتیاز برتر تنها امتیاز 54 درصد را کسب کرد. او در جریان یک نشست خبری در این نشست گفت: «این یک علامت شکست است.

 

بر اساس این مطالعه که مدل‌ها را بر اساس 100 شاخص، از جمله فرآیندهای درگیر در ساخت مدل، مانند اطلاعات در مورد داده‌های آموزشی، معماری و ریسک‌های مدل، و سیاست‌های حاکم بر آن، ارزیابی کرد، میانگین امتیاز فقط 37 درصد بود. استفاده کنید. بالاترین امتیاز با 54% Llama 2از Metaبود و بعد از آن Bloomzاز BigScienceبا 53% و GPT-4 OpenAIبا 48% قرار گرفتند.

 

محققان خاطرنشان کردند: «هیچ توسعه‌دهنده اصلی مدل پایه به ارائه شفافیت کافی نزدیک نیست، که نشان دهنده عدم شفافیت اساسی در صنعت هوش مصنوعی است.

 

شفافیت لازم است

کراول ابراز امیدواری کرد که این وضعیت ممکن است با در دسترس بودن معیارها و سازمان هایی که بر پیشرفت‌های هوش مصنوعی نظارت می‌کنند، تغییر کند. او افزود که دعواهایی مانند آنچه نیویورک تایمز علیه OpenAIو مایکروسافت مطرح کرده است، می‌تواند به شفافیت بیشتر حقوقی کمک کند.

 

او خاطرنشان کرد که باید چارچوب‌های حاکمیتی مشابه قوانین مدیریت داده، از جمله GDPR(مقررات عمومی حفاظت از داده‌ها) اروپا وجود داشته باشد، بنابراین کاربران بدانند داده‌هایشان چگونه استفاده می‌شود. او گفت که کسب‌وکارها باید بر اساس نحوه جمع‌آوری داده‌هایشان و اینکه کجا می‌رود، تصمیمات خرید بگیرند و افزود که افزایش تنش از سوی کاربرانی که خواستار شفافیت بیشتر هستند ممکن است به اقدامات صنعت دامن بزند.

 

طبق نظرسنجی اخیر Salesforceکه از حدود 6000 کارمند دانش در سراسر ایالات متحده، بریتانیا، ایرلند، استرالیا، فرانسه، آلمان، هند، سنگاپور نظرسنجی کرد، 54 درصد از کاربران هوش مصنوعی به داده‌های مورد استفاده برای آموزش سیستم‌های هوش مصنوعی اعتماد ندارند. ، و سوئیس.

 

کرال با استناد به گزارش تحقیقاتی که توسط گروه مشاوره بوستون رهبری می‌شود، گفت: برخلاف تصور رایج، دقت نباید به قیمت شفافیت تمام شود. این گزارش نحوه عملکرد مدل‌های هوش مصنوعی جعبه سیاه و سفید را بر روی تقریباً 100 مجموعه داده طبقه‌بندی معیار، از جمله قیمت‌گذاری، تشخیص پزشکی، پیش‌بینی ورشکستگی و رفتار خرید بررسی می‌کند. برای تقریباً 70 درصد از مجموعه داده‌ها، مدل‌های جعبه سیاه و جعبه سفید نتایج دقیق مشابهی تولید کردند.

 

در این گزارش آمده است: «به عبارت دیگر، بیشتر اوقات، هیچ معاوضی بین دقت و قابلیت توضیح وجود نداشت. یک مدل قابل توضیح تر می تواند بدون کاهش دقت استفاده شود.

 

مارشال گفت، با این حال، کسب شفافیت کامل همچنان چالش برانگیز است. او خاطرنشان کرد که بحث‌ها در مورد توضیح‌پذیری هوش مصنوعی زمانی پرجنب‌وجوش بود، اما از آن زمان به پایان رسید، زیرا پرداختن به آن مشکلی است.

 

به گفته لارنس لیو، مدیر نوآوری هوش مصنوعی برای هوش مصنوعی سنگاپور (AISG)، سازمان‌هایی که پشت مدل‌های بنیادی اصلی هستند، ممکن است به دلیل نگرانی در مورد شکایت شدن، تمایلی به ارائه اطلاعات آموزشی خود نداشته باشند. او افزود که انتخابی بودن در مورد داده های آموزشی می تواند بر میزان دقت هوش مصنوعی نیز تأثیر بگذارد. لیو توضیح داد که AISGبه دلیل مشکلات احتمالی در استفاده از همه مجموعه‌های در دسترس عموم با ابتکار LLMخود، SEA-LION(زبان‌های آسیای جنوب شرقی در یک شبکه) استفاده نکرد.

 

او گفت که در نتیجه، معماری منبع باز به اندازه برخی از LLMهای اصلی موجود در بازار امروز دقیق نیست. او خاطرنشان کرد: «این یک تعادل خوب است»، و افزود که دستیابی به میزان دقت بالا به معنای اتخاذ یک رویکرد باز برای استفاده از هر داده در دسترس است. او گفت که انتخاب مسیر "اخلاقی" و دست ندادن به مجموعه داده های خاص به معنای نرخ دقت کمتری نسبت به مواردی است که توسط بازیگران تجاری به دست می آید.

 

لیو گفت، در حالی که سنگاپور یک نوار اخلاقی بالا را با SEA-LIONانتخاب کرده است، هنوز اغلب توسط کاربرانی که خواستار بهره برداری از مجموعه داده های بیشتری برای بهبود دقت LLMهستند، به چالش کشیده می شود.

 

گروهی از نویسندگان و ناشران در سنگاپور ماه گذشته نگرانی خود را در مورد احتمال استفاده از آثارشان برای آموزش SEA-LIONابراز کردند. از جمله گلایه های آنها عدم تعهد آشکار به «پرداخت غرامت عادلانه» برای استفاده از نوشته هایشان است. آنها همچنین به نیاز به وضوح و تصدیق صریح اشاره کردند که قوانین مالکیت معنوی و حق چاپ کشور و ترتیبات قراردادی موجود در ایجاد و آموزش LLMها مورد حمایت قرار خواهند گرفت.

 

شفاف بودن در مورد منبع باز

به گفته مت هیکس، مدیرعامل Red Hat، چنین شناختی باید به چارچوب‌های منبع باز نیز گسترش یابد که برنامه‌های هوش مصنوعی ممکن است بر اساس آن توسعه داده شوند.

 

هیکس طی یک جلسه توجیهی رسانه مجازی این هفته در پشت اجلاس Red Hat 2024گفت که مدل ها با حجم زیادی از داده های ارائه شده توسط افراد دارای حق چاپ آموزش داده می شوند و استفاده مسئولانه از این سیستم های هوش مصنوعی به معنای پایبندی به مجوزهایی است که استفاده می‌کنند.

 

این برای مدل‌های منبع باز که ممکن است انواع مجوزهای متفاوتی داشته باشند، از جمله مجوزهای کپی‌لفت مانند GPLو مجوزهای مجاز مانند Apache، مناسب است.

 

او بر اهمیت شفافیت و مسئولیت درک مدل های داده و مدیریت خروجی های تولید شده توسط مدل ها تاکید کرد. هم برای ایمنی و هم امنیت معماری های هوش مصنوعی، لازم است اطمینان حاصل شود که مدل ها در برابر سوء استفاده های مخرب محافظت می شوند.

 

Red Hatبه دنبال کمک به مشتریان خود در چنین تلاش هایی از طریق مجموعه ای از ابزارها، از جمله Red Hat Enterprise Linux AI (RHEL AI) است که در اجلاس از آن رونمایی کرد. این محصول شامل چهار جزء، از جمله زبان Open Graniteو مدل‌های کد از جامعه InstructLabاست که توسط Red Hatپشتیبانی و جبران می‌شود.

 

به گفته فروشنده منبع باز، این رویکرد به چالش هایی که سازمان ها اغلب در استقرار هوش مصنوعی با آن مواجه هستند، از جمله مدیریت چرخه عمر برنامه و مدل می پردازد.

 

Red Hatگفت: "[RHEL AI] یک پلت فرم مدل پایه برای آوردن مدل های GenAIدارای مجوز منبع باز به شرکت ایجاد می کند." هدف Red Hatبا ابزارهای تراز InstructLab، مدل‌های گرانیتی و هوش مصنوعی RHEL، استفاده از مزایای پروژه‌های منبع باز واقعی - آزادانه و قابل استفاده مجدد، شفاف و باز برای مشارکت - برای GenAIدر تلاش برای رفع این موانع است. "

 

منبع

زدنت