IBM این کار را با استفاده از دادههای پیشآموزشی از مجموعه دادههای در دسترس عموم، مانندGitHub Code Clean، دادههایStarcoder، مخازن کد عمومی و مشکلاتGitHub انجام داده است. IBM تمام تلاش خود را کرده تا از مشکلات احتمالی کپی رایت یا حقوقی جلوگیری کند.
منبع باز و هوش مصنوعی رابطه ناآرامی دارند. هوش مصنوعی بدون منبع باز نمیتواند وجود داشته باشد، اما تعداد کمی از شرکتها میخواهند برنامههای هوش مصنوعی خود یا مدلهای زبان بزرگ(LLM) را منبع باز کنند. به استثنایIBM که قبلاً مدلهای گرانیتی خود را منبع باز میکرد. اکنون، Big Blue با انتشار آخرین مدلهایGranite AI 3.0 تحت مجوزApache 2.0، هوش مصنوعی منبع باز خود را دو برابر میکند.
چرا سایر شرکتهای بزرگ هوش مصنوعی این کار را انجام ندادهاند؟ یک دلیل بزرگ این است که مجموعه دادههای آنها مملو از دادههای دارای حق چاپ یا سایر دادههای حفاظت شده از مالکیت معنوی است. اگر آنها دادههای خود را باز کنند، خود را نیز به شکایت باز میکنند. به عنوان مثال، نشریاتNews Corp مانند وال استریت ژورنال و نیویورک پست ازPerplexity به دلیل سرقت محتوای آنها شکایت میکنند.
در مقابل، مدلهای گرانیت، LLMهایی هستند که بهطور خاص برای موارد استفاده تجاری طراحی شدهاند و تأکید زیادی بر برنامهنویسی و توسعه نرمافزار دارند. آیبیام ادعا میکند که این مدلهای جدید با سه برابر دادههایی که در اوایل سال جاری عرضه شدند، آموزش داده شدهاند. آنها همچنین دارای انعطافپذیری بیشتر در مدلسازی و پشتیبانی از متغیرهای خارجی و پیشبینیهای متحرک هستند.
به طور خاص، مدلهای زبان جدیدGranite 3.0 8B و 2B بهعنوان مدلهای «اسب کار» برای هوش مصنوعی سازمانی طراحی شدهاند که عملکرد قوی را برای کارهایی مانندRetrieval Augmented Generation (RAG)، طبقهبندی، خلاصهسازی، استخراج موجودیت و استفاده از ابزار ارائه میکنند.
این مدلها در انواعInstruct وGuardian نیز عرضه میشوند. همانطور که از نام آن قول میدهد، به افراد کمک میکند تا یک زبان خاص را یاد بگیرند. Guardian برای شناسایی خطرات در درخواستهای کاربر و پاسخهای هوش مصنوعی طراحی شده است. این امر حیاتی است، زیرا همانطور که بروس شیندلر، کارشناس امنیتی در کنفرانسSecure-Source Software (SOSS) Fusion اشاره کرد، "تزریق [حملات] سریع کار میکند زیرا من دادههای هوش مصنوعی را ارسال میکنم که آن را به عنوان دستور تفسیر میکند" که میتواند منجر شود به پاسخهای فاجعه آمیز.
مدلهای کد گرانیتی از 3 تا 34 میلیارد پارامتر متغیر هستند و بر روی 116 زبان برنامهنویسی و 3 تا 4 ترابایت توکن آموزش دیدهاند که دادههای کد گسترده و مجموعه دادههای زبان طبیعی را ترکیب میکنند. این مدلها از طریق چندین پلتفرم از جملهHugging Face، GitHub، Watsonx.ai متعلق بهIBM و هوش مصنوعیRed Hat Enterprise Linux (RHEL) قابل دسترسی هستند. مجموعهای از مدلهایGranite 3.0 نیز درOlama وReplicate موجود است.
علاوه بر این، IBM نسخه جدیدی ازWatsonx Code Assistant خود را برای توسعه اپلیکیشن منتشر کرده است. در آنجا، Granite کمک برنامهنویسی همهمنظوره را در زبانهایی مانندC، C++، Go، Java وPython با قابلیتهای پیشرفته مدرنسازی اپلیکیشن برای برنامههای جاوای سازمانی ارائه میکند. قابلیتهای کد گرانیت اکنون از طریق پسوندVisual Studio Code، IBM Granite.Code قابل دسترسی است.
مجوز آپاچی 2.0 امکان استفاده تحقیقاتی و تجاری را نیز فراهم میکند، که در مقایسه با سایرLLMهای اصلی، که ممکن است ادعا کنند منبع باز هستند اماLLM های خود را با محدودیتهای تجاری مرتبط می کنند، مزیت قابل توجهی است. بارزترین مثال از آن لاما متا است.
با در دسترس قرار دادن این مدلها، IBM موانع ورود برای توسعه و استفاده از هوش مصنوعی را کاهش میدهد. IBM همچنین با دلیل بر این باور است که از آنجایی که آنها واقعاً منبع باز هستند، توسعه دهندگان و محققان میتوانند به سرعت مدلها را ساخته و بهبود بخشند.
IBM همچنین ادعا میکند که این مدلها میتوانند عملکردی قابل مقایسه با مدلهای بسیار بزرگتر و بسیار گرانتر ارائه دهند.
منبع