عدم اعتماد عمومی به امنیت دادهها و حریم خصوصی سازمانها را از ورود همه جانبه به هوش مصنوعی مولد باز می دارد.
هوش مصنوعی مولد (AI) به عنوان ضروری برای سازمانها برای اطمینان از ارتباط با بازار مورد حمایت قرار میگیرد، اما برخی از آنها به دلیل نگرانیها در مورد دادهها و اعتماد، تردید دارند.
این مسائل بهویژه برای کسبوکارهایی که در بخشهایی با قوانین حاکمیت دادههای سختگیرانه و پایگاههای مشتری بزرگ فعالیت میکنند، مهم است، و آنها را مجبور میکند تا با وجود مزایای تبلیغی، برای استفاده از ابزارهای هوش مصنوعی مولد وقت بگذارند.
به عنوان مثال، سرور فاروک، رئیس عملیات توسعه در Jollibee Foods Corporationگفت، توانایی تولید گزارشهای فروش از طریق یک اعلان، بهعنوان مثال، به جای نیاز به کمانچه دستی با صفحات گسترده، پتانسیل جالبی برای ابزارهای هوش مصنوعی مولد مانند Salesforce's Einstein Copilotارائه میدهد. اپراتور زنجیره ای رستوران فیلیپین از Heroku Salesforceبرای ساخت برنامه های خود و Mulesoftبه عنوان میان افزار برای اتصال برنامه های خود از جمله ERPو سیستم های مدیریت سفارش استفاده می کند.
Jollibee 15000کارمند دارد و تقریباً 4000 فروشگاه در سراسر جهان در 34 کشور جهان راه اندازی می کند. برنامه های کاربردی آن عمدتاً بر روی ابر اجرا می شوند، بنابراین مراکز داده خود را به استثنای یک اینترانت کوچک حفظ نمی کند.
فاروک همچنین پتانسیل استفاده از هوش مصنوعی را در تولید می بیند، جایی که می تواند در خط لوله تولید و مونتاژ کارایی خود را افزایش دهد. به عنوان مثال، هوش مصنوعی می تواند به نظارت بر کیفیت غذا و پیش بینی تقاضا کمک کند.
با این حال، علاقه او به استفاده بالقوه از هوش مصنوعی محدود به عملیات پشتیبان است. فاروک در مورد دور نگه داشتن هوش مصنوعی مولد از تعاملات با مشتری و عملیات رویارویی با مشتری - حداقل در حال حاضر، مصمم است.
او خاطرنشان کرد: با توجه به اینکه این فناوری هنوز در مراحل ابتدایی خود است، هنوز چیزهای زیادی وجود دارد که باید درک شود و از طریق آنها کار شود.
او گفت: «ما خروجی [و پاسخهایی که] تولید میکند را میبینیم، اما واقعاً نمیدانیم که چگونه [به پاسخ] رسیده است». "این جعبه سیاه وجود دارد... باید ابهام زدایی شود. من می خواهم بدانم چگونه کار می کند، چگونه به پاسخ خود رسیده است، و آیا این پاسخ [هر بار که سوال پرسیده می شود] قابل تکرار است."
وی با بیان اینکه در حال حاضر اینگونه نیست، گفت: خطر توهم نیز نگران کننده است. وی خاطرنشان کرد: در غیاب یک حادثه امنیتی، اطلاعات کمی در مورد وجود مسائل ذاتی امنیت سایبری وجود دارد که باید حل شود.
فاروکه گفت: «در حال حاضر، تبلیغات زیادی در بازار وجود دارد.
او از فروشندگان هوش مصنوعی خواست توضیح دهند که مدلهای زبان بزرگشان چگونه شکل میگیرند، چه دادههایی را مصرف میکنند و دقیقاً چه کاری برای ایجاد پاسخ انجام میدهند. او گفت: «آنها باید از این کار که انگار جادو است [زمانی که] کدی وجود دارد که آن را اجرا می کند و علم پشت آن وجود دارد، دست بردارند. به ما کمک کنید آن را بفهمیم [زیرا] ما دوست نداریم فناوریای را بپذیریم که درک کاملی از آن نداریم.»
او بر نیاز به پاسخگویی و شفافیت، در کنار تضمین هایی که داده های مشتریانی که برای آموزش مدل های هوش مصنوعی استفاده می شوند، عمومی نخواهد شد، تاکید کرد. این امر بسیار مهم است، به ویژه برای سازمان هایی که نیاز به رعایت مقررات حفظ حریم خصوصی داده ها در حوزه قضایی محلی خود دارند.
تا زمانی که این مسائل برطرف نشود، او گفت که حاضر نیست اطلاعات مشتریان خود را در معرض خطر قرار دهد.
اعتماد همچنین چیزی است که وزارت تجارت و صنعت سنگاپور (MTI) به طور خاص از نظر حفظ حریم خصوصی و امنیت داده ها جدی می گیرد. ده سازمان دولتی زیر نظر این وزارتخانه حضور دارند، از جمله EDBو هیئت گردشگری سنگاپور.
شارون نگ، مدیر ارشد اجرایی خانواده وزارت MTIگفت، به ویژه، داده های این وزارتخانه باید در سنگاپور حفظ شود و این ثابت می شود که مانع بزرگی در تضمین امنیت داده ها و حاکمیت است. این بدان معناست که هر مدل هوش مصنوعی و زبان بزرگی که استفاده میکند باید در محیط خودش میزبانی شود، حتی آنهایی که توسط فروشندگان آمریکایی مانند پلتفرم Salesforce Einstein Copilotاجرا میشوند.
او خاطرنشان کرد، مانند فاروک، نگ نیز بر نیاز به شفافیت، به ویژه جزئیات نحوه عملکرد لایه امنیتی، از جمله اینکه چه نوع رمزگذاری استفاده میشود و آیا دادهها حفظ میشوند، تاکید کرد.
تیم او در حال حاضر در حال بررسی این موضوع است که چگونه ابزارهای هوش مصنوعی مولد، از جمله Salesforce، میتوانند به این وزارتخانه کمک کنند، چرا که این وزارتخانه همچنان آماده استفاده از هوش مصنوعی مختلف و مدلهای زبان بزرگ موجود در بازار است. او گفت که این کار هزینه کمتری نسبت به ساخت مدل های خود دارد و زمان عرضه به بازار را کوتاه می کند.
او خاطرنشان کرد، با این حال، استفاده از هر مدل هوش مصنوعی همچنان منوط به ملاحظات امنیتی و اعتماد است. MTIدر حال حاضر در حال اجرای خلبان های هوش مصنوعی مولد با هدف بهبود کارایی عملیاتی و تسهیل وظایف کاری در سراسر آژانس های خود است.
برای مخابرات سنگاپور M1، ارائه خدمات بهتر به مشتریان KPIواضح برای هوش مصنوعی مولد است. جان مورگنتال، مدیر ارشد دیجیتال M1گفت، با این حال، مانند MTIو Jollibee، انطباق و اعتماد به داده ها بسیار مهم است. این شرکت مخابراتی در حال حاضر در حال اجرای اثبات مفاهیم است تا ارزیابی کند که چگونه هوش مصنوعی مولد می تواند تعاملات چت ربات آن با مشتریان را افزایش دهد و آیا می تواند از زبان های دیگری به جز انگلیسی پشتیبانی کند یا خیر.
مورگنتال گفت، این به معنای کار با فروشندگان برای تعیین پارامترها و درک مکانهایی است که مدلهای زبان بزرگ و هوش مصنوعی در آن مستقر هستند. مشابه MTIو Jollibee، M1همچنین باید با مقرراتی مطابقت داشته باشد که برخی از دادههای آن، از جمله آنهایی که روی پلتفرمهای ابری میزبانی میشوند، برای اقامت در بازار محلیاش الزامی است.
او گفت که شرکت مخابراتی سنگاپور همچنین باید مراقب داده های مورد استفاده برای آموزش مدل ها و پاسخ های تولید شده باشد که باید آزمایش و تایید شوند. اینها نه تنها باید بر اساس دستورالعملهای تعیینشده توسط فروشنده، مانند لایه اعتماد Salesforce، بلکه در برابر نردههایی که شرکت مادر M1 Keppelدر اختیار دارد، بررسی شود.
پرداختن به شکاف اعتماد مولد هوش مصنوعی
چنین تلاشهایی در بحبوحه کاهش اعتماد به استفاده از هوش مصنوعی حیاتی خواهد بود.
بر اساس نظرسنجی Salesforceکه ماه گذشته منتشر شد، هم سازمانها و هم مصرفکنندگان در حال حاضر نسبت به قبل نسبت به استفاده از هوش مصنوعی کمتر باز هستند. حدود 73 درصد از خریداران تجاری و 51 درصد از مصرف کنندگان از فناوری استفاده شده برای بهبود تجربیات خود استقبال می کنند که به ترتیب از 82 درصد و 65 درصد در سال 2022 کاهش یافته است.
و در حالی که 76 درصد از مشتریان به کسب و کارها برای ادعاهای صادقانه در مورد محصولات و خدمات خود اعتماد دارند، 57 درصد کمتر به آنها اعتماد دارند که از هوش مصنوعی اخلاقی استفاده کنند. 68 درصد دیگر معتقدند پیشرفت های هوش مصنوعی باعث شده است که شرکت ها قابل اعتماد باشند.
تیم دیلون، بنیانگذار و مدیر Tech Research Asia، با اشاره به واکنش منفی زوم در هنگام تغییر شرایط خدمات خود، گفت: شکاف اعتماد یک مسئله و نگرانی مهم برای سازمانها است و به آن حق استفاده از ویدیو و صدا کاربران را میدهد. و داده های چت برای آموزش مدل های هوش مصنوعی آن.
دیلون در مصاحبه در حاشیه نمایشگاه Dreamforce 2023که این هفته در سانفرانسیسکو برگزار شد، گفت که فروشندگان هوش مصنوعی مولد می خواهند از سناریوی مشابه اجتناب کنند. بازیگران بازار مانند Salesforceو مایکروسافت تلاشهایی را برای رفع شکاف اعتماد انجام داده اند، که به گفته او گام مثبتی به جلو بود.
فیل هاسی، مدیرعامل و موسس شرکت تحقیقاتی CapioIT، خاطرنشان کرد، جدای از پرداختن به مسائل اعتماد، سازمانهایی که قصد دارند هوش مصنوعی مولد را اتخاذ کنند، باید به اجرای مدیریت تغییر نیز توجه کنند.
هاسی در ادامه گفت: این حوزهای است که اغلب از بحث کنار گذاشته می شود. سازمانها باید هزینهها و مجموعه مهارتهایی را که باید کسب کنند و نقشهایی که باید دوباره مهارت پیدا کنند، در نتیجه گسترش هوش مصنوعی مولد، مشخص کنند.
او گفت که یک استراتژی مدیریت تغییر مناسب برای اطمینان از انتقال آرام و حفظ استعدادها کلیدی است.
منبع:زدنت