‫ نگرانی‌های مربوط به داده ها باعث می‌شود مشتری نسبت به هوش مصنوعی مولد احتیاط کند

عدم اعتماد عمومی به امنیت داده‌ها و حریم خصوصی سازمان‌ها را از ورود همه جانبه به هوش مصنوعی مولد باز می دارد.

 

هوش مصنوعی مولد (AI) به عنوان ضروری برای سازمان‌ها برای اطمینان از ارتباط با بازار مورد حمایت قرار می‌گیرد، اما برخی از آن‌ها به دلیل نگرانی‌ها در مورد داده‌ها و اعتماد، تردید دارند.

این مسائل به‌ویژه برای کسب‌وکارهایی که در بخش‌هایی با قوانین حاکمیت داده‌های سخت‌گیرانه و پایگاه‌های مشتری بزرگ فعالیت می‌کنند، مهم است، و آنها را مجبور می‌کند تا با وجود مزایای تبلیغی، برای استفاده از ابزارهای هوش مصنوعی مولد وقت بگذارند.

به عنوان مثال، سرور فاروک، رئیس عملیات توسعه در Jollibee Foods Corporationگفت، توانایی تولید گزارش‌های فروش از طریق یک اعلان، به‌عنوان مثال، به جای نیاز به کمانچه دستی با صفحات گسترده، پتانسیل جالبی برای ابزارهای هوش مصنوعی مولد مانند Salesforce's Einstein Copilotارائه می‌دهد. اپراتور زنجیره ای رستوران فیلیپین از Heroku Salesforceبرای ساخت برنامه های خود و Mulesoftبه عنوان میان افزار برای اتصال برنامه های خود از جمله ERPو سیستم های مدیریت سفارش استفاده می کند.

Jollibee 15000کارمند دارد و تقریباً 4000 فروشگاه در سراسر جهان در 34 کشور جهان راه اندازی می کند. برنامه های کاربردی آن عمدتاً بر روی ابر اجرا می شوند، بنابراین مراکز داده خود را به استثنای یک اینترانت کوچک حفظ نمی کند.

فاروک همچنین پتانسیل استفاده از هوش مصنوعی را در تولید می بیند، جایی که می تواند در خط لوله تولید و مونتاژ کارایی خود را افزایش دهد. به عنوان مثال، هوش مصنوعی می تواند به نظارت بر کیفیت غذا و پیش بینی تقاضا کمک کند.

با این حال، علاقه او به استفاده بالقوه از هوش مصنوعی محدود به عملیات پشتیبان است. فاروک در مورد دور نگه داشتن هوش مصنوعی مولد از تعاملات با مشتری و عملیات رویارویی با مشتری - حداقل در حال حاضر، مصمم است.

او خاطرنشان کرد: با توجه به اینکه این فناوری هنوز در مراحل ابتدایی خود است، هنوز چیزهای زیادی وجود دارد که باید درک شود و از طریق آنها کار شود.

او گفت: «ما خروجی [و پاسخ‌هایی که] تولید می‌کند را می‌بینیم، اما واقعاً نمی‌دانیم که چگونه [به پاسخ] رسیده است». "این جعبه سیاه وجود دارد... باید ابهام زدایی شود. من می خواهم بدانم چگونه کار می کند، چگونه به پاسخ خود رسیده است، و آیا این پاسخ [هر بار که سوال پرسیده می شود] قابل تکرار است."

وی با بیان اینکه در حال حاضر اینگونه نیست، گفت: خطر توهم نیز نگران کننده است. وی خاطرنشان کرد: در غیاب یک حادثه امنیتی، اطلاعات کمی در مورد وجود مسائل ذاتی امنیت سایبری وجود دارد که باید حل شود.

فاروکه گفت: «در حال حاضر، تبلیغات زیادی در بازار وجود دارد.

او از فروشندگان هوش مصنوعی خواست توضیح دهند که مدل‌های زبان بزرگشان چگونه شکل می‌گیرند، چه داده‌هایی را مصرف می‌کنند و دقیقاً چه کاری برای ایجاد پاسخ انجام می‌دهند. او گفت: «آنها باید از این کار که انگار جادو است [زمانی که] کدی وجود دارد که آن را اجرا می کند و علم پشت آن وجود دارد، دست بردارند. به ما کمک کنید آن را بفهمیم [زیرا] ما دوست نداریم فناوری‌ای را بپذیریم که درک کاملی از آن نداریم.»

او بر نیاز به پاسخگویی و شفافیت، در کنار تضمین هایی که داده های مشتریانی که برای آموزش مدل های هوش مصنوعی استفاده می شوند، عمومی نخواهد شد، تاکید کرد. این امر بسیار مهم است، به ویژه برای سازمان هایی که نیاز به رعایت مقررات حفظ حریم خصوصی داده ها در حوزه قضایی محلی خود دارند.

تا زمانی که این مسائل برطرف نشود، او گفت که حاضر نیست اطلاعات مشتریان خود را در معرض خطر قرار دهد.

 

اعتماد همچنین چیزی است که وزارت تجارت و صنعت سنگاپور (MTI) به طور خاص از نظر حفظ حریم خصوصی و امنیت داده ها جدی می گیرد. ده سازمان دولتی زیر نظر این وزارتخانه حضور دارند، از جمله EDBو هیئت گردشگری سنگاپور.

شارون نگ، مدیر ارشد اجرایی خانواده وزارت MTIگفت، به ویژه، داده های این وزارتخانه باید در سنگاپور حفظ شود و این ثابت می شود که مانع بزرگی در تضمین امنیت داده ها و حاکمیت است. این بدان معناست که هر مدل هوش مصنوعی و زبان بزرگی که استفاده می‌کند باید در محیط خودش میزبانی شود، حتی آنهایی که توسط فروشندگان آمریکایی مانند پلتفرم Salesforce Einstein Copilotاجرا می‌شوند.

او خاطرنشان کرد، مانند فاروک، نگ نیز بر نیاز به شفافیت، به ویژه جزئیات نحوه عملکرد لایه امنیتی، از جمله اینکه چه نوع رمزگذاری استفاده می‌شود و آیا داده‌ها حفظ می‌شوند، تاکید کرد.

تیم او در حال حاضر در حال بررسی این موضوع است که چگونه ابزارهای هوش مصنوعی مولد، از جمله Salesforce، می‌توانند به این وزارتخانه کمک کنند، چرا که این وزارتخانه همچنان آماده استفاده از هوش مصنوعی مختلف و مدل‌های زبان بزرگ موجود در بازار است. او گفت که این کار هزینه کمتری نسبت به ساخت مدل های خود دارد و زمان عرضه به بازار را کوتاه می کند.

او خاطرنشان کرد، با این حال، استفاده از هر مدل هوش مصنوعی همچنان منوط به ملاحظات امنیتی و اعتماد است. MTIدر حال حاضر در حال اجرای خلبان های هوش مصنوعی مولد با هدف بهبود کارایی عملیاتی و تسهیل وظایف کاری در سراسر آژانس های خود است.

برای مخابرات سنگاپور M1، ارائه خدمات بهتر به مشتریان KPIواضح برای هوش مصنوعی مولد است. جان مورگنتال، مدیر ارشد دیجیتال M1گفت، با این حال، مانند MTIو Jollibee، انطباق و اعتماد به داده ها بسیار مهم است. این شرکت مخابراتی در حال حاضر در حال اجرای اثبات مفاهیم است تا ارزیابی کند که چگونه هوش مصنوعی مولد می تواند تعاملات چت ربات آن با مشتریان را افزایش دهد و آیا می تواند از زبان های دیگری به جز انگلیسی پشتیبانی کند یا خیر.

مورگنتال گفت، این به معنای کار با فروشندگان برای تعیین پارامترها و درک مکان‌هایی است که مدل‌های زبان بزرگ و هوش مصنوعی در آن مستقر هستند. مشابه MTIو Jollibee، M1همچنین باید با مقرراتی مطابقت داشته باشد که برخی از داده‌های آن، از جمله آن‌هایی که روی پلتفرم‌های ابری میزبانی می‌شوند، برای اقامت در بازار محلی‌اش الزامی است.

او گفت که شرکت مخابراتی سنگاپور همچنین باید مراقب داده های مورد استفاده برای آموزش مدل ها و پاسخ های تولید شده باشد که باید آزمایش و تایید شوند. اینها نه تنها باید بر اساس دستورالعمل‌های تعیین‌شده توسط فروشنده، مانند لایه اعتماد Salesforce، بلکه در برابر نرده‌هایی که شرکت مادر M1 Keppelدر اختیار دارد، بررسی شود.

 

پرداختن به شکاف اعتماد مولد هوش مصنوعی

چنین تلاش‌هایی در بحبوحه کاهش اعتماد به استفاده از هوش مصنوعی حیاتی خواهد بود.

بر اساس نظرسنجی Salesforceکه ماه گذشته منتشر شد، هم سازمان‌ها و هم مصرف‌کنندگان در حال حاضر نسبت به قبل نسبت به استفاده از هوش مصنوعی کمتر باز هستند. حدود 73 درصد از خریداران تجاری و 51 درصد از مصرف کنندگان از فناوری استفاده شده برای بهبود تجربیات خود استقبال می کنند که به ترتیب از 82 درصد و 65 درصد در سال 2022 کاهش یافته است.

و در حالی که 76 درصد از مشتریان به کسب و کارها برای ادعاهای صادقانه در مورد محصولات و خدمات خود اعتماد دارند، 57 درصد کمتر به آنها اعتماد دارند که از هوش مصنوعی اخلاقی استفاده کنند. 68 درصد دیگر معتقدند پیشرفت های هوش مصنوعی باعث شده است که شرکت ها قابل اعتماد باشند.

تیم دیلون، بنیانگذار و مدیر Tech Research Asia، با اشاره به واکنش منفی زوم در هنگام تغییر شرایط خدمات خود، گفت: شکاف اعتماد یک مسئله و نگرانی مهم برای سازمان‌ها است و به آن حق استفاده از ویدیو و صدا کاربران را می‌دهد. و داده های چت برای آموزش مدل های هوش مصنوعی آن.

دیلون در مصاحبه در حاشیه نمایشگاه Dreamforce 2023که این هفته در سانفرانسیسکو برگزار شد، گفت که فروشندگان هوش مصنوعی مولد می خواهند از سناریوی مشابه اجتناب کنند. بازیگران بازار مانند Salesforceو مایکروسافت تلاش‌هایی را برای رفع شکاف اعتماد انجام داده اند، که به گفته او گام مثبتی به جلو بود.

فیل هاسی، مدیرعامل و موسس شرکت تحقیقاتی CapioIT، خاطرنشان کرد، جدای از پرداختن به مسائل اعتماد، سازمان‌هایی که قصد دارند هوش مصنوعی مولد را اتخاذ کنند، باید به اجرای مدیریت تغییر نیز توجه کنند.

هاسی در ادامه گفت: این حوزه‌ای است که اغلب از بحث کنار گذاشته می شود. سازمان‌ها باید هزینه‌ها و مجموعه مهارت‌هایی را که باید کسب کنند و نقش‌هایی که باید دوباره مهارت پیدا کنند، در نتیجه گسترش هوش مصنوعی مولد، مشخص کنند.

او گفت که یک استراتژی مدیریت تغییر مناسب برای اطمینان از انتقال آرام و حفظ استعدادها کلیدی است.

 

منبع:زدنت