‫ fars_sakha بلاگ

ظاهراً همکاری نزدیک مایکروسافت باOpenAI، توجه نهاد نظارتی آلمان را برانگیخته و فعالیت‌های غول فناوری ردموندی تحت نظارت قرار گرفته است.

مایکروسافت به فهرست شرکت‌های بزرگ فناوری پیوست که زیر ذره‌بین نهادهای ناظر آلمان قرار دارند. دفتر فدرال کارتل (FCO) اعلام کرد اگر مقامات نهادهای نظارتی، مداخله در فعالیت‌های غول فناوری اهل ردموند را ضروری بدانند، احتمال دارد این شرکت با محدودیت‌هایی مواجه شود. تصمیم مذکور به FCOاجازه می‌دهد تا فعالیت‌های مایکروسافت در حوزه‌ی هوش مصنوعی را با دقت بیشتری زیر نظر بگیرد.

در سال‌های اخیر، روابط نزدیک مایکروسافت با OpenAIتوجه نهادهای ضدرقابتی را جلب کرده است. این ارتباط به‌خصوص در سال گذشته، یعنی زمانی‌ که مایکروسافت برای مدتی سم آلتمن و برخی دیگر از کارکنان کلیدی OpenAIرا به خدمت گرفت، بیشتر نمایان شد. اگرچه آلتمن در نهایت به OpenAIبازگشت، این ماجرا نشان‌دهنده‌‌ی پیوند نزدیک بین دو شرکت بود.

به‌نوشته‌ی تک‌کرانچ، دفتر FCOدر گذشته به همکاری مایکروسافت و OpenAIپرداخته بود و اعلام کرد که این رابطه شرایط لازم برای ادغام را ندارد. به‌هرحال باتوجه‌به اختیارات جدید این نهاد برای تنظیم مقررات مرتبط با غول‌های فناوری، احتمال دارد روابط مایکروسافت با OpenAIدر آینده تحت نظارت دقیق‌تری قرار گیرد.

مایکروسافت با دستیار هوش مصنوعی کوپایلت و قدرت خود در رایانش ابری توانست همکاری‌های مؤثری با تأمین‌کنندگان برقرار کند و مدل‌های هوش مصنوعی آن‌ها را در پلتفرم Azureخود ارائه دهد. این توانایی، نقش مهمی در تقویت موقعیت مایکروسافت در حوزه‌ی هوش مصنوعی ایفا کرده است.

 

FCOبررسی قدرت بازار مایکروسافت و انطباق آن با قوانین کنترل سوءاستفاده‌ی ویژه را از مارس 2023 (اسفند 1401و فروردین 1402) آغاز کرده است.

مایکروسافت در پاسخ به گزارش‌های اخیر اعلام کرد به مسئولیت خود در حمایت از رقابت سالم واقف است و در این زمینه با نهاد نظارتی آلمان همکاری خواهد کرد.

 

منبع

زومیت

این چقدر ترسناک است چت رباتOpenAI بدون درخواست با کاربران تماس می‌گرفت البته این مشکل رفع شده است.

ChatGPT دیگر بهDM‌های شما نمی‌رود. OpenAI اخیراً مشکلی را برطرف کرده است که در آن هوش مصنوعی بدون درخواست به مردم پیام می‌دهد، که باعث شد برخی از کاربران کمی احساس نگرانی کنند.

در 15 سپتامبر، کاربرSentuBill یک اسکرین شات را درSubreddit ChatGPT ارسال کرد که مدل مولد را نشان می‌داد و از آنها در مورد هفته اول دبیرستان سؤال می‌کرد. پس از کمی رفت‌و برگشت، ChatGPT اعلام کرد که می‌خواهد بررسی کند و اگر ترجیح می‌دهد مکالمه را آغاز کند، به هوش مصنوعی اطلاع دهد. یکی دیگر از کاربرانReddit تجربه مشابهی را توصیف کرد. مدل هوش مصنوعی از آنها پرسید که چگونه علائم آنها یک هفته پس از استفاده از پلتفرم برای بررسی یک بیماری پیشرفت می‌کند.

حدس و گمان‌هایی در مورد علت بروز این رفتار عجیب وجود داشت. در ابتدا، مردم فکر می‌کردند که این یکی از ویژگی‌های مدل‌های جدیدo1-preview وo1-mini OpenAI است که مجموعاً به عنوانProject Strawberry شناخته می‌شوند. این شرکت این فناوری را با ادعای این که این دو مدل «پیش از [پاسخ دادن] به مشکلات فکر می‌کنند، بسیار شبیه به یک شخص» ترویج کرده است.

مردم تصور می‌کردند که توانایی ناگهانیChatGPT در ارسال پیام‌های پیشگیرانه به کاربران، رفتاری تازه آموزش دیده است. برخی دیگر معتقد بودند که همه چیز جعلی است. Benjamin de Kraker، توسعه‌دهنده هوش مصنوعی درX (توئیتر سابق) نشان داد که می‌توان به هوش مصنوعی دستور داد تا قبل از شروع مکالمه از کاربران درخواست کند و ورودی اولیه را حذف کند.

اما همانطور که معلوم است، این مورد نیست. ظاهراً پیام ها نتیجه یک اشکال بوده است.

سایت خبری فناوریFuturism برای اطلاعات بیشتر باOpenAI تماس گرفت. فروشنده هوش مصنوعی به این نشریه گفت که - در این موارد- ChatGPT "سعی می‌کند به [پرومانی] پاسخ دهد که [یا] به درستی ارسال نشده یا خالی به نظر می‌رسد." نتیجه نهایی این بود که مدل هوش مصنوعی یک "پاسخ عمومی" داد یا از حافظه [خود] استفاده کرد.

بنابراین، نه‌ChatGPT به احساسات دست نیافته است و در تلاش برای ایجاد مکالمه با مردم صحبت نمی‌کند. با این حال، تعجب نخواهیم کرد که ببینیم این باگ در نهایت به یک ویژگی تبدیل می‌شود. هوش مصنوعی در مدت زمان کوتاهی که وجود داشته است، پیشرفت‌های زیادی کرده است. با چند ترفند، ChatGPT می تواند روزی شروع به ارسال پیام به شما کند.

منبع

زدنت

GSMA یک نقشه راه برای راهنمایی اپراتورهای تلفن همراه در ارزیابی استفاده از هوش مصنوعی منتشر می‌کند زیرا پذیرش گسترده برای اکثر مشاغل دشوار است.

گروهی از اپراتورهای تلفن همراه در سراسر جهان متعهد شده‌اند دستورالعمل‌هایی را اتخاذ کنند که برای آزمایش و ارزیابی استفاده «مسئولانه» آنها از هوش مصنوعی(AI) در سطوح مختلف بلوغ طراحی شده‌اند.

GSMA که توسط گروه صنعتی منتشر شده است نقشه راه بلوغ هوش مصنوعی مسئول ارائه ابزارهایی را ارائه می‌دهد که مخابرات برای ارزیابی استفاده از هوش مصنوعی موجود خود در برابر جایی که قصد دستیابی به آن را دارند، مانند آن اهداف و الزامات، نیاز دارد. GSMA در بیانیه‌ای که روز سه‌شنبه منتشر کرد، گفت: همچنین ابزارهای اندازه‌گیری برای دستیابی به این اهداف و اطمینان از «بهترین شیوه‌های صنعت» در استفاده مسئولانه از هوش مصنوعی ارائه می‌کند.

این بیانیه خاطرنشان کرد که این نقشه راه شامل دستورالعمل‌های سفارشی‌شده است که با مراحل مختلف پذیرش هوش مصنوعی مطابقت دارد،  GSMA گفت: هر چه جاه طلبی شرکت مخابراتی بزرگتر باشد، سطح بالاتری از بلوغ هوش مصنوعی مسئول و اخلاقی باید اجرا کند.

علاوه بر این، دستورالعمل‌ها با بینش مک کینزی و چندین اپراتور، در کنار ملاحظات مقررات بین‌المللی و همچنین توصیه‌ها و استانداردهای سازمان‌های مختلف جهانی، از جملهOECD (سازمان همکاری اقتصادی و توسعه) و توصیه یونسکو در مورد اخلاق، تدوین شده است

در سطح جهانی، 19 اپراتور تلفن همراه، از جملهBT Group، Globe، Singtel، Telia، Deutsche Telekom، Orange، Vodafone، وTelstra، برای استفاده از نقشه راه اقدام کرده‌اند.

بر اساس برآوردهایMcKinsey، GSMA گفت که استفاده صنعت مخابرات از هوش مصنوعی می‌تواند تا 680 میلیارد دلار طی 15 تا 20 سال آینده افزایش یابد. GSMA افزود: تعهد این بخش به استفاده از یک رویکرد استاندارد شده در رابطه با هوش مصنوعی اولین تلاش جمعی برای انجام این کار است.

نقشه راه به مؤلفه‌های کلیدی که می‌توانند استفاده از هوش مصنوعی شرکت مخابراتی را ساده‌سازی کنند، از جمله ارزش‌ها و اهداف استراتژیک، مدل عملیاتی، حفظ حاکمیت هوش مصنوعی در تمامی عملیات، کنترل‌های فنی همسو با الزامات نظارتی و همکاری با اکوسیستم‌های شخص ثالث، بررسی می‌شود.

اصول هوش مصنوعی آن نیز بر اساس بهترین شیوه‌های مختلف از جمله نظارت انسانی، حریم خصوصی و امنیت، شفافیت، مسئولیت‌پذیری و تأثیرات زیست‌محیطی است.

GSMA امیدوار است با ارائه شفافیت و رویکردی مشترک برای استفاده مسئولانه از هوش مصنوعی، به اپراتورهای تلفن همراه این توانایی را بدهد که به پذیرش هوش مصنوعی خود متعهد شوند، زیرا می‌دانند که این کار را بر اساس "روش‌های توافق شده و اخلاقی" انجام خواهند داد. GSMA خاطرنشان کرد: این کار تمام ارزش هوش مصنوعی را با سرعت بیشتری باز می‌کند.

نقشه راه چهار سطح بلوغ هوش مصنوعی مسئول را مشخص می‌کند: پایه، در حال تکامل، عملکرد و پیشرفته. برای مثال، کاربران بنیادی هوش مصنوعی بر اساس اصول هوش مصنوعی که باید ایجاد کنند، نقش‌هایی که برای پذیرش لازم است و ثبت‌های اولیه برای ردیابی موارد استفاده از هوش مصنوعی راهنمایی خواهند شد.

«سرعتی که هوش مصنوعی اکنون به بخش مرکزی عملیات فناوری و مخابرات تبدیل شده است، قدرت و ارزش بی‌تردید آن را نشان می‌دهد، اما همچنین خطراتی را که ما باید به عنوان یک صنعت در نظر بگیریم و نیاز به گنجاندن اخلاق در قلب هوش مصنوعی برای جلوگیری از توسعه کنترل نشده آن را نشان می‌دهد. خوزه ماریا آلوارز-پالته لوپز، رئیس و رئیس هیئت مدیرهGSMA، که همچنین مدیرعاملTelefónica است، گفت: برای همه ما بسیار مهم است که اطمینان حاصل کنیم که دستورالعمل‌های مسئولانه برای استفاده از هوش مصنوعی در حال حاضر اجرا می‌شوند

منبع

زدنت

 

بزرگ‌ترین پلت‌فرم‌های آنلاین جهان اطلاعات بیشتری نسبت به آنچه قبلاً شناخته شده بود جمع‌آوری می‌کنند و انصراف را برای کاربران بسیار سخت می‌کنند.

گزارش کمیسیون تجارت فدرال  (FTC) که امروز منتشر شد، به دنبال تحقیقات چهار ساله این کمیسیون در مورد نحوه جمع‌آوری و استفاده از داده‌های مصرف کنندگان توسط 9 شرکت رسانه‌های اجتماعی و خدمات پخش است. همانطور که به نظر می‌رسد، طرح جمع‌آوری داده‌ها بسیار بزرگتر از آنچه در ابتدا تصور می‌شده است.

این آژانس برای اولین بار در سال 2020 شروع به بررسی شیوه‌های تجاری مبهم بزرگترین پلتفرم‌های آنلاین جهان کرد. این لیست شامل آمازون، فیس بوک، یوتیوب، X (سپس توییتر)، اسنپ، بایت دنس، دیسکورد، ردیت و واتس اپ بود.

طبق یافته‌هایFCC، این برندها تا آنجا که می‌توانستند از «کاربران و غیرکاربران» استفاده کردند و تا آنجا پیش رفتند که اطلاعات را از کارگزاران داده خریداری کردند. نیویورک تایمز در پوشش خود خاطرنشان کرد که این شرکت‌ها جزئیاتی مانند سن، جنسیت، تحصیلات و درآمد افراد را جمع‌آوری می‌کنند.

همه پلتفرم‌ها راهی برای انصراف از جمع‌آوری خودکار داده‌ها به مردم ارائه نمی‌دهند و پلتفرم‌هایی که این گزینه را ارائه می‌دهند، کار را آسان نمی‌کنند. حتی اگر موفق به انصراف و درخواست حذف داده‌ها شوید، FTC بیان می‌کند که شرکت‌های رسانه‌های اجتماعی "اطلاعات حساس را بسیار بیشتر از آنچه مصرف کنندگان انتظار دارند" حفظ می‌کنند.

وقتی صحبت از خردسالان می‌شود، اوضاع خیلی بهتر نیست. این گزارش اشاره می‌کند که «بسیاری از شرکت‌ها ادعا می‌کنند که هیچ کودکی در پلتفرم‌هایشان وجود ندارد» زیرا خدماتی که ارائه می‌کنند برای کودکان نیست. ظاهراً، گزارش اشاره می‌کند که همه اینها برای «پرهیز از مسئولیت» بوده است، زیرا برندها «اغلب با نوجوانان مانند کاربران بزرگسال رفتار می‌کنند».

از آنجایی که گزارشFTC تغییرات کلیدی را توصیه می‌کند که سیاست‌گذاران می توانند برای محافظت از حریم خصوصی افراد اعمال کنند، می‌توانیم انتظار داشته باشیم که قوانینی برای پر کردن شکاف‌های امنیتی وضع شود. اما چه کسی می‌داند چه زمانی این اتفاق خواهد افتاد.

خوشبختانه، کارهای زیادی وجود دارد که می‌توانید برای محافظت از خود در برابر مارک‌های تشنه داده انجام دهید. پیشنهاد می‌کنیم با تنظیمات حریم خصوصی یک پلتفرم آشنا شوید. این تنظیمات را برای محدود کردن حجم داده‌هایی که یک وب‌سایت می‌تواند جمع‌آوری کند، تنظیم کنید، مانند خاموش کردن اشتراک‌گذاری موقعیت مکانی و انصراف از تبلیغات شخصی‌شده.

همچنین، می توانید برای پلتفرم های اجتماعی جایگزین با سیاست‌های حفظ حریم خصوصی سخت گیرانه ثبت نام کنید. پیشنهاد می‌کنیم افزونه‌های محافظ مرورگر را نصب کنید

منبع

زدنت