ظاهراً همکاری نزدیک مایکروسافت باOpenAI، توجه نهاد نظارتی آلمان را برانگیخته و فعالیتهای غول فناوری ردموندی تحت نظارت قرار گرفته است.
مایکروسافت به فهرست شرکتهای بزرگ فناوری پیوست که زیر ذرهبین نهادهای ناظر آلمان قرار دارند. دفتر فدرال کارتل (FCO) اعلام کرد اگر مقامات نهادهای نظارتی، مداخله در فعالیتهای غول فناوری اهل ردموند را ضروری بدانند، احتمال دارد این شرکت با محدودیتهایی مواجه شود. تصمیم مذکور به FCOاجازه میدهد تا فعالیتهای مایکروسافت در حوزهی هوش مصنوعی را با دقت بیشتری زیر نظر بگیرد.
در سالهای اخیر، روابط نزدیک مایکروسافت با OpenAIتوجه نهادهای ضدرقابتی را جلب کرده است. این ارتباط بهخصوص در سال گذشته، یعنی زمانی که مایکروسافت برای مدتی سم آلتمن و برخی دیگر از کارکنان کلیدی OpenAIرا به خدمت گرفت، بیشتر نمایان شد. اگرچه آلتمن در نهایت به OpenAIبازگشت، این ماجرا نشاندهندهی پیوند نزدیک بین دو شرکت بود.
بهنوشتهی تککرانچ، دفتر FCOدر گذشته به همکاری مایکروسافت و OpenAIپرداخته بود و اعلام کرد که این رابطه شرایط لازم برای ادغام را ندارد. بههرحال باتوجهبه اختیارات جدید این نهاد برای تنظیم مقررات مرتبط با غولهای فناوری، احتمال دارد روابط مایکروسافت با OpenAIدر آینده تحت نظارت دقیقتری قرار گیرد.
مایکروسافت با دستیار هوش مصنوعی کوپایلت و قدرت خود در رایانش ابری توانست همکاریهای مؤثری با تأمینکنندگان برقرار کند و مدلهای هوش مصنوعی آنها را در پلتفرم Azureخود ارائه دهد. این توانایی، نقش مهمی در تقویت موقعیت مایکروسافت در حوزهی هوش مصنوعی ایفا کرده است.
FCOبررسی قدرت بازار مایکروسافت و انطباق آن با قوانین کنترل سوءاستفادهی ویژه را از مارس 2023 (اسفند 1401و فروردین 1402) آغاز کرده است.
مایکروسافت در پاسخ به گزارشهای اخیر اعلام کرد به مسئولیت خود در حمایت از رقابت سالم واقف است و در این زمینه با نهاد نظارتی آلمان همکاری خواهد کرد.
منبع
زومیت
این چقدر ترسناک است چت رباتOpenAI بدون درخواست با کاربران تماس میگرفت البته این مشکل رفع شده است.
ChatGPT دیگر بهDMهای شما نمیرود. OpenAI اخیراً مشکلی را برطرف کرده است که در آن هوش مصنوعی بدون درخواست به مردم پیام میدهد، که باعث شد برخی از کاربران کمی احساس نگرانی کنند.
در 15 سپتامبر، کاربرSentuBill یک اسکرین شات را درSubreddit ChatGPT ارسال کرد که مدل مولد را نشان میداد و از آنها در مورد هفته اول دبیرستان سؤال میکرد. پس از کمی رفتو برگشت، ChatGPT اعلام کرد که میخواهد بررسی کند و اگر ترجیح میدهد مکالمه را آغاز کند، به هوش مصنوعی اطلاع دهد. یکی دیگر از کاربرانReddit تجربه مشابهی را توصیف کرد. مدل هوش مصنوعی از آنها پرسید که چگونه علائم آنها یک هفته پس از استفاده از پلتفرم برای بررسی یک بیماری پیشرفت میکند.
حدس و گمانهایی در مورد علت بروز این رفتار عجیب وجود داشت. در ابتدا، مردم فکر میکردند که این یکی از ویژگیهای مدلهای جدیدo1-preview وo1-mini OpenAI است که مجموعاً به عنوانProject Strawberry شناخته میشوند. این شرکت این فناوری را با ادعای این که این دو مدل «پیش از [پاسخ دادن] به مشکلات فکر میکنند، بسیار شبیه به یک شخص» ترویج کرده است.
مردم تصور میکردند که توانایی ناگهانیChatGPT در ارسال پیامهای پیشگیرانه به کاربران، رفتاری تازه آموزش دیده است. برخی دیگر معتقد بودند که همه چیز جعلی است. Benjamin de Kraker، توسعهدهنده هوش مصنوعی درX (توئیتر سابق) نشان داد که میتوان به هوش مصنوعی دستور داد تا قبل از شروع مکالمه از کاربران درخواست کند و ورودی اولیه را حذف کند.
اما همانطور که معلوم است، این مورد نیست. ظاهراً پیام ها نتیجه یک اشکال بوده است.
سایت خبری فناوریFuturism برای اطلاعات بیشتر باOpenAI تماس گرفت. فروشنده هوش مصنوعی به این نشریه گفت که - در این موارد- ChatGPT "سعی میکند به [پرومانی] پاسخ دهد که [یا] به درستی ارسال نشده یا خالی به نظر میرسد." نتیجه نهایی این بود که مدل هوش مصنوعی یک "پاسخ عمومی" داد یا از حافظه [خود] استفاده کرد.
بنابراین، نهChatGPT به احساسات دست نیافته است و در تلاش برای ایجاد مکالمه با مردم صحبت نمیکند. با این حال، تعجب نخواهیم کرد که ببینیم این باگ در نهایت به یک ویژگی تبدیل میشود. هوش مصنوعی در مدت زمان کوتاهی که وجود داشته است، پیشرفتهای زیادی کرده است. با چند ترفند، ChatGPT می تواند روزی شروع به ارسال پیام به شما کند.
منبع
GSMA یک نقشه راه برای راهنمایی اپراتورهای تلفن همراه در ارزیابی استفاده از هوش مصنوعی منتشر میکند زیرا پذیرش گسترده برای اکثر مشاغل دشوار است.
گروهی از اپراتورهای تلفن همراه در سراسر جهان متعهد شدهاند دستورالعملهایی را اتخاذ کنند که برای آزمایش و ارزیابی استفاده «مسئولانه» آنها از هوش مصنوعی(AI) در سطوح مختلف بلوغ طراحی شدهاند.
GSMA که توسط گروه صنعتی منتشر شده است نقشه راه بلوغ هوش مصنوعی مسئول ارائه ابزارهایی را ارائه میدهد که مخابرات برای ارزیابی استفاده از هوش مصنوعی موجود خود در برابر جایی که قصد دستیابی به آن را دارند، مانند آن اهداف و الزامات، نیاز دارد. GSMA در بیانیهای که روز سهشنبه منتشر کرد، گفت: همچنین ابزارهای اندازهگیری برای دستیابی به این اهداف و اطمینان از «بهترین شیوههای صنعت» در استفاده مسئولانه از هوش مصنوعی ارائه میکند.
این بیانیه خاطرنشان کرد که این نقشه راه شامل دستورالعملهای سفارشیشده است که با مراحل مختلف پذیرش هوش مصنوعی مطابقت دارد، GSMA گفت: هر چه جاه طلبی شرکت مخابراتی بزرگتر باشد، سطح بالاتری از بلوغ هوش مصنوعی مسئول و اخلاقی باید اجرا کند.
علاوه بر این، دستورالعملها با بینش مک کینزی و چندین اپراتور، در کنار ملاحظات مقررات بینالمللی و همچنین توصیهها و استانداردهای سازمانهای مختلف جهانی، از جملهOECD (سازمان همکاری اقتصادی و توسعه) و توصیه یونسکو در مورد اخلاق، تدوین شده است.
در سطح جهانی، 19 اپراتور تلفن همراه، از جملهBT Group، Globe، Singtel، Telia، Deutsche Telekom، Orange، Vodafone، وTelstra، برای استفاده از نقشه راه اقدام کردهاند.
بر اساس برآوردهایMcKinsey، GSMA گفت که استفاده صنعت مخابرات از هوش مصنوعی میتواند تا 680 میلیارد دلار طی 15 تا 20 سال آینده افزایش یابد. GSMA افزود: تعهد این بخش به استفاده از یک رویکرد استاندارد شده در رابطه با هوش مصنوعی اولین تلاش جمعی برای انجام این کار است.
نقشه راه به مؤلفههای کلیدی که میتوانند استفاده از هوش مصنوعی شرکت مخابراتی را سادهسازی کنند، از جمله ارزشها و اهداف استراتژیک، مدل عملیاتی، حفظ حاکمیت هوش مصنوعی در تمامی عملیات، کنترلهای فنی همسو با الزامات نظارتی و همکاری با اکوسیستمهای شخص ثالث، بررسی میشود.
اصول هوش مصنوعی آن نیز بر اساس بهترین شیوههای مختلف از جمله نظارت انسانی، حریم خصوصی و امنیت، شفافیت، مسئولیتپذیری و تأثیرات زیستمحیطی است.
GSMA امیدوار است با ارائه شفافیت و رویکردی مشترک برای استفاده مسئولانه از هوش مصنوعی، به اپراتورهای تلفن همراه این توانایی را بدهد که به پذیرش هوش مصنوعی خود متعهد شوند، زیرا میدانند که این کار را بر اساس "روشهای توافق شده و اخلاقی" انجام خواهند داد. GSMA خاطرنشان کرد: این کار تمام ارزش هوش مصنوعی را با سرعت بیشتری باز میکند.
نقشه راه چهار سطح بلوغ هوش مصنوعی مسئول را مشخص میکند: پایه، در حال تکامل، عملکرد و پیشرفته. برای مثال، کاربران بنیادی هوش مصنوعی بر اساس اصول هوش مصنوعی که باید ایجاد کنند، نقشهایی که برای پذیرش لازم است و ثبتهای اولیه برای ردیابی موارد استفاده از هوش مصنوعی راهنمایی خواهند شد.
«سرعتی که هوش مصنوعی اکنون به بخش مرکزی عملیات فناوری و مخابرات تبدیل شده است، قدرت و ارزش بیتردید آن را نشان میدهد، اما همچنین خطراتی را که ما باید به عنوان یک صنعت در نظر بگیریم و نیاز به گنجاندن اخلاق در قلب هوش مصنوعی برای جلوگیری از توسعه کنترل نشده آن را نشان میدهد. خوزه ماریا آلوارز-پالته لوپز، رئیس و رئیس هیئت مدیرهGSMA، که همچنین مدیرعاملTelefónica است، گفت: برای همه ما بسیار مهم است که اطمینان حاصل کنیم که دستورالعملهای مسئولانه برای استفاده از هوش مصنوعی در حال حاضر اجرا میشوند.»
منبع
بزرگترین پلتفرمهای آنلاین جهان اطلاعات بیشتری نسبت به آنچه قبلاً شناخته شده بود جمعآوری میکنند و انصراف را برای کاربران بسیار سخت میکنند.
گزارش کمیسیون تجارت فدرال (FTC) که امروز منتشر شد، به دنبال تحقیقات چهار ساله این کمیسیون در مورد نحوه جمعآوری و استفاده از دادههای مصرف کنندگان توسط 9 شرکت رسانههای اجتماعی و خدمات پخش است. همانطور که به نظر میرسد، طرح جمعآوری دادهها بسیار بزرگتر از آنچه در ابتدا تصور میشده است.
این آژانس برای اولین بار در سال 2020 شروع به بررسی شیوههای تجاری مبهم بزرگترین پلتفرمهای آنلاین جهان کرد. این لیست شامل آمازون، فیس بوک، یوتیوب، X (سپس توییتر)، اسنپ، بایت دنس، دیسکورد، ردیت و واتس اپ بود.
طبق یافتههایFCC، این برندها تا آنجا که میتوانستند از «کاربران و غیرکاربران» استفاده کردند و تا آنجا پیش رفتند که اطلاعات را از کارگزاران داده خریداری کردند. نیویورک تایمز در پوشش خود خاطرنشان کرد که این شرکتها جزئیاتی مانند سن، جنسیت، تحصیلات و درآمد افراد را جمعآوری میکنند.
همه پلتفرمها راهی برای انصراف از جمعآوری خودکار دادهها به مردم ارائه نمیدهند و پلتفرمهایی که این گزینه را ارائه میدهند، کار را آسان نمیکنند. حتی اگر موفق به انصراف و درخواست حذف دادهها شوید، FTC بیان میکند که شرکتهای رسانههای اجتماعی "اطلاعات حساس را بسیار بیشتر از آنچه مصرف کنندگان انتظار دارند" حفظ میکنند.
وقتی صحبت از خردسالان میشود، اوضاع خیلی بهتر نیست. این گزارش اشاره میکند که «بسیاری از شرکتها ادعا میکنند که هیچ کودکی در پلتفرمهایشان وجود ندارد» زیرا خدماتی که ارائه میکنند برای کودکان نیست. ظاهراً، گزارش اشاره میکند که همه اینها برای «پرهیز از مسئولیت» بوده است، زیرا برندها «اغلب با نوجوانان مانند کاربران بزرگسال رفتار میکنند».
از آنجایی که گزارشFTC تغییرات کلیدی را توصیه میکند که سیاستگذاران می توانند برای محافظت از حریم خصوصی افراد اعمال کنند، میتوانیم انتظار داشته باشیم که قوانینی برای پر کردن شکافهای امنیتی وضع شود. اما چه کسی میداند چه زمانی این اتفاق خواهد افتاد.
خوشبختانه، کارهای زیادی وجود دارد که میتوانید برای محافظت از خود در برابر مارکهای تشنه داده انجام دهید. پیشنهاد میکنیم با تنظیمات حریم خصوصی یک پلتفرم آشنا شوید. این تنظیمات را برای محدود کردن حجم دادههایی که یک وبسایت میتواند جمعآوری کند، تنظیم کنید، مانند خاموش کردن اشتراکگذاری موقعیت مکانی و انصراف از تبلیغات شخصیشده.
همچنین، می توانید برای پلتفرم های اجتماعی جایگزین با سیاستهای حفظ حریم خصوصی سخت گیرانه ثبت نام کنید. پیشنهاد میکنیم افزونههای محافظ مرورگر را نصب کنید.
منبع