‫ غول‌های فناوری قول می‌دهند با محتوای تقلبی هوش مصنوعی مبارزه کنند

شرکت‌های فناوری مانند گوگل، متا و OpenAIتوافق‌نامه‌ای امضا کرده‌اند تا محتوای فریبنده تولید شده توسط هوش مصنوعی را در سال 2024 فیلتر کنند.

 

گوگل، متا، اپن‌آی و ایکس (توئیتر سابق) از جمله 20 شرکت فناوری هستند که متعهد شده‌اند محتوای جعلی تولید شده توسط هوش مصنوعی (AI) را به عنوان بخشی از تلاش‌ها برای حفاظت در سال جاری، از بین ببرند.

 

گروهی از شرکت‌ها در کنفرانس امنیتی مونیخ، توافق‌نامه فنی برای مبارزه با استفاده فریبنده از هوش مصنوعی را امضا کردند که «چارچوب داوطلبانه اصول و اقدامات» را در بر می‌گیرد که شامل پیشگیری، شناسایی، پاسخ، ارزیابی و شناسایی منبع فریب است. محتوای انتخاباتی هوش مصنوعی

 

بر اساس بیانیه مشترک منتشر شده توسط امضاکنندگان توافقنامه فناوری که شامل TikTok، Amazon، IBM، Anthropicو Microsoftنیز می‌شوند، این همچنین شامل تلاش‌هایی برای افزایش آگاهی عمومی در مورد نحوه محافظت از خود در برابر دستکاری چنین محتوایی است.

 

با این توافق، 20 سازمان قول می‌دهند که هشت بیانیه ماموریت را رعایت کنند، از جمله تلاش برای شناسایی و جلوگیری از توزیع محتوای فریبنده هوش مصنوعی و ارائه شفافیت برای مردم در مورد نحوه پرداختن به این محتوا. آنها برای توسعه و پیاده سازی ابزارهایی برای شناسایی و مهار گسترش محتوا و همچنین ردیابی منشاء چنین محتواهایی با یکدیگر همکاری خواهند کرد.

 

این تلاش‌ها می‌تواند شامل توسعه طبقه‌بندی‌کننده‌ها یا روش‌ها و استانداردهای منشأ، مانند واترمارکینگ یا ابرداده امضا شده، و پیوست کردن اطلاعات قابل خواندن توسط ماشین به محتوای تولید شده توسط هوش مصنوعی باشد.

 

این هشت تعهد در مواردی که مربوط به خدماتی است که هر شرکت ارائه می دهد اعمال خواهد شد.

 

در توافقنامه فناوری آمده است: «2024 بیش از هر سالی در تاریخ انتخابات را برای افراد بیشتری به ارمغان می‌آورد و بیش از 40 کشور و بیش از چهار میلیارد نفر رهبران و نمایندگان خود را انتخاب می‌کنند». در عین حال، توسعه سریع هوش مصنوعی فرصت‌های جدید و همچنین چالش‌هایی را برای فرآیند دموکراتیک ایجاد می‌کند. همه جامعه باید به فرصت‌های فراهم‌شده توسط هوش مصنوعی متمایل شوند و با هم گام‌های جدیدی برای حفاظت از انتخابات و فرآیند انتخابات بردارند. در این سال استثنایی."

 

هدف این قرارداد تعیین انتظارات برای نحوه مدیریت ریسک‌های ناشی از محتوای انتخاباتی هوش مصنوعی فریبنده است که از طریق پلتفرم‌های عمومی یا مدل‌های پایه باز آن‌ها ایجاد می‌شود یا در پلتفرم‌های اجتماعی و انتشاراتی آنها توزیع می‌شود. اینها در راستای سیاست‌ها و رویه‌های خود امضاکنندگان است.

 

مدل‌ها یا دموهایی که برای اهداف تحقیقاتی یا عمدتاً برای استفاده سازمانی در نظر گرفته شده‌اند، تحت پوشش قرارداد نیستند.

 

امضاکنندگان اضافه کردند که می‌توان از هوش مصنوعی برای کمک به مدافعان برای مقابله با بازیگران بد و شناسایی سریع‌تر کمپین‌های فریبنده استفاده کرد. ابزارهای هوش مصنوعی همچنین می‌توانند هزینه کلی دفاع را به میزان قابل توجهی کاهش دهند و به سازمان‌های کوچکتر اجازه می دهند تا حفاظت های قوی را اجرا کنند.

 

امضا کنندگان: "ما متعهد هستیم که نقش خود را به عنوان شرکت های فناوری انجام دهیم، در حالی که اذعان داریم که استفاده فریبکارانه از هوش مصنوعی نه تنها یک چالش فنی، بلکه یک موضوع سیاسی، اجتماعی و اخلاقی است و امیدواریم دیگران نیز به طور مشابه در سراسر جامعه متعهد شوند." گفت. ما تأیید می کنیم که حفاظت از یکپارچگی انتخاباتی و اعتماد عمومی یک مسئولیت مشترک و یک خیر مشترک است که از منافع حزبی و مرزهای ملی فراتر می رود.»

 

کریستوف هوسگن، رئیس کنفرانس امنیتی مونیخ، گفت که این توافق "گامی مهم" در پیشبرد یکپارچگی انتخابات و انعطاف پذیری اجتماعی است. او گفت که این امر همچنین به ایجاد "روش های فناوری قابل اعتماد" کمک می کند.

 

بر اساس گزارش جهانی ریسک 2024 که ماه گذشته توسط مجمع جهانی اقتصاد (WEF) منتشر شد، خطرات مرتبط با اطلاعات نادرست مبتنی بر هوش مصنوعی در مورد انسجام اجتماعی بر چشم انداز امسال غالب خواهد شد. این گزارش اطلاعات نادرست و اطلاعات نادرست را به عنوان خطر اصلی جهانی در دو سال آینده فهرست می‌کند.


نوشته

 
fars sakha1
ایجاد شده در 12 اسفند 1402
بازدید 15

امتیاز

امتیاز شما
تعداد امتیازها: 1