شرکتهای فناوری مانند گوگل، متا و OpenAIتوافقنامهای امضا کردهاند تا محتوای فریبنده تولید شده توسط هوش مصنوعی را در سال 2024 فیلتر کنند.
گوگل، متا، اپنآی و ایکس (توئیتر سابق) از جمله 20 شرکت فناوری هستند که متعهد شدهاند محتوای جعلی تولید شده توسط هوش مصنوعی (AI) را به عنوان بخشی از تلاشها برای حفاظت در سال جاری، از بین ببرند.
گروهی از شرکتها در کنفرانس امنیتی مونیخ، توافقنامه فنی برای مبارزه با استفاده فریبنده از هوش مصنوعی را امضا کردند که «چارچوب داوطلبانه اصول و اقدامات» را در بر میگیرد که شامل پیشگیری، شناسایی، پاسخ، ارزیابی و شناسایی منبع فریب است. محتوای انتخاباتی هوش مصنوعی
بر اساس بیانیه مشترک منتشر شده توسط امضاکنندگان توافقنامه فناوری که شامل TikTok، Amazon، IBM، Anthropicو Microsoftنیز میشوند، این همچنین شامل تلاشهایی برای افزایش آگاهی عمومی در مورد نحوه محافظت از خود در برابر دستکاری چنین محتوایی است.
با این توافق، 20 سازمان قول میدهند که هشت بیانیه ماموریت را رعایت کنند، از جمله تلاش برای شناسایی و جلوگیری از توزیع محتوای فریبنده هوش مصنوعی و ارائه شفافیت برای مردم در مورد نحوه پرداختن به این محتوا. آنها برای توسعه و پیاده سازی ابزارهایی برای شناسایی و مهار گسترش محتوا و همچنین ردیابی منشاء چنین محتواهایی با یکدیگر همکاری خواهند کرد.
این تلاشها میتواند شامل توسعه طبقهبندیکنندهها یا روشها و استانداردهای منشأ، مانند واترمارکینگ یا ابرداده امضا شده، و پیوست کردن اطلاعات قابل خواندن توسط ماشین به محتوای تولید شده توسط هوش مصنوعی باشد.
این هشت تعهد در مواردی که مربوط به خدماتی است که هر شرکت ارائه می دهد اعمال خواهد شد.
در توافقنامه فناوری آمده است: «2024 بیش از هر سالی در تاریخ انتخابات را برای افراد بیشتری به ارمغان میآورد و بیش از 40 کشور و بیش از چهار میلیارد نفر رهبران و نمایندگان خود را انتخاب میکنند». در عین حال، توسعه سریع هوش مصنوعی فرصتهای جدید و همچنین چالشهایی را برای فرآیند دموکراتیک ایجاد میکند. همه جامعه باید به فرصتهای فراهمشده توسط هوش مصنوعی متمایل شوند و با هم گامهای جدیدی برای حفاظت از انتخابات و فرآیند انتخابات بردارند. در این سال استثنایی."
هدف این قرارداد تعیین انتظارات برای نحوه مدیریت ریسکهای ناشی از محتوای انتخاباتی هوش مصنوعی فریبنده است که از طریق پلتفرمهای عمومی یا مدلهای پایه باز آنها ایجاد میشود یا در پلتفرمهای اجتماعی و انتشاراتی آنها توزیع میشود. اینها در راستای سیاستها و رویههای خود امضاکنندگان است.
مدلها یا دموهایی که برای اهداف تحقیقاتی یا عمدتاً برای استفاده سازمانی در نظر گرفته شدهاند، تحت پوشش قرارداد نیستند.
امضاکنندگان اضافه کردند که میتوان از هوش مصنوعی برای کمک به مدافعان برای مقابله با بازیگران بد و شناسایی سریعتر کمپینهای فریبنده استفاده کرد. ابزارهای هوش مصنوعی همچنین میتوانند هزینه کلی دفاع را به میزان قابل توجهی کاهش دهند و به سازمانهای کوچکتر اجازه می دهند تا حفاظت های قوی را اجرا کنند.
امضا کنندگان: "ما متعهد هستیم که نقش خود را به عنوان شرکت های فناوری انجام دهیم، در حالی که اذعان داریم که استفاده فریبکارانه از هوش مصنوعی نه تنها یک چالش فنی، بلکه یک موضوع سیاسی، اجتماعی و اخلاقی است و امیدواریم دیگران نیز به طور مشابه در سراسر جامعه متعهد شوند." گفت. ما تأیید می کنیم که حفاظت از یکپارچگی انتخاباتی و اعتماد عمومی یک مسئولیت مشترک و یک خیر مشترک است که از منافع حزبی و مرزهای ملی فراتر می رود.»
کریستوف هوسگن، رئیس کنفرانس امنیتی مونیخ، گفت که این توافق "گامی مهم" در پیشبرد یکپارچگی انتخابات و انعطاف پذیری اجتماعی است. او گفت که این امر همچنین به ایجاد "روش های فناوری قابل اعتماد" کمک می کند.
بر اساس گزارش جهانی ریسک 2024 که ماه گذشته توسط مجمع جهانی اقتصاد (WEF) منتشر شد، خطرات مرتبط با اطلاعات نادرست مبتنی بر هوش مصنوعی در مورد انسجام اجتماعی بر چشم انداز امسال غالب خواهد شد. این گزارش اطلاعات نادرست و اطلاعات نادرست را به عنوان خطر اصلی جهانی در دو سال آینده فهرست میکند.