سه میلیارد شهروند طی دو سال آینده پای صندوقهای رای خواهند رفت. این افراد باید در برابر اطلاعات نادرست و اطلاعات نادرست تولید شده توسط هوش مصنوعی محافظت شوند.
با توجه به اینکه انتظار می رود بسیاری از کشورها در طی دو سال آینده انتخابات برگزار کنند، استفاده از اطلاعات نادرست و اطلاعات نادرست - با قدرت هوش مصنوعی (AI) - شدیدترین خطر جهانی خواهد بود.
بر اساس گزارش جهانی ریسک 2024 که توسط مجمع جهانی اقتصاد (WEF) منتشر شد، از آنجایی که شهروندان همچنان نگران افزایش هزینه زندگی هستند، خطرات مرتبط با اطلاعات نادرست مبتنی بر هوش مصنوعی در مورد انسجام اجتماعی بر چشم انداز امسال غالب خواهد شد.
در این دوره زمانی، اطلاعات نادرست و اطلاعات نادرست به عنوان خطر اصلی جهانی ظاهر میشود و به دنبال آن رویدادهای شدید آب و هوایی و قطبی شدن جامعه رخ میدهد. سپس این گزارش ناامنی سایبری و درگیریهای مسلحانه بیندولتی را رتبهبندی میکند تا پنج خطر بزرگ جهانی را جمعآوری کند.
اطلاعات نادرست و اطلاعات درست به عنوان بالاترین خطر در هند، در حالی که در رتبه ششم بالاترین خطر در ایالات متحده و هشتمین در اتحادیه اروپا قرار دارد.
WEFخاطرنشان می کند که قابلیتهای مخرب اطلاعات دستکاری شده به سرعت در حال افزایش است. این قابلیتها با دسترسی آزاد به فنآوریهای پیشرفتهتر و بدتر شدن اعتماد به اطلاعات و مؤسسات تقویت میشوند.
WEFگفت که طی دو سال آینده، مجموعه گسترده ای از بازیگران بر انفجار محتوای ترکیبی، تشدید شکافهای اجتماعی، خشونت ایدئولوژیک و سرکوب سیاسی سرمایه گذاری خواهند کرد.
در حالی که تقریباً سه میلیارد شهروند از جمله در هند، اندونزی، ایالات متحده و بریتانیا به پای صندوقهای رای میروند، استفاده گسترده از اطلاعات نادرست و اطلاعات درست، و همچنین ابزارهای انتشار آن، میتواند مشروعیت دولتهای جدید را تضعیف کند.
WEFخاطرنشان کرد که دیگر نیازی به مجموعه مهارتهای طاقچه برای دسترسی به ابزارهایی با رابط های کاربر پسند و مدلهای هوش مصنوعی در مقیاس بزرگ نیست. این دسترسی قبلاً منجر به انفجاری در اطلاعات جعلی و محتوای "مصنوعی" مانند شبیه سازی صوتی پیچیده و وب سایت های تقلبی شده است.
در این بیانیه آمده است: «محتوای مصنوعی در دو سال آینده افراد را دستکاری میکند، به اقتصادها آسیب میزند و جوامع را از هم میپاشد». «اطلاعات جعلی میتواند در تعقیب اهداف مختلف، از فعالیتهای اقلیمی تا تشدید درگیری، به کار گرفته شود».
WEFافزود، طبقات جدیدی از جنایات، مانند هرزهنگاری عمیق جعلی بدون توافق یا دستکاری در بازار سهام، نیز افزایش خواهند یافت.این سازمان غیردولتی هشدار داد که همه این مشکلات ممکن است به اعتراضات خشونت آمیز، جنایات ناشی از نفرت، درگیری های داخلی و تروریسم منجر شود.
برای مبارزه با خطرات اطلاعات تولید شده توسط هوش مصنوعی، برخی از کشورها از قبل شروع به استقرار مقررات جدید و در حال تکاملی کرده اند که میزبان ها و سازندگان اطلاعات آنلاین و محتوای غیرقانونی را هدف قرار می دهد.
مقررات نوپای هوش مصنوعی مولد نیز احتمالاً مکمل چنین تلاشهایی است، و به الزامات چین برای علامت گذاری محتوای تولید شده توسط هوش مصنوعی به عنوان نمونه اشاره کرد. چنین قوانینی ممکن است به شناسایی اطلاعات نادرست، از جمله اطلاعات نادرست ناخواسته از طریق محتوای توهمآمیز هوش مصنوعی کمک کند.
WEFگفت، با این حال، به طور کلی، سرعت و اثربخشی مقررات بعید است با سرعت توسعه مطابقت داشته باشد.اشاره میکند که پیشرفتهای تکنولوژیکی اخیر حجم، دسترسی و کارایی اطلاعات جعلی را افزایش داده است، با جریانهایی که ردیابی، نسبت دادن و کنترل آنها دشوارتر است. شرکتهای رسانههای اجتماعی که برای اطمینان از یکپارچگی پلتفرم کار میکنند نیز احتمالاً به دلیل کمپینهای همپوشانی متعدد تحت تأثیر قرار خواهند گرفت.
علاوه بر این، اطلاعات نادرست به طور فزایندهای برای گیرندگانش شخصیسازی میشود و گروههای خاصی مانند جوامع اقلیت را هدف قرار میدهد و از طریق پلتفرمهای پیامرسان غیرشفافتر مانند واتساپ یا وی چت منتشر میشود.
WEFهمچنین خاطرنشان می کند که تشخیص بین محتوای تولید شده توسط هوش مصنوعی و تولید شده توسط انسان به طور فزاینده ای دشوار است، حتی برای مکانیسم های تشخیص و افراد آگاه به فناوری. با این حال، برخی از کشورها در تلاش برای مقابله با این چالش هستند.
منبع
زدنت