‫ اطلاعات نادرست مبتنی بر هوش مصنوعی بزرگترین خطر جهانی است

سه میلیارد شهروند طی دو سال آینده پای صندوق‌های رای خواهند رفت. این افراد باید در برابر اطلاعات نادرست و اطلاعات نادرست تولید شده توسط هوش مصنوعی محافظت شوند.

 

با توجه به اینکه انتظار می رود بسیاری از کشورها در طی دو سال آینده انتخابات برگزار کنند، استفاده از اطلاعات نادرست و اطلاعات نادرست - با قدرت هوش مصنوعی (AI) - شدیدترین خطر جهانی خواهد بود.

 

بر اساس گزارش جهانی ریسک 2024 که توسط مجمع جهانی اقتصاد (WEF) منتشر شد، از آنجایی که شهروندان همچنان نگران افزایش هزینه زندگی هستند، خطرات مرتبط با اطلاعات نادرست مبتنی بر هوش مصنوعی در مورد انسجام اجتماعی بر چشم انداز امسال غالب خواهد شد.

 

در این دوره زمانی، اطلاعات نادرست و اطلاعات نادرست به عنوان خطر اصلی جهانی ظاهر می‌شود و به دنبال آن رویدادهای شدید آب و هوایی و قطبی شدن جامعه رخ می‌دهد. سپس این گزارش ناامنی سایبری و درگیری‌های مسلحانه بین‌دولتی را رتبه‌بندی می‌کند تا پنج خطر بزرگ جهانی را جمع‌آوری کند.

 

اطلاعات نادرست و اطلاعات درست به عنوان بالاترین خطر در هند، در حالی که در رتبه ششم بالاترین خطر در ایالات متحده و هشتمین در اتحادیه اروپا قرار دارد.

 

WEFخاطرنشان می کند که قابلیت‌های مخرب اطلاعات دستکاری شده به سرعت در حال افزایش است. این قابلیت‌ها با دسترسی آزاد به فن‌آوری‌های پیشرفته‌تر و بدتر شدن اعتماد به اطلاعات و مؤسسات تقویت می‌شوند.

 

WEFگفت که طی دو سال آینده، مجموعه گسترده ای از بازیگران بر انفجار محتوای ترکیبی، تشدید شکاف‌های اجتماعی، خشونت ایدئولوژیک و سرکوب سیاسی سرمایه گذاری خواهند کرد.

 

در حالی که تقریباً سه میلیارد شهروند از جمله در هند، اندونزی، ایالات متحده و بریتانیا به پای صندوق‌های رای می‌روند، استفاده گسترده از اطلاعات نادرست و اطلاعات درست، و همچنین ابزارهای انتشار آن، می‌تواند مشروعیت دولت‌های جدید را تضعیف کند.

 

WEFخاطرنشان کرد که دیگر نیازی به مجموعه مهارت‌های طاقچه برای دسترسی به ابزارهایی با رابط های کاربر پسند و مدل‌های هوش مصنوعی در مقیاس بزرگ نیست. این دسترسی قبلاً منجر به انفجاری در اطلاعات جعلی و محتوای "مصنوعی" مانند شبیه سازی صوتی پیچیده و وب سایت های تقلبی شده است.

 

در این بیانیه آمده است: «محتوای مصنوعی در دو سال آینده افراد را دستکاری می‌کند، به اقتصادها آسیب می‌زند و جوامع را از هم می‌پاشد». «اطلاعات جعلی می‌تواند در تعقیب اهداف مختلف، از فعالیت‌های اقلیمی تا تشدید درگیری، به کار گرفته شود».

 

WEFافزود، طبقات جدیدی از جنایات، مانند هرزه‌نگاری عمیق جعلی بدون توافق یا دستکاری در بازار سهام، نیز افزایش خواهند یافت.این سازمان غیردولتی هشدار داد که همه این مشکلات ممکن است به اعتراضات خشونت آمیز، جنایات ناشی از نفرت، درگیری های داخلی و تروریسم منجر شود.

 

برای مبارزه با خطرات اطلاعات تولید شده توسط هوش مصنوعی، برخی از کشورها از قبل شروع به استقرار مقررات جدید و در حال تکاملی کرده اند که میزبان ها و سازندگان اطلاعات آنلاین و محتوای غیرقانونی را هدف قرار می دهد.

 

مقررات نوپای هوش مصنوعی مولد نیز احتمالاً مکمل چنین تلاش‌هایی است، و به الزامات چین برای علامت گذاری محتوای تولید شده توسط هوش مصنوعی به عنوان نمونه اشاره کرد. چنین قوانینی ممکن است به شناسایی اطلاعات نادرست، از جمله اطلاعات نادرست ناخواسته از طریق محتوای توهم‌آمیز هوش مصنوعی کمک کند.

 

WEFگفت، با این حال، به طور کلی، سرعت و اثربخشی مقررات بعید است با سرعت توسعه مطابقت داشته باشد.اشاره می‌کند که پیشرفت‌های تکنولوژیکی اخیر حجم، دسترسی و کارایی اطلاعات جعلی را افزایش داده است، با جریان‌هایی که ردیابی، نسبت دادن و کنترل آن‌ها دشوارتر است. شرکت‌های رسانه‌های اجتماعی که برای اطمینان از یکپارچگی پلت‌فرم کار می‌کنند نیز احتمالاً به دلیل کمپین‌های همپوشانی متعدد تحت تأثیر قرار خواهند گرفت.

 

علاوه بر این، اطلاعات نادرست به طور فزاینده‌ای برای گیرندگانش شخصی‌سازی می‌شود و گروه‌های خاصی مانند جوامع اقلیت را هدف قرار می‌دهد و از طریق پلت‌فرم‌های پیام‌رسان غیرشفاف‌تر مانند واتس‌اپ یا وی چت منتشر می‌شود.

 

WEFهمچنین خاطرنشان می کند که تشخیص بین محتوای تولید شده توسط هوش مصنوعی و تولید شده توسط انسان به طور فزاینده ای دشوار است، حتی برای مکانیسم های تشخیص و افراد آگاه به فناوری. با این حال، برخی از کشورها در تلاش برای مقابله با این چالش هستند.

 

منبع

زدنت