به گزارش سیتنا، گزارشها و تحلیلهای جدید نشان میدهد که هوش مصنوعی، علاوه بر کاربردهای گسترده در حوزههای علمی، اقتصادی و اجتماعی، میتواند به ابزاری خطرناک در دست گروههای افراطگرا تبدیل شود. این گروهها با استفاده از فناوریهایی مانند تولید متن، تصویر و ویدئوی جعلی (دیپفیک)، قادرند پیامهای ایدئولوژیک خود را حرفهایتر، سریعتر و هدفمندتر منتشر کنند.
کارشناسان میگویند الگوریتمهای هوش مصنوعی میتوانند برای شناسایی افراد مستعد افراطگرایی در شبکههای اجتماعی، شخصیسازی پیامهای تبلیغاتی و حتی آموزشهای مجازی مورد استفاده قرار گیرند. همچنین تولید محتوای جعلی اما باورپذیر، امکان انتشار اخبار نادرست و تحریک احساسات عمومی را افزایش داده است.
در همین حال، نهادهای امنیتی و شرکتهای فناوری با چالشی جدی روبهرو هستند؛ از یک سو توسعه هوش مصنوعی برای پیشرفت جوامع ضروری است و از سوی دیگر، نبود چارچوبهای نظارتی دقیق میتواند زمینه سوءاستفاده افراطگرایان را فراهم کند.
برخی دولتها و پلتفرمهای بزرگ دیجیتال اعلام کردهاند در حال تقویت سیستمهای نظارتی و شناسایی محتوای افراطی مبتنی بر هوش مصنوعی هستند.
با این حال، تحلیلگران تأکید میکنند مقابله با این تهدید صرفاً فنی نیست و نیازمند همکاری بینالمللی، آموزش عمومی و تدوین قوانین شفاف است.
به باور آنان، آینده هوش مصنوعی به نحوه مدیریت امروز آن بستگی دارد؛ فناوریای که میتواند هم در خدمت امنیت و آگاهی باشد و هم، در صورت غفلت، به ابزار تازهای برای افراطگرایی تبدیل شود.
انتهای پیام