کدخبر :322066 پرینت
18 تیر 1404 - 09:47

چگونگی تشخیص اخبار تولیدی هوش مصنوعی

اخبار جعلی از جمله دقیق‌ترین محتوای تولید شده توسط هوش مصنوعی هستند و از آنجا که آنها اغلب محیط‌های استودیوی خبری ایستا را به تصویر می‌کشند، تشخیص نشانه‌های معمول هوش مصنوعی، مانند حرکات دست ناشیانه یا پس‌زمینه‌های متناقض، دشوارتر است.

متن خبر

به گزارش سیتنا به نقل از دویچه وله، تشخیص اخبار تولیدشده توسط هوش مصنوعی سخت‌تر شده است و اینگونه اخبار فید‌های شبکه‌های اجتماعی را پر کرده‌اند. در اینجا نحوه جلوگیری از افتادن در دام اخبار جعلی را مرور می‌کنیم.

در یکی از ویدیوهای تیک‌تاک، خبرنگاری جلوی یک صندوق پستی قرمز رنگ سنتی پست سلطنتی بریتانیا ایستاده است، پرچم‌های بریتانیا در پس‌زمینه در اهتزاز هستند و میکروفونی در دست دارد. او از یک رهگذر زن می‌پرسد که قصد دارد در انتخابات آینده به چه کسی رأی دهد. زن پاسخ می‌دهد: «اصلاحات. فقط می‌خواهم دوباره احساس بریتانیایی بودن کنم.»

کاربری زیر این ویدیو نظر داده بود: «نمی‌دانم چقدر به او پول داده‌اند تا این حرف را بزند.»

اما این صحنه هرگز اتفاق نیفتاده است. مصاحبه کاملاً جعلی است. این خبرنگار وجود ندارد. او توسط هوش مصنوعی تولید شده است و اگر با دقت نگاه کنید، یک سرنخ ظریف وجود دارد: یک علامت آبی کمرنگ در گوشه که کلمه "Veo" را دارد، امضای ابزار قدرتمند جدید تولید ویدیوی گوگل یعنی دیپ‌مایند.

این ویدیوی هشت ثانیه‌ای یک مورد منحصر به فرد نیست. از تیک‌تاک گرفته تا تلگرام، فیدهای خبری مملو از ویدیوهای تولید شده توسط هوش مصنوعی هستند که ظاهر و حس برنامه‌های خبری واقعی را تقلید می‌کنند. آنها زبان بصری ژورنالیسم را قرض می‌گیرند: گزارش میدانی، گرافیک روی صفحه و ارائه‌ای معتبر. با این حال، آنها اغلب کاملاً ساختگی هستند و برای برانگیختن خشم، دستکاری افکار عمومی یا صرفاً وایرال شدن طراحی شده‌اند.

هانی فرید، استاد دانشگاه برکلی کالیفرنیا و متخصص جرم‌شناسی دیجیتال، در این رابطه به دویچه وله می‌گوید: «اگر در شبکه‌های اجتماعی سریع اسکرول کنید، کاملا شبیه خبر است و این خطرناک است.»

خطرات واقعی اخبار جعلی

بسیاری از ویدیوهای مصنوعی مرز بین طنز و واقعیت را محو می‌کنند یا گمراه‌کننده هستند.

در مثالی دیگر (که آن هم یک کلیپ ۸ ثانیه‌ای است)، یک خبرنگار در حال توصیف یک "کاروان نظامی بی‌سابقه" است که در مرکز لندن در حال حرکت است. او در مقابل یک تانک ایستاده و جمعیتی به او نگاه می‌کنند. با این حال، این ویدیو به هیچ رویداد، زمان یا زمینه خاصی اشاره نمی‌کند.

تیم راستی‌آزمایی دویچه وله بارها مشاهده کرده است که چگونه چنین کلیپ‌هایی در مواقع بحرانی مانند شورش‌ها یا رویدادهای خبری مهم، دوباره ظاهر می‌شوند و برای سردرگمی یا القای دروغین تشدید درگیری‌ها مورد استفاده قرار می‌گیرند.

در جریان جنگ 12 روزه ایران و اسرائیل، تیک‌تاک و سایر پلتفرم‌ها مملو از محتوای تولید شده توسط هوش مصنوعی در مورد جنگ شدند، از جمله اخبار جعلی که ادعاهای دروغین مطرح می‌کردند مانند ادعای پیوستن روسیه به جنگ، حمله ایران به ایالات متحده یا سرنگونی بمب‌افکن‌های B-2 آمریکایی که در حمله به تأسیسات هسته‌ای ایران استفاده شدند.

دویچه وله همچنین پس از وقوع اعتراضات علیه اداره مهاجرت ایالات متحده (ICE) در لس‌آنجلس در ماه ژوئن، شاهد افزایش کلیپ‌های خبری ساختگی بود.

عواقب چنین محتواهایی فراتر از شبکه‌های اجتماعی است.

در سال ۲۰۲۴، محققان تایوانی اخبار تولید شده توسط هوش مصنوعی را در پلتفرم‌های محلی که به دروغ سیاستمداران طرفدار حاکمیت تایوان را به فساد متهم می‌کردند، شناسایی کردند. این کلیپ‌ها نه تنها اطلاعات نادرست را منتشر می‌کردند، بلکه باعث بی‌اعتمادی می‌شدند و اعتبار همه رسانه‌های خبری را پیش از انتخابات این کشور تضعیف می‌کردند.

اما برخی از کاربران برای تقلید یا ایجاد حس طنز به پخش اخبار با هوش مصنوعی روی می‌آورند. یکی از ویدیوهای پرطرفدار تیک‌تاک، گوینده‌ای ساخته هوش مصنوعی را نشان می‌دهد که در حال گزارش دادن مقابل چاله‌ای آنقدر عمیق است که موتورسیکلت‌ها در آن ناپدید می‌شوند. دیگری آواتاری دارد که اعلام می‌کند: «من الان در مرز هستم اما جنگی وجود ندارد. مامان، بابا، این واقعی به نظر می‌رسد اما همه‌اش هوش مصنوعی است.»

چگونه یک خبر جعلی را تشخیص دهیم

چطور می‌توانید تشخیص دهید چه چیزی واقعی است؟

با واترمارک شروع کنید. ابزارهایی مانند Veo، Synthesia و دیگر ابزارها اغلب ویدیوهای خود را با واترمارک مشخص می‌کنند، هرچند این برچسب‌ها گاهی اوقات کم‌رنگ، بریده شده یا نادیده گرفته می‌شوند. حتی کلیپ‌های با واترمارک واضح نیز اغلب با نظراتی پر می‌شوند که می‌پرسند: «آیا این واقعی است؟»

اخبار جعلی از جمله دقیق‌ترین محتوای تولید شده توسط هوش مصنوعی هستند. از آنجا که آنها اغلب محیط‌های استودیوی خبری ایستا را به تصویر می‌کشند، تشخیص نشانه‌های معمول هوش مصنوعی، مانند حرکات دست ناشیانه یا پس‌زمینه‌های متناقض، دشوارتر است. اما سرنخ‌های ظریف باقی می‌مانند.

به چشم‌ها و دهان دقت کنید. آواتارهای مصنوعی اغلب به طور غیرطبیعی پلک می‌زنند یا در همگام‌سازی واقع‌گرایانه حرکات لب‌ها مشکل دارند. دندان‌ها ممکن است بیش از حد صاف یا به طور غیرطبیعی براق به نظر برسند. شکل آنها حتی ممکن است در اواسط جمله تغییر کند. زبان بدن و حرکات صورت معمولاً بیش از حد یکنواخت و فاقد تنوع طبیعی انسان‌های واقعی هستند.

همچنین متن می‌تواند یک سرنخ باشد. زیرنویس‌ها یا بنرهای روی صفحه اغلب حاوی عبارات بی‌معنی یا خطاهای تایپی هستند. برای نمونه در یک آگهی به اصطلاح "خبر فوری" اینگونه نوشته شده بود: «ایریای، تورد برای کوتیات ایفاییتیه، آن کیت موریلی برای مولیاتی اینستوتویو در ایسی.» روی میکروفون خبرنگار برچسب "The INFO Misisery" به چشم می‌خورد.

به گفته هانی فرید، چالش تشخیص محتوای مصنوعی یک هدف دست‌نیافتنی است.

این متخصص جرم‌شناسی دیجیتال می‌گوید: «هر آنچه امروز در مورد چگونگی تشخیص جعلیات هوش مصنوعی به شما بگویم، ممکن است شش ماه دیگر بی‌ربط باشد.»

پس چه کاری می‌توان انجام داد؟ به منابع معتبر پایبند باشید.

فرید می‌گوید: «اگر نمی‌خواهید به شما دروغ گفته شود، به رسانه‌های خبری معتبر مراجعه کنید.»

هوش مصنوعی به راحتی پول به دست می‌آورد

استفاده از مجریان هوش مصنوعی چیز جدیدی نیست. در سال ۲۰۱۸، خبرگزاری دولتی شینهوا در چین یک گوینده هوش مصنوعی رباتیک و باوقار را معرفی کرد. در آن زمان، این بیشتر کنجکاوی بود تا تهدید.

اما این فناوری به طرز چشمگیری تکامل یافته است. ابزارهایی مانند Veo اکنون به تقریباً هر کسی، بدون آموزش رسانه‌ای، اجازه می‌دهند ویدیوهایی جذاب و به سبک پخش تلویزیونی تنها با چند صد یورو در ماه بسازند. آواتارها روان صحبت می‌کنند، واقع‌گرایانه حرکت می‌کنند و می‌توانند تقریباً با چند پرامپ ساده در هر صحنه‌ای قرار گیرند.

فرید می‌گوید: «موانع ورود به این عرصه عملاً از بین رفته است. شما به استودیو نیاز ندارید. حتی به فاکت هم نیازی ندارید.»

بیشتر این کلیپ‌ها برای حداکثر تعامل با کاربر طراحی شده‌اند. آن‌ها به موضوعات بسیار دوقطبی مانند مهاجرت، جنگ غزه، اوکراین و دونالد ترامپ می‌پردازند تا واکنش‌های عاطفی قوی را برانگیزند و اشتراک‌گذاری را تشویق کنند.

پلتفرم‌های شبکه‌های اجتماعی اغلب به این محتوا پاداش می‌دهند. به عنوان مثال، متا، اخیراً الگوریتم خود را طوری تنظیم کرده تا پست‌های بیشتری از حساب‌هایی که کاربران دنبال نمی‌کنند را نمایش دهد و به این ترتیب دسترسی به مخاطبان گسترده و بی‌خبر را برای ویدیوهای ساختگی و جعلی آسان‌تر می‌کند. برنامه‌های کسب درآمد نیز سازندگان را بیشتر به استفاده از این ابزار تشویق می‌کند، هرچه یک ویدیو بازدید بیشتری داشته باشد، می‌تواند پول بیشتری تولید کند.

این محیط باعث ایجاد نسل جدیدی از سازندگان "AI slop" یا محتوای ناخواسته ساخته‌شده توسط هوش مصنوعی شده است: کاربرانی که محتوای مصنوعی بی‌کیفیت مرتبط با موضوعات پرطرفدار را فقط برای جذب بازدید تولید می‌کنند.

حساب‌های کاربری شبیه به این، با حدود ۴۴ هزار دنبال‌کننده، اغلب قبل از اینکه روزنامه‌نگاران بتوانند واقعیت‌ها را تأیید کنند، به انتشار اخبار فوری می‌شتابند. در جریان یک سانحه هوایی اخیر، ده‌ها ویدیوی تیک‌تاک، آواتارهای هوش مصنوعی را نشان می‌دادند که لباس خبرنگاران CNN یا BBC را پوشیده بودند و تعداد تلفات جعلی و روایت‌های ساختگی از شاهدان عینی را پخش می‌کردند. بسیاری از آنها ساعت‌ها آنلاین ماندند تا اینکه حذف شدند.

در لحظات وقوع اخبار فوری، زمانی که کاربران به طور فعال به دنبال اطلاعات هستند، محتوای هوش مصنوعی با ظاهری واقع‌گرایانه به روشی بسیار مؤثر برای جذب کلیک و جلب توجه عمومی تبدیل می‌شود.

فرید به دویچه وله می‌گوید: «پلتفرم‌ها از مدیریت محتوا فاصله گرفته‌اند. این یک طوفان کامل است. من می‌توانم محتوا را تولید کنم، می‌توانم آن را توزیع کنم و مخاطبانی هستند که مایل به باور آن هستند.»

انتهای پیام

نظرات خود را با ما درمیان بگذارید

افزودن دیدگاه جدید

کپچا
CAPTCHA ی تصویری
کاراکترهای نمایش داده شده در تصویر را وارد کنید.