چگونگی تشخیص اخبار تولیدی هوش مصنوعی
اخبار جعلی از جمله دقیقترین محتوای تولید شده توسط هوش مصنوعی هستند و از آنجا که آنها اغلب محیطهای استودیوی خبری ایستا را به تصویر میکشند، تشخیص نشانههای معمول هوش مصنوعی، مانند حرکات دست ناشیانه یا پسزمینههای متناقض، دشوارتر است.
به گزارش سیتنا به نقل از دویچه وله، تشخیص اخبار تولیدشده توسط هوش مصنوعی سختتر شده است و اینگونه اخبار فیدهای شبکههای اجتماعی را پر کردهاند. در اینجا نحوه جلوگیری از افتادن در دام اخبار جعلی را مرور میکنیم.
در یکی از ویدیوهای تیکتاک، خبرنگاری جلوی یک صندوق پستی قرمز رنگ سنتی پست سلطنتی بریتانیا ایستاده است، پرچمهای بریتانیا در پسزمینه در اهتزاز هستند و میکروفونی در دست دارد. او از یک رهگذر زن میپرسد که قصد دارد در انتخابات آینده به چه کسی رأی دهد. زن پاسخ میدهد: «اصلاحات. فقط میخواهم دوباره احساس بریتانیایی بودن کنم.»
کاربری زیر این ویدیو نظر داده بود: «نمیدانم چقدر به او پول دادهاند تا این حرف را بزند.»
اما این صحنه هرگز اتفاق نیفتاده است. مصاحبه کاملاً جعلی است. این خبرنگار وجود ندارد. او توسط هوش مصنوعی تولید شده است و اگر با دقت نگاه کنید، یک سرنخ ظریف وجود دارد: یک علامت آبی کمرنگ در گوشه که کلمه "Veo" را دارد، امضای ابزار قدرتمند جدید تولید ویدیوی گوگل یعنی دیپمایند.
این ویدیوی هشت ثانیهای یک مورد منحصر به فرد نیست. از تیکتاک گرفته تا تلگرام، فیدهای خبری مملو از ویدیوهای تولید شده توسط هوش مصنوعی هستند که ظاهر و حس برنامههای خبری واقعی را تقلید میکنند. آنها زبان بصری ژورنالیسم را قرض میگیرند: گزارش میدانی، گرافیک روی صفحه و ارائهای معتبر. با این حال، آنها اغلب کاملاً ساختگی هستند و برای برانگیختن خشم، دستکاری افکار عمومی یا صرفاً وایرال شدن طراحی شدهاند.
هانی فرید، استاد دانشگاه برکلی کالیفرنیا و متخصص جرمشناسی دیجیتال، در این رابطه به دویچه وله میگوید: «اگر در شبکههای اجتماعی سریع اسکرول کنید، کاملا شبیه خبر است و این خطرناک است.»
خطرات واقعی اخبار جعلی
بسیاری از ویدیوهای مصنوعی مرز بین طنز و واقعیت را محو میکنند یا گمراهکننده هستند.
در مثالی دیگر (که آن هم یک کلیپ ۸ ثانیهای است)، یک خبرنگار در حال توصیف یک "کاروان نظامی بیسابقه" است که در مرکز لندن در حال حرکت است. او در مقابل یک تانک ایستاده و جمعیتی به او نگاه میکنند. با این حال، این ویدیو به هیچ رویداد، زمان یا زمینه خاصی اشاره نمیکند.
تیم راستیآزمایی دویچه وله بارها مشاهده کرده است که چگونه چنین کلیپهایی در مواقع بحرانی مانند شورشها یا رویدادهای خبری مهم، دوباره ظاهر میشوند و برای سردرگمی یا القای دروغین تشدید درگیریها مورد استفاده قرار میگیرند.
در جریان جنگ 12 روزه ایران و اسرائیل، تیکتاک و سایر پلتفرمها مملو از محتوای تولید شده توسط هوش مصنوعی در مورد جنگ شدند، از جمله اخبار جعلی که ادعاهای دروغین مطرح میکردند مانند ادعای پیوستن روسیه به جنگ، حمله ایران به ایالات متحده یا سرنگونی بمبافکنهای B-2 آمریکایی که در حمله به تأسیسات هستهای ایران استفاده شدند.
دویچه وله همچنین پس از وقوع اعتراضات علیه اداره مهاجرت ایالات متحده (ICE) در لسآنجلس در ماه ژوئن، شاهد افزایش کلیپهای خبری ساختگی بود.
عواقب چنین محتواهایی فراتر از شبکههای اجتماعی است.
در سال ۲۰۲۴، محققان تایوانی اخبار تولید شده توسط هوش مصنوعی را در پلتفرمهای محلی که به دروغ سیاستمداران طرفدار حاکمیت تایوان را به فساد متهم میکردند، شناسایی کردند. این کلیپها نه تنها اطلاعات نادرست را منتشر میکردند، بلکه باعث بیاعتمادی میشدند و اعتبار همه رسانههای خبری را پیش از انتخابات این کشور تضعیف میکردند.
اما برخی از کاربران برای تقلید یا ایجاد حس طنز به پخش اخبار با هوش مصنوعی روی میآورند. یکی از ویدیوهای پرطرفدار تیکتاک، گویندهای ساخته هوش مصنوعی را نشان میدهد که در حال گزارش دادن مقابل چالهای آنقدر عمیق است که موتورسیکلتها در آن ناپدید میشوند. دیگری آواتاری دارد که اعلام میکند: «من الان در مرز هستم اما جنگی وجود ندارد. مامان، بابا، این واقعی به نظر میرسد اما همهاش هوش مصنوعی است.»
چگونه یک خبر جعلی را تشخیص دهیم
چطور میتوانید تشخیص دهید چه چیزی واقعی است؟
با واترمارک شروع کنید. ابزارهایی مانند Veo، Synthesia و دیگر ابزارها اغلب ویدیوهای خود را با واترمارک مشخص میکنند، هرچند این برچسبها گاهی اوقات کمرنگ، بریده شده یا نادیده گرفته میشوند. حتی کلیپهای با واترمارک واضح نیز اغلب با نظراتی پر میشوند که میپرسند: «آیا این واقعی است؟»
اخبار جعلی از جمله دقیقترین محتوای تولید شده توسط هوش مصنوعی هستند. از آنجا که آنها اغلب محیطهای استودیوی خبری ایستا را به تصویر میکشند، تشخیص نشانههای معمول هوش مصنوعی، مانند حرکات دست ناشیانه یا پسزمینههای متناقض، دشوارتر است. اما سرنخهای ظریف باقی میمانند.
به چشمها و دهان دقت کنید. آواتارهای مصنوعی اغلب به طور غیرطبیعی پلک میزنند یا در همگامسازی واقعگرایانه حرکات لبها مشکل دارند. دندانها ممکن است بیش از حد صاف یا به طور غیرطبیعی براق به نظر برسند. شکل آنها حتی ممکن است در اواسط جمله تغییر کند. زبان بدن و حرکات صورت معمولاً بیش از حد یکنواخت و فاقد تنوع طبیعی انسانهای واقعی هستند.
همچنین متن میتواند یک سرنخ باشد. زیرنویسها یا بنرهای روی صفحه اغلب حاوی عبارات بیمعنی یا خطاهای تایپی هستند. برای نمونه در یک آگهی به اصطلاح "خبر فوری" اینگونه نوشته شده بود: «ایریای، تورد برای کوتیات ایفاییتیه، آن کیت موریلی برای مولیاتی اینستوتویو در ایسی.» روی میکروفون خبرنگار برچسب "The INFO Misisery" به چشم میخورد.
به گفته هانی فرید، چالش تشخیص محتوای مصنوعی یک هدف دستنیافتنی است.
این متخصص جرمشناسی دیجیتال میگوید: «هر آنچه امروز در مورد چگونگی تشخیص جعلیات هوش مصنوعی به شما بگویم، ممکن است شش ماه دیگر بیربط باشد.»
پس چه کاری میتوان انجام داد؟ به منابع معتبر پایبند باشید.
فرید میگوید: «اگر نمیخواهید به شما دروغ گفته شود، به رسانههای خبری معتبر مراجعه کنید.»
هوش مصنوعی به راحتی پول به دست میآورد
استفاده از مجریان هوش مصنوعی چیز جدیدی نیست. در سال ۲۰۱۸، خبرگزاری دولتی شینهوا در چین یک گوینده هوش مصنوعی رباتیک و باوقار را معرفی کرد. در آن زمان، این بیشتر کنجکاوی بود تا تهدید.
اما این فناوری به طرز چشمگیری تکامل یافته است. ابزارهایی مانند Veo اکنون به تقریباً هر کسی، بدون آموزش رسانهای، اجازه میدهند ویدیوهایی جذاب و به سبک پخش تلویزیونی تنها با چند صد یورو در ماه بسازند. آواتارها روان صحبت میکنند، واقعگرایانه حرکت میکنند و میتوانند تقریباً با چند پرامپ ساده در هر صحنهای قرار گیرند.
فرید میگوید: «موانع ورود به این عرصه عملاً از بین رفته است. شما به استودیو نیاز ندارید. حتی به فاکت هم نیازی ندارید.»
بیشتر این کلیپها برای حداکثر تعامل با کاربر طراحی شدهاند. آنها به موضوعات بسیار دوقطبی مانند مهاجرت، جنگ غزه، اوکراین و دونالد ترامپ میپردازند تا واکنشهای عاطفی قوی را برانگیزند و اشتراکگذاری را تشویق کنند.
پلتفرمهای شبکههای اجتماعی اغلب به این محتوا پاداش میدهند. به عنوان مثال، متا، اخیراً الگوریتم خود را طوری تنظیم کرده تا پستهای بیشتری از حسابهایی که کاربران دنبال نمیکنند را نمایش دهد و به این ترتیب دسترسی به مخاطبان گسترده و بیخبر را برای ویدیوهای ساختگی و جعلی آسانتر میکند. برنامههای کسب درآمد نیز سازندگان را بیشتر به استفاده از این ابزار تشویق میکند، هرچه یک ویدیو بازدید بیشتری داشته باشد، میتواند پول بیشتری تولید کند.
این محیط باعث ایجاد نسل جدیدی از سازندگان "AI slop" یا محتوای ناخواسته ساختهشده توسط هوش مصنوعی شده است: کاربرانی که محتوای مصنوعی بیکیفیت مرتبط با موضوعات پرطرفدار را فقط برای جذب بازدید تولید میکنند.
حسابهای کاربری شبیه به این، با حدود ۴۴ هزار دنبالکننده، اغلب قبل از اینکه روزنامهنگاران بتوانند واقعیتها را تأیید کنند، به انتشار اخبار فوری میشتابند. در جریان یک سانحه هوایی اخیر، دهها ویدیوی تیکتاک، آواتارهای هوش مصنوعی را نشان میدادند که لباس خبرنگاران CNN یا BBC را پوشیده بودند و تعداد تلفات جعلی و روایتهای ساختگی از شاهدان عینی را پخش میکردند. بسیاری از آنها ساعتها آنلاین ماندند تا اینکه حذف شدند.
در لحظات وقوع اخبار فوری، زمانی که کاربران به طور فعال به دنبال اطلاعات هستند، محتوای هوش مصنوعی با ظاهری واقعگرایانه به روشی بسیار مؤثر برای جذب کلیک و جلب توجه عمومی تبدیل میشود.
فرید به دویچه وله میگوید: «پلتفرمها از مدیریت محتوا فاصله گرفتهاند. این یک طوفان کامل است. من میتوانم محتوا را تولید کنم، میتوانم آن را توزیع کنم و مخاطبانی هستند که مایل به باور آن هستند.»
انتهای پیام
افزودن دیدگاه جدید