کدخبر :327113 پرینت
30 مهر 1404 - 19:16

خطای ۴۵ درصدی دستیارهای هوش مصنوعی در پاسخ به اخبار

یک پژوهش بین‌المللی به سرپرستی بی‌بی‌سی جهانی و هماهنگی اتحادیه پخش‌ اروپا (یی‌بی‌یو) با مشارکت ۲۲سازمان رسانه‌ای از ۱۸ کشور و در ۱۴ زبان نشان داد که دستیارهای هوش مصنوعی تقریبا در نیمی از پاسخ‌های خود درباره اخبار، اطلاعات نادرست یا گمراه‌کننده ارائه می‌دهند.

متن خبر

به گزارش سیتنا، بی‌بی‌سی گزارش داد متخصصان خبری بیش از سه هزار پاسخ‌ تولیدشده از چهار دستیار محبوب هوش مصنوعی چت جی‌پی‌تی، کوپایلت، جمینای و پرپلکسیتی را بر اساس معیارهایی نظیر صحت، منابع و تفکیک بین نظر و واقعیت ارزیابی کردند.

بر اساس نتایج، ۴۵ درصد از پاسخ‌ها دست‌کم یک مشکل مهم داشتند.

در ۳۱ درصد موارد مشکلات جدی در ارجاع‌دهی مشاهده شد: منابع یا ذکر نشده بودند یا گمراه‌کننده و نادرست بودند.

همچنین ۲۰ درصد پاسخ‌ها دچار ایرادهای عمده در دقت اطلاعات، از جمله جزییات ساختگی و اطلاعات منسوخ شده بودند.

در این میان، جمینای با ۷۶ درصد خطا، ضعیف‌ترین عملکرد را داشت.

اهمیت اعتماد عمومی

محققان هشدار می‌دهند که با گسترش استفاده از دستیارهای هوش مصنوعی به‌عنوان مسیر دریافت اخبار، خطر پخش اطلاعات نادرست و تضعیف اعتماد عمومی افزایش می‌یابد.

بر پایه گزارش سالانه موسسه رویترز، هفت درصد از کل خبر‌خوانان آنلاین از دستیاران هوش مصنوعی استفاده می‌کنند.

این نسبت برای جوانان زیر ۲۵ سال به ۱۵ درصد افزایش می‌یابد.

ژان فیلیپ دو تندر، مدیر رسانه‌ای و معاون دبیرکل یی‌بی‌یو، با تاکید بر این نکته که خطاها «سیستماتیک، فراملی و چند زبانی» هستند، گفت: «این وضعیت می‌تواند اعتماد مردم را تضعیف کند و مشارکت دموکراتیک را تحت تاثیر قرار دهد.»

بی‌بی‌سی در تحقیقی جداگانه دریافت بسیاری از مردم به دقت خلاصه‌های خبری هوش مصنوعی اعتماد دارند.

در بریتانیا حدود یک سوم بزرگسالان کاملا به این ابزارها اعتماد دارند. این میزان برای افراد زیر ۳۵ سال تقریبا به نصف می‌رسد.

پیشنهادها و راه‌کارها

تیم تحقیق با هدف جلوگیری از پخش اطلاعات نادرست «جعبه‌ابزار راستی‌آزمایی دستیاران هوش مصنوعی» منتشر کرده است.

این جعبه‌ابزار شامل نمونه‌هایی از خطاها، راهکارهای اصلاح و رهنمودهایی برای خبرنگاران و توسعه‌دهندگان است.

علاوه بر این، اتحادیه پخش‌ اروپایی از ناظران ملی و اتحادیه‌ای خواست تا قوانین مربوط به سلامت اطلاعات و خدمات دیجیتال را اجرا کنند و بر لزوم نظارت مستقل و مداوم بر دستیاران هوش مصنوعی تاکید کرد.

این پژوهش در پایان تاکید کرده است خطاهای موجود در دستیارهای هوش مصنوعی، «سیستماتیک و فراگیر» است و تنها با همکاری نزدیک رسانه‌ها، نهادهای ناظر و شرکت‌های فناوری می‌توان از گسترش اطلاعات نادرست جلوگیری کرد.

انتهای پیام

نظرات خود را با ما درمیان بگذارید

افزودن دیدگاه جدید

کپچا
CAPTCHA ی تصویری
کاراکترهای نمایش داده شده در تصویر را وارد کنید.