کد مطلب: 

288602

یک نهاد ناظر بر رسانه‌ها: شرکت‌های آلفابت، متا و ایکس، فضای آنلاین را سمی کرده‌اند

یک نهاد ناظر بر رسانه‌ها هشدار داد که شرکت‌های آلفابت، متا و ایکس که دست‌‌اندر کار پلت‌فرم‌های اجتماعی بزرگ در دنیا هستند، با اخراج گسترده کارکنان ناظر بر محتوا و کنار گذاشتن سیاست‌های ایمنی در این شبکه‌ها، موجب ایجاد محیطی سمی در فضای آنلاین شده‌اند.
یک نهاد ناظر بر رسانه‌ها: شرکت‌های آلفابت، متا و ایکس موجب ایجاد محیطی سمی در فضای آنلاین شده‌اند

به گزارش سرویس بین الملل سیتنا، مطالعه جدید یک نهاد ناظر بر رسانه‌ها نشان می‌دهد که سال گذشته شرکت‌های آلفابت، متا و ایکس دست‌کم ۱۷ دستورالعمل تاثیرگذار بر سیاست‌های محتوایی خود را کنار گذاشته‌اند.

این مطالعه با اشاره به اخراج بیش از ۴۰ هزار نفر از کارمندان این مجموعه‌ها، این رویداد را موجب تهدید سلامت و امنیت پلتفرم‌های یاد شده توصیف کرده است.

بررسی سازمان غیرانتفاعی «فری پرس» (Free Press) تاکید می‌کند وضعیت بسیار بد انتشار محتوای جعلی، نفرت‌آمیز و خشونت‌بار در پلتفرم‌های رسانه اجتماعی در حال بدتر شدن است.

کارشناسان می‌گویند این موضوع با توجه به انتخابات سال ۲۰۲۴ ایالات متحده می‌تواند دموکراسی و حیات شهروندان را به هرج و مرج بکشاند.

این مطالعه همچنین با انتقاد از مدیران پلتفرم‌های بزرگ رسانه اجتماعی مانند مارک زاکربرگ و ایلان ماسک، برخی تصمیم‌های آنان را بی‌پروا و با هدف افزایش سود و کاهش پاسخ‌گویی دانسته است.

کارشناسان با اشاره به برخی تغییرات در سیاست‌های رسانه‌های اجتماعی که به منظور حفاظت از انتخابات وضع شده بودند، عقب‌گرد پلتفرم‌ها در این زمینه را «حیرت‌انگیز» توصیف کرده‌اند. بسیاری از سیاست‌های مورد اشاره، پس از یورش عده‌ای به کاخ کنگره ایالات متحده که در پی انتخابات ریاست جمهوری سال ۲۰۲۰ رخ داد، به اجرا درآمده بودند.

به عنوان مثال وب‌سایت یوتیوب از ماه ژوئن گذشته با تغییر سیاست‌های محتوایی مربوط به انتخابات، به کاربران اجازه می‌دهد محتوایی را که موجب زیر سوال بردن اعتبار انتخابات ۲۰۲۰ آمریکا می‌شود، در این پلتفرم بارگذاری کنند.

شبکه اجتماعی ایکس (توییتر سابق) نیز در سال ۲۰۲۲ همین سیاست را اعمال کرد. این شبکه اجتماعی در اطلاعیه‌ای در ماه اوت گفت از این پس انتشار تبلیغات سیاسی در این پلتفرم مجاز خواهد بود.

حالا با توجه به تعدیل سیاست‌های محتوایی و کمبود کارکنان ناظر بر محتوا، بیم آن می‌رود که چنین تغییراتی پلتفرم‌های اجتماعی را در برابر سوء‌استفاده آسیب‌پذیر کند.

متا در سال جاری بیش از ۲۰ هزار نفر را اخراج کرده است. یک تیم هم که با تولید ابزار، وظیفه صحت‌سنجی محتوای منتشر شده در پلتفرم‌های زیرمجموعه این شرکت را داشت، از جمله اخراجی‌های این شرکت هستند.

شرکت توییتر نیز پس از روی کار آمدن ایلان ماسک و تغییر نام آن به ایکس، حدود ۸۲ درصد کارکنان خود را اخراج کرد. این اخراج کل تیم ایمنی و بررسی محتوا را در بر گرفت؛ موضوعی که به گفته کارشناسان موجب افزایش بی‌درنگ انتشار اطلاعات نادرست و نفرت‌انگیز در این شبکه اجتماعی شد.

آلفابت، شرکت مادر یوتیوب ۱۲ هزار و ۶۰۰ نفر را در سال ۲۰۲۳ اخراج کرده است.

مطالعه منتشر شده تاکید می‌کند تیک‌تاک تنها پلتفرم اجتماعی بوده که تغییر معناداری در سیاست‌های محتوای انتخاباتی خود نداده است.

کارشناسان از شرکت‌های بزرگ رسانه اجتماعی خواسته‌اند تا خط مشی مبارزه با اطلاعات نادرست را به شکل سخت‌گیرانه‌تری پیاده‌سازی و اعمال کنند.

انتهای پیام

به این محتوا امتیاز دهید: 

هنوز رأی ندارید
سیتنا 1
2023-12-11 13:14

افزودن دیدگاه جدید