به گزارش سیتنا، قانونگذاران بهویژه در اروپا بهدنبال آن هستند که تمامی تصاویر، ویدیوها و حتی متونی که با استفاده از ابزارهای هوش مصنوعی تولید میشوند، بهصورت شفاف برای کاربران مشخص شوند؛ اقدامی که هدف آن جلوگیری از گسترش اطلاعات نادرست، دیپفیکها و سوءاستفادههای احتمالی از فناوریهای نوظهور عنوان شده است.
کارشناسان معتقدند که اجرای چنین سیاستی میتواند تجربه کاربران در شبکههای اجتماعی را بهطور اساسی تغییر دهد. در صورت اعمال این مقررات، کاربران بهطور مداوم با برچسبهایی مواجه خواهند شد که منشأ محتوای مشاهدهشده را مشخص میکند؛ موضوعی که اگرچه به افزایش شفافیت کمک میکند، اما ممکن است از جذابیت و یکپارچگی تجربه کاربری نیز بکاهد.
از سوی دیگر، منتقدان بر این باورند که تشخیص دقیق محتوای تولیدشده توسط هوش مصنوعی، بهویژه در مواردی که این محتوا بهصورت ترکیبی با محتوای انسانی تولید شده، چالشبرانگیز خواهد بود و ممکن است اجرای این قوانین را با دشواریهایی مواجه کند.
با این حال، روند رو به رشد تولید محتوای هوش مصنوعی و افزایش نگرانیها درباره تأثیر آن بر افکار عمومی، موجب شده است که موضوع شفافسازی و برچسبگذاری به یکی از اولویتهای اصلی سیاستگذاران تبدیل شود. بهنظر میرسد در صورت تداوم این فشارها، پلتفرمهایی مانند متا ناگزیر به ایجاد تغییرات گسترده در ساختار انتشار محتوا خواهند شد—تغییراتی که میتواند آغازگر دورهای جدید از «اینترنت شفاف اما متفاوت» باشد.
انتهای پیام