کد مطلب: 

185763

آبروریزی ربات مایکروسافت در توییتر با حمایت از نئونازی‌ها

ربات گپ شرکت مایکروسافت در توییتر به علت شیطنت کاربران آمریکایی به حمایت از نئونازی ها و افراد نژادپرست پرداخت و در نهایت توسط خود شرکت مایکروسافت حذف شد.
آبروریزی ربات مایکروسافت در توییتر با حمایت از نئونازی‌ها

به گزارش سیتنا به نقل از واشنگتن پست، ربات یاد شده که Tay  نام دارد با هدف بررسی قابلیت سیستم های هوش مصنوعی طراحی شده و مایکروسافت آن را به سایت توییتر اضافه کرده بود تا ضمن بررسی تعاملات کاربران با آن از توانایی های Tay مطلع شود.

اما نتیجه این آزمایش در کمتر از 24 ساعت فاجعه بار بود و این ربات با دریافت اطلاعات مغشوش و شیطنت آمیز از کاربران آمریکایی به موجودی نژادپرست و بی ادب مبدل شد و ارسال پیام‌های نامناسب توسط آن مایکروسافت را مجبور به حذف ربات یاد شده از توییتر کرد.

نقص در طراحی این ربات باعث تکرار اظهارات نژادپرستانه ارسالی کاربران شده و همچنین باعث می شد Tay در اظهارات خود از همان ادبیات نامناسب افرادی که با آنها تعامل می کرد استفاده کند.

مایکروسافت ابتدا مدعی شده بود گپ زدن بیشتر با این ربات آن را باهوش تر می کند و این تجارب باعث می شود وی رفتار شخصی مناسبی با کاربران داشته باشد. Tay به گونه ای طراحی شده بود که رفتاری مشابه با یک دختر 18 تا 24 ساله در آمریکا را داشته باشد.

بعد از گذشت مدتی کاربران با ارسال پیام ها و اطلاعات غلط Tay را گمراه کردند، به گونه ای که وی در پیامی در توییتر هیتلر را فردی درست توصیف کرده و از یهودیان اظهار تنفر کرد. انکار هولوکاست، کافر دانستن یک کمدین مشهور آمریکایی و دفاع از دیوار کشیدن به دور مکزیک و درخواست از مردم این کشور برای پرداخت هزینه این کار از جمله دیگر شیرین کاری های این ربات نه چندان باهوش در مدت فعالیت 24 ساعته در توییتر بود.

انتهای پیام

به این محتوا امتیاز دهید: 

هنوز رأی ندارید
سیتنا 5
2016-03-26 15:43

افزودن دیدگاه جدید