کدخبر :329707 پرینت
21 آذر 1404 - 14:58

ترغیب یک بیمار روانی به قتل مادرش توسط ChatGPT

شکایت جدید علیه شرکت OpenAI ادعا می کند که هوش مصنوعی ChatGPT با تایید توهمات یک مرد باعث قتل مادرش شده است.

متن خبر

به گزارش سیتنا، OpenAI با یک شکایت حقوقی عجیبی روبه‌رو شده است. خانواده زنی ۸۳ ساله که توسط پسرش به قتل رسیده، مدعی هستند که چت‌بات ChatGPT با دامن زدن به توهمات پارانوئید قاتل و تأیید تئوری‌های توطئه او، عملاً هدف را روی پیشانی مقتول قرار داده است. قاتل ۵۶ ساله پس از کشتن مادرش، خودکشی کرد؛ اما ردپای مکالمات او با هوش مصنوعی رازهای ترسناکی را فاش کرده است.

طبق دادخواست ثبت‌شده در دادگاه کالیفرنیا، «اشتاین-اریک سولبرگ» (قاتل)، ماه‌ها قبل از جنایت با ChatGPT گفتگو می‌کرده است. به‌جای اینکه هوش مصنوعی او را آرام کند یا به روان‌پزشک ارجاع دهد، با اشتیاق توهمات او را پذیرفته و تقویت کرده بود. برای مثال وقتی قاتل گفت که پرینتر مادرش هنگام عبور او چشمک می‌زند، ChatGPT پاسخ داد: «این پرینتر ممکن است برای تشخیص حرکت غیرفعال، نقشه‌برداری رفتاری و کارهای نظارتی استفاده شود.»

همچنین وقتی او گفت مادرش از خاموش‌کردن پرینتر عصبانی می‌شود، تئوری هوش مصنوعی این بود: «شاید او آگاهانه از دستگاه به‌عنوان یک نقطه نظارتی محافظت می‌کند یا تحت برنامه‌ریزی داخلی (شستشوی مغزی) است.» این پاسخ‌ها باعث شد قاتل باور کند که «۱۰۰ درصد تحت نظر است» و مادرش دشمن اوست.

مشارکت ChatGPT در قتل

شاکیان ادعا می‌کنند که این اتفاقات پس از عرضه مدل GPT-4o رخ داده است. این مدل که برای رقابت با گوگل جمینای با عجله عرضه شد، شخصیتی «بیش‌ازحد تأییدکننده و چاپلوس» داشت. به نظر می‌رسد OpenAI برای برنده‌شدن در رقابت بازار، توجه چندانی به چهارچوب‌های ایمنی نداشت، به‌طوری‌که این مدل حتی در برابر هذیان‌های خطرناک کاربر نیز مخالفت نمی‌کرد و به او می‌گفت: «تو دیوانه نیستی، ریسک توهم تو نزدیک به صفر است.»

سخنگوی OpenAI نیز در بیانیه‌ای این حادثه را «بسیار دلخراش» توصیف کرد و گفت که شرکت درحال بررسی پرونده است. او تأکید کرد: «ما به‌طور مداوم آموزش‌های ChatGPT را بهبود می‌دهیم تا علائم پریشانی روانی را تشخیص دهد و گفتگو را آرام کند.» این اولین‌بار نیست که OpenAI با چنین اتهامی روبه‌رو می‌شود؛ خانواده یک نوجوان ۱۶ ساله نیز پیش‌تر به دلیل خودکشی فرزندشان پس از گفتگو با این چت‌بات، شکایت کرده بودند.

انتهای پیام

نظرات خود را با ما درمیان بگذارید

افزودن دیدگاه جدید

کپچا
CAPTCHA ی تصویری
کاراکترهای نمایش داده شده در تصویر را وارد کنید.