کدخبر :329397 پرینت
15 آذر 1404 - 15:07

بررسی تاثیر چت‌بات بر سلامت روان

یک مطالعه جدید از دانشگاه براون نشان می‌دهد مدل‌های زبانی بزرگ که بسیاری از افراد برای مشاوره سلامت روان به آن‌ها تکیه می‌کنند، در موقعیت‌های حساس قادر به رعایت اصول اخلاقی درمانگری نیستند و می‌توانند توصیه‌های گمراه‌کننده یا واکنش‌های نامناسب ارائه دهند.

متن خبر

به گزارش سیتنا،این مطالعه که هم‌زمان با افزایش استفاده جهانی از مدل‌های زبانی بزرگ برای دریافت مشاوره و حمایت ذهنی انجام شده، هشدار می‌دهد که این ابزارها در موقعیت‌های حساس می‌توانند رفتارهای خطرآفرین از خود نشان دهند.

براساس گزارش سای‌تک دیلی، افراد زیادی برای صحبت درباره مسائل مرتبط با سلامت روان به چت جی‌پی‌تی و سایر مدل‌های زبانی بزرگ مراجعه می‌کنند. اما یافته‌های جدید آشکار می‌کند این سامانه‌ها حتی وقتی با دستورهای مبتنی بر روش‌های درمانی معتبر هدایت می‌شوند، در بسیاری مواقع از رعایت اصول اخلاقی اعلام‌شده توسط نهادهایی مانند انجمن روان‌شناسی آمریکا بازمی‌مانند. گروهی از پژوهشگران دانشگاه براون در همکاری با متخصصان سلامت روان نشان داده‌اند که این چت‌بات‌ها می‌توانند طیفی از تخلفات اخلاقی شامل برخورد نامناسب در شرایط بحرانی، ارائه پاسخ‌های گمراه‌کننده و ایجاد توهم همدلی را بروز دهند.

در این تحقیق، پژوهشگران چارچوبی متکی بر تجربه درمانگران ارائه کرده‌اند که در آن ۱۵ خطر اخلاقی شناسایی و بررسی شده است. نتایج نشان می‌دهد مشاورهای مبتنی بر LLM در برخورد با کاربران ممکن است توصیه‌های غیرمتناسب، تأیید باورهای نادرست یا پیش‌داوری‌های فرهنگی و جنسیتی نشان دهند و در موقعیت‌های بحرانی مانند مواجهه با افکار خودکشی واکنش مناسب ارائه نکنند.

در بخش دیگری از مطالعه، نقش «پرامپت‌ها» یا دستورهایی که کاربران برای دریافت مشاوره به مدل می‌دهند، بررسی شده است. زینب افتخار، دانشجوی دکتری دانشگاه براون، توضیح می‌دهد که کاربران ممکن است از مدل بخواهند مانند یک درمانگر مبتنی بر CBT یا DBT عمل کند، اما مدل‌ها فقط پاسخی شبیه‌سازی‌شده بر اساس الگوهای آموخته‌شده ارائه می‌دهند و نه یک درمان واقعی. محبوبیت این نوع پرامپت‌ها در شبکه‌های اجتماعی مانند تیک‌تاک، اینستاگرام و ردیت باعث شده بسیاری از چت‌بات‌های سلامت روان نیز نسخه‌های تغییر‌یافته‌ای از همین مدل‌های عمومی باشند.

در مرحله بعد، تعامل چند مشاور آموزش‌دیده با نسخه‌های مختلف GPT، کلود و لاما بررسی شد و روان‌شناسان بالینی گفت‌وگوها را برای شناسایی علائم تخلف اخلاقی ارزیابی کردند. در پایان ۱۵ مورد در پنج دسته شامل نبود درک زمینه، همکاری درمانی ضعیف، همدلی سطحی، سوگیری و فقدان ایمنی در شرایط بحرانی ثبت شد.

پژوهشگران تأکید می‌کنند که حتی درمانگران انسانی نیز ممکن است در معرض این خطاها قرار گیرند، اما تفاوت اصلی در مسئله مسئولیت‌پذیری است. درمانگران انسانی تحت نظارت نهادهای رسمی فعالیت می‌کنند، اما برای چت‌بات‌ها هیچ ساختار نظارتی روشنی وجود ندارد. متخصصان معتقدند هوش مصنوعی می‌تواند بخشی از چالش‌های حوزه سلامت روان را کاهش دهد، اما استفاده از آن نیازمند ارزیابی دقیق، مقررات مشخص و طراحی مسئولانه است تا از بروز آسیب‌های احتمالی جلوگیری شود.

انتهای پیام

نظرات خود را با ما درمیان بگذارید

افزودن دیدگاه جدید

کپچا
CAPTCHA ی تصویری
کاراکترهای نمایش داده شده در تصویر را وارد کنید.