کد مطلب: 

288489

هشدار محققان؛ اکثر پاسخ‌های چت‌جی‌پی‌تی به سوالات دارویی غلط است!

بررسی‌های محققان دانشکده داروسازی دانشگاه لانگ آیلند آمریکا، نشان می‌دهد که حدود سه چهارم پاسخ‌های ربات هوش مصنوعی چت‌جی‌پی‌تی به سوالات مربوط به داروها غلط یا ناکامل است.
هشدار محققان؛ اکثر پاسخ‌های چت‌جی‌پی‌تی به سوالات دارویی غلط است!

به گزارش سیتنا، بر اساس گزارش فاکس بیزنس، کاربران باید در استفاده از توصیه‌های دارویی این ربات ساخت شرکت OpenAI محتاط باشند.

محققان دانشکده داروسازی دانشگاه «لانگ آیلند» آمریکا با طرح پرسش‌های واقعی، چت‌جی‌پی‌تی را به چالش کشیدند.

این مطالعه که روز سه‌شنبه این هفته در جلسه سالانه انجمن داروسازان آمریکا ارائه شد ۳۹ پرسش را در اختیار هوش مصنوعی چت‌جی‌پی‌تی قرار داد اما در نهایت چت‌جی‌پی‌تی تنها موفق شد برای ۱۰ مورد از این پرسش‌ها پاسخ‌ قانع‌کننده ارائه دهد.

این ربات در مورد ۲۹ پرسش دیگر، پاسخ‌های نامرتبط، نادرست یا ناکامل ارائه کرده است.

همچنین محققان از چت‌جی‌پی‌تی خواستند که رفرنس یا ارجاعات لازم را درباره پاسخ‌های خود ارائه دهد که این سیستم هوش مصنوعی تنها موفق به ارائه ارجاعات برای هشت پاسخ شد.

سارا گراسمن از شرکت «فارم‌دی» و مولف اصلی این کار تحقیقی گفت: افراد حرفه‌ای حوزه بهداشت و درمان و بیماران باید در زمینه استفاده از چت‌جی‌پی‌تی به عنوان یک منبع معتبر برای اطلاعات مرتبط با دارو و درمان محتاط باشند.

به گفته گراسمن، هر کسی که از چت‌جی‌پی‌تی برای کسب اطلاعات مرتبط با دارو و درمان استفاده می‌کند، باید با استفاده از منابع مورد اعتماد این اطلاعات را راستی‌آزمایی و تایید کند.

انتهای پیام

به این محتوا امتیاز دهید: 

هنوز رأی ندارید
سیتنا 1
2023-12-08 20:32

افزودن دیدگاه جدید