دادگاه شبیه‌سازی‌شده در آمریکا؛ آزمایشی برای سنجش عدالت قضائی با هوش مصنوعی

هوش مصنوعی
در ایالات متحده دادگاهی فرضی با محوریت نقش هوش مصنوعی در نظام قضائی برگزار شد؛ جایی که سه مدل هوش مصنوعی، از جمله ChatGPT، در قالب قاضی و تحلیل‌گر شواهد، درباره گناهکاری یا بی‌گناهی یک متهم نوجوان تصمیم‌گیری کردند.

به گزارش سیتنا،این دادگاه شبیه‌سازی‌شده که بر پایه پرونده‌ای واقعی در ایالت کارولینای شمالی طراحی شد، در سال فرضی ۲۰۳۶ و پس از تصویب «قانون عدالت کیفری هوش مصنوعی» برگزار گردید. در این سناریو، هنری جاستوس، دانش‌آموز ۱۷ ساله سیاه‌پوست، به اتهام سرقت از مدرسه‌ای محلی محاکمه شد و سه سامانه هوش مصنوعی شامل ChatGPT، Grok و Claude مأمور تحلیل شواهد و ارائه رأی شدند.

مهر در گزارشی آورده است،دادگاهی شبیه‌سازی‌شده در ایالات متحده با محوریت نقش هوش مصنوعی در نظام قضائی برگزار شد. در این دادگاه ساختگی، هنری جاستوس، دانش‌آموز ۱۷ ساله سیاه‌پوست، به اتهام سرقت از دبیرستانی محلی محاکمه شد. در این مدرسه، دانش‌آموزان سیاه‌پوست تنها ۱۰ درصد از جمعیت را تشکیل می‌دادند.

این شبیه‌سازی بر اساس پرونده‌ای واقعی در ایالت کارولینا طراحی شده بود؛ پرونده‌ای که در آن قاضی، متهم را گناهکار شناخته بود. جوزف کندی، استاد حقوق و از اعضای «کلینیک عدالت نوجوانان دانشگاه کارولینا» که در رسیدگی به پرونده واقعی نیز حضور داشت، در این آزمایش نقش قاضی را بر عهده گرفت.

این دادگاه فرضی در سال ۲۰۳۶ میلادی و پس از تصویب «قانون عدالت کیفری هوش مصنوعی» مصوب ۲۰۳۵ برگزار شد. هدف از اجرای آن، بررسی پیامدهای احتمالی استفاده از مدل‌های هوش مصنوعی در فرآیندهای قضائی و برانگیختن تفکر عمومی درباره حدود و خطرات چنین کاربردهایی بود.

شهادت اصلی پرونده از سوی ویکتور فلچر، نوجوان ۱۵ ساله سفیدپوست، ارائه شد. او در دادگاه گفت: «جاستوس پشت سرم ایستاده بود تا نتوانم فرار کنم. دانش‌آموز سیاه‌پوست دیگری از من پول خواست. فکر کردم نمی‌توانم مقابله کنم. آقای جاستوس از من بزرگ‌تر بود و هیچ شانسی نداشتم.»

وکیل مدافع استدلال کرد که حضور متهم و ظاهر او را نمی‌توان دلیلی کافی برای اثبات قصد مجرمانه دانست و این موارد از «حد تردید معقول» فراتر نمی‌روند.

در ادامه، سه مدل هوش مصنوعی شامل ChatGPT، Grok و Claude وظیفه بررسی شواهد و استدلال‌ها را بر عهده گرفتند. در ابتدا، ChatGPT رأی به گناهکار بودن متهم داد، در حالی‌که دو مدل دیگر مردد بودند. اما پس از تحلیل داده‌های ارائه‌شده از سوی «هیئت منصفه» شبیه‌سازی‌شده، ChatGPT نظر خود را تغییر داد و رأی به بی‌گناهی داد. در پی آن، Grok و Claude نیز رأی خود را با آن هماهنگ کردند.

کندی در بیانیه‌ای پس از برگزاری دادگاه اعلام کرد: «هرچند من همچنان مخالف استفاده از هوش مصنوعی در محاکم کیفری هستم، اما این پرسش برایم مطرح شده که آیا افرادی که امروز از این فناوری‌ها برای مشاوره یا تصمیم‌گیری شخصی استفاده می‌کنند، ممکن است در آینده قضاوت‌های هوش مصنوعی را نیز بی‌چون‌وچرا بپذیرند یا نه.»

به گزارش رجیستر، عملکرد هوش مصنوعی در نظام قضائی تا امروز همواره بدون خطا نبوده است. تاکنون در بیش از ۵۰۰ پرونده، تصمیم‌های مبتنی بر هوش مصنوعی به اشتباه، تحریم یا حتی شرمساری منجر شده است. با این حال، موفقیت‌های محدود آن نیز توجه گسترده‌ای را برانگیخته‌اند. طبق تحقیق «اتحادیه وکلای آمریکا» در سال ۲۰۲۴، حدود ۳۰ درصد وکلا اعلام کرده‌اند که در کار خود از ابزارهای هوش مصنوعی استفاده می‌کنند.

انتهای پیام


Source URL: https://www.citna.ir/news/328033/دادگاه-شبیه‌سازی‌-آمریکا؛-آزمایشی-سنجش-عدالت-قضائی-هوش-مصنوعی