حل مسئله ۲۴۰۰ ساله با کمک ChatGPT

هوش مصنوعی
پژوهشی در دانشگاه کمبریج نشان داد ChatGPT-4 در مواجهه با معمای معروف افلاطون، راه‌حل‌هایی بداهه ارائه کرده و حتی دچار خطاهایی با ماهیت انسانی شده است؛ رفتاری که شباهت زیادی به شیوه یادگیری انسان‌ها دارد.

به گزارش سیتنا، چت‌بات ChatGPT-4 به تازگی درگیر مسئله‌ای شد که به «دو برابر کردن مربع» شهرت دارد. این مسئله‌ی ریاضی قدمت ۲۴۰۰ سال دارد که نخستین بار توسط افلاطون مطرح شد. دانشگاه کمبریج اعلام کرده است که ChatGPT در جریان این آزمایش رفتاری شبیه یک یادگیرنده انسانی از خود نشان داده و راه‌حل‌هایی بداهه ارائه کرده و حتی خطاهایی با ماهیتی انسانی مرتکب شده است.

این معمای قدیمی که حدود سال ۳۸۵ پیش از میلاد توسط افلاطون مطرح شد، همواره به‌عنوان یکی از درس‌های بنیادین آموزش ریاضی شناخته می‌شود. این پرسش قرن‌هاست که بحث‌های فلسفی گسترده‌ای درباره خاستگاه دانش برانگیخته است. همان‌گونه که افلاطون روایت کرده، سقراط به یک نوجوان بی‌سواد آموزش داد که چگونه مساحت یک مربع را دو برابر کند. پسر در ابتدا به اشتباه چنین تصور می‌کرد که اگر طول ضلع مربع دو برابر شود، مساحت نیز دو برابر خواهد شد. اما سقراط با طرح پرسش‌های پیاپی او را هدایت کرد تا به پاسخ درست برسد: «مربع جدید باید اضلاعی به طول قطر مربع نخست داشته باشد.»

دو پژوهشگر به نام‌های دکتر ناداو مارکو و پروفسور آندریاس استیلیانیدس همین مسئله را برای ChatGPT-4 مطرح کردند. آنان توانایی حل مسئله این مدل هوش مصنوعی را با شیوه‌ای مشابه روش سقراط، یعنی پرسش‌گری مرحله‌به‌مرحله، آزمودند. در ادامه، مسئله با افزودن خطاها و نسخه‌های تازه پیچیده‌تر شد تا رفتار ChatGPT آشکار گردد. پرسش اصلی این بود که آیا ChatGPT تنها بر پایگاه داده وسیع آموزشی خود متکی است یا اینکه واقعاً به خلق راه‌حل‌های نو می‌پردازد.

پژوهشگران مشاهده کردند که ChatGPT بیشتر گرایش به بداهه‌پردازی در روش خود داشت و حتی در جایی دچار خطایی شد که بیش از هر چیز رنگ و بوی انسانی داشت. دکتر مارکو توضیح داد: «وقتی با مسئله‌ای جدید روبه‌رو می‌شویم، غریزه ما معمولاً این است که بر اساس تجربه‌های پیشین، چیزهایی را امتحان کنیم. در آزمایش ما، ChatGPT رفتاری مشابه داشت و همچون یک شاگرد یا پژوهشگر، فرضیه‌هایی ساخت و راه‌حل‌هایی ارائه کرد.»

از آن‌جا که ChatGPT در استدلال هندسی معمولاً ضعیف عمل می‌کند، انتظار پژوهشگران این بود که دست‌کم راه‌حل کلاسیک سقراطی را بازیابی کند. پروفسور استیلیانیدس گفت: «اگر تنها از حافظه‌اش استفاده می‌کرد، تقریباً به طور قطع در همان آغاز به راه‌حل شناخته‌شده یعنی ساختن مربع جدید بر قطر مربع اصلی اشاره می‌کرد. اما به جای آن، ظاهراً راه خاص خود را برگزید.»

شگفت‌آور اینکه ChatGPT ابتدا رویکردی جبری انتخاب کرد، روشی که در زمان افلاطون ناشناخته بود. این چت‌بات حتی در برابر تلاش پژوهشگران برای سوق دادن به راه‌حل هندسی مقاومت نشان داد. تنها زمانی که آنان نارضایتی خود را آشکار کردند، ChatGPT نسخه هندسی را نیز ارائه داد. با این حال، هنگامی که به طور مستقیم درباره آثار افلاطون مورد پرسش قرار گرفت، توانست نشان دهد که درک کاملی از آن دارد.

دو چالش دیگر نیز مطرح شد: یکی دو برابر کردن مساحت مستطیل و دیگری مثلث. در هر دو مورد، ChatGPT دوباره رویکرد جبری را ترجیح داد و خواسته پژوهشگران برای راه‌حل هندسی را نادیده گرفت. در مسئله مستطیل، حتی به اشتباه ادعا کرد که هیچ راه‌حل هندسی امکان‌پذیر نیست، در حالی که چنین راه‌حل‌هایی وجود دارد. پژوهشگران بر این باورند که این خطا ناشی از پایگاه دانش نبود بلکه گمانی بر اساس گفت‌وگوی پیشین درباره قطر مربع بوده است. با وجود این، در مسئله مثلث پس از پرسش‌های بیشتر، در نهایت پاسخ درست هندسی ارائه شد.

به باور این گروه، رفتار ChatGPT آمیزه‌ای از بازیابی داده و استدلال لحظه‌ای بود. آنان این رویکرد را به مفهوم آموزشی ZPD تشبیه کردند؛ یعنی فاصله میان آنچه یک یادگیرنده پیش‌تر می‌داند و آنچه می‌تواند با کمک دیگران بیاموزد.

به اعتقاد دانشمندان، دانشجویان می‌توانند از محدودیت‌های هوش مصنوعی فرصت‌های آموزشی بسازند. پیشنهاد آنان این است که کاربران باید از جملاتی مانند «بیایید با هم این مسئله را بررسی کنیم» استفاده کنند تا همکاری و کاوش مشترک تقویت شود، نه اینکه تنها پاسخ نهایی را مطالبه کنند. این شیوه می‌تواند توانایی استدلال و تفکر انتقادی دانشجویان را رشد دهد.

انتهای پیام


Source URL: https://www.citna.ir/news/325989/حل-مسئله-۲۴۰۰-ساله-کمک-chatgpt