به گزارش سیتنا، چتبات ChatGPT-4 به تازگی درگیر مسئلهای شد که به «دو برابر کردن مربع» شهرت دارد. این مسئلهی ریاضی قدمت ۲۴۰۰ سال دارد که نخستین بار توسط افلاطون مطرح شد. دانشگاه کمبریج اعلام کرده است که ChatGPT در جریان این آزمایش رفتاری شبیه یک یادگیرنده انسانی از خود نشان داده و راهحلهایی بداهه ارائه کرده و حتی خطاهایی با ماهیتی انسانی مرتکب شده است.
این معمای قدیمی که حدود سال ۳۸۵ پیش از میلاد توسط افلاطون مطرح شد، همواره بهعنوان یکی از درسهای بنیادین آموزش ریاضی شناخته میشود. این پرسش قرنهاست که بحثهای فلسفی گستردهای درباره خاستگاه دانش برانگیخته است. همانگونه که افلاطون روایت کرده، سقراط به یک نوجوان بیسواد آموزش داد که چگونه مساحت یک مربع را دو برابر کند. پسر در ابتدا به اشتباه چنین تصور میکرد که اگر طول ضلع مربع دو برابر شود، مساحت نیز دو برابر خواهد شد. اما سقراط با طرح پرسشهای پیاپی او را هدایت کرد تا به پاسخ درست برسد: «مربع جدید باید اضلاعی به طول قطر مربع نخست داشته باشد.»
دو پژوهشگر به نامهای دکتر ناداو مارکو و پروفسور آندریاس استیلیانیدس همین مسئله را برای ChatGPT-4 مطرح کردند. آنان توانایی حل مسئله این مدل هوش مصنوعی را با شیوهای مشابه روش سقراط، یعنی پرسشگری مرحلهبهمرحله، آزمودند. در ادامه، مسئله با افزودن خطاها و نسخههای تازه پیچیدهتر شد تا رفتار ChatGPT آشکار گردد. پرسش اصلی این بود که آیا ChatGPT تنها بر پایگاه داده وسیع آموزشی خود متکی است یا اینکه واقعاً به خلق راهحلهای نو میپردازد.
پژوهشگران مشاهده کردند که ChatGPT بیشتر گرایش به بداههپردازی در روش خود داشت و حتی در جایی دچار خطایی شد که بیش از هر چیز رنگ و بوی انسانی داشت. دکتر مارکو توضیح داد: «وقتی با مسئلهای جدید روبهرو میشویم، غریزه ما معمولاً این است که بر اساس تجربههای پیشین، چیزهایی را امتحان کنیم. در آزمایش ما، ChatGPT رفتاری مشابه داشت و همچون یک شاگرد یا پژوهشگر، فرضیههایی ساخت و راهحلهایی ارائه کرد.»
از آنجا که ChatGPT در استدلال هندسی معمولاً ضعیف عمل میکند، انتظار پژوهشگران این بود که دستکم راهحل کلاسیک سقراطی را بازیابی کند. پروفسور استیلیانیدس گفت: «اگر تنها از حافظهاش استفاده میکرد، تقریباً به طور قطع در همان آغاز به راهحل شناختهشده یعنی ساختن مربع جدید بر قطر مربع اصلی اشاره میکرد. اما به جای آن، ظاهراً راه خاص خود را برگزید.»
شگفتآور اینکه ChatGPT ابتدا رویکردی جبری انتخاب کرد، روشی که در زمان افلاطون ناشناخته بود. این چتبات حتی در برابر تلاش پژوهشگران برای سوق دادن به راهحل هندسی مقاومت نشان داد. تنها زمانی که آنان نارضایتی خود را آشکار کردند، ChatGPT نسخه هندسی را نیز ارائه داد. با این حال، هنگامی که به طور مستقیم درباره آثار افلاطون مورد پرسش قرار گرفت، توانست نشان دهد که درک کاملی از آن دارد.
دو چالش دیگر نیز مطرح شد: یکی دو برابر کردن مساحت مستطیل و دیگری مثلث. در هر دو مورد، ChatGPT دوباره رویکرد جبری را ترجیح داد و خواسته پژوهشگران برای راهحل هندسی را نادیده گرفت. در مسئله مستطیل، حتی به اشتباه ادعا کرد که هیچ راهحل هندسی امکانپذیر نیست، در حالی که چنین راهحلهایی وجود دارد. پژوهشگران بر این باورند که این خطا ناشی از پایگاه دانش نبود بلکه گمانی بر اساس گفتوگوی پیشین درباره قطر مربع بوده است. با وجود این، در مسئله مثلث پس از پرسشهای بیشتر، در نهایت پاسخ درست هندسی ارائه شد.
به باور این گروه، رفتار ChatGPT آمیزهای از بازیابی داده و استدلال لحظهای بود. آنان این رویکرد را به مفهوم آموزشی ZPD تشبیه کردند؛ یعنی فاصله میان آنچه یک یادگیرنده پیشتر میداند و آنچه میتواند با کمک دیگران بیاموزد.
به اعتقاد دانشمندان، دانشجویان میتوانند از محدودیتهای هوش مصنوعی فرصتهای آموزشی بسازند. پیشنهاد آنان این است که کاربران باید از جملاتی مانند «بیایید با هم این مسئله را بررسی کنیم» استفاده کنند تا همکاری و کاوش مشترک تقویت شود، نه اینکه تنها پاسخ نهایی را مطالبه کنند. این شیوه میتواند توانایی استدلال و تفکر انتقادی دانشجویان را رشد دهد.
انتهای پیام