به گزارش سیتنا،در مدلهای زبانی بزرگ در حوزه هوش مصنوعی، «پنجره زمینه» به میزان اطلاعاتی گفته میشود که هر مدل در یک بار ورودی میتواند دریافت و پردازش کند. این پدیده چیزی شبیه حافظهٔ کوتاهمدت انسان است.
در ابتدای ظهور «چت جیپیتی» در سال 2022، مدلها تنها میتوانستند حدود 2048 توکن (تقریباً 1500 کلمه) را همزمان بررسی کنند؛ بنابراین شرکتها برای تحلیل اسناد طولانی یا پروندههای فنی بزرگ با محدودیت جدی روبهرو بودند.
از سال 2023 پیشرفت سرعت گرفت. «آنثروپیک» پنجرههای 100000 توکنی عرضه کرد، و امروزه مدل «جمنای» متعلق به «گوگل» میتواند حدود 2 میلیون توکن یا بیش از 3000 صفحه متن را یکجا پردازش کند.
در دوران پنجرههای کوچک مهندسان مجبور بودند ورودیها را بسیار مختصر و انتخابشده تنظیم کنند، از تکنیکهایی مانند بازیابی تقویتشده، فاینتونینگ، و زنجیرهسازی پرامپتها استفاده کنند، تا مدل بتواند خروجی قابل قبولی ارائه بدهد.
اما پنجرههای بزرگ مزیتهای زیادی ایجاد کردهاند. مدلهای هوش مصنوعی اکنون میتوانند حجم عظیمی از دادههای تازه را ببلعند، و بدون نیاز به پیشپردازش پیچیده نتیجهٔ بهتری ارائه دهند. این ظرفیت همچنین قابلیت کار با دادههای چندرسانهای دارای متن، صوت، تصویر، و فیلم را افزایش داده است.
گسترش پنجرههای زمینه با نوآوریهای مهم همراه بوده است. پژوهشگران توانستهاند تمرکز مدل را در ورودیهای طولانی حفظ کنند؛ پایگاههای داده جدید برای آموزشِ متون بلند ایجاد کردهاند؛ و سختافزار بهگونهای توسعه یافته که پردازش حجم عظیم توکنها را با تأخیر کم انجام دهد.
با این حال چالشهایی نیز وجود دارد. افت شفافیت تصمیمگیری مدل، کند شدن پاسخ به دلیل محاسبات حجیم، و افزایش هزینهٔ هر پرسش به دلیل هزینهگذاری مبتنی بر توکن برخی از این چالشها هستند.
امروزه سازمانها میتوانند از این توانمندیها برای توسعهٔ سریع ابزارهای تحلیلی، تولید محصولات هوش مصنوعی، و بهرهگیری از دادههای عظیم و متنوع استفاده کنند. پنجرههای بزرگ میتوانند نوآوری را شتاب بخشیده و نیاز به مهندسی بیرونی را کاهش دهند، اما هنوز «راهحل جادویی» نیستند، و باید در کنار زیرساختهای دادهایِ درست، برنامهریزی استراتژیک، و عملیات قوی به کار گرفته شوند.
انتهای پیام