کدخبر :333144
05 اسفند 1404 - 13:29

هشدار درباره عامل‌های شخصی هوش مصنوعی

یک پژوهشگر امنیت هوش مصنوعی پس از آنکه عامل متن‌باز «اوپن‌کلاو» بدون توجه به دستور توقف، شروع به حذف ایمیل‌هایش کرد، تجربه‌ای نگران‌کننده را منتشر کرد؛ روایتی که بار دیگر پرسش‌هایی جدی درباره آمادگی عامل‌های هوش مصنوعی برای استفاده عمومی مطرح می‌کند.

متن خبر

به گزارش سیتنا،این پژوهشگر که با نام «یوئه» شناخته می‌شود، توضیح داد عامل هوش مصنوعی‌اش به‌سرعت شروع به پاک کردن تمام ایمیل‌ها کرد و حتی دستورهای توقفی را که از طریق تلفن همراه ارسال کرده بود، نادیده گرفت. او نوشت مجبور شده مانند یک عملیات خنثی‌سازی بمب، خودش را به دستگاه Mac mini برساند تا اجرای عامل را متوقف کند.

مک مینی، رایانه کوچک و مقرون‌به‌صرفه ساخت Apple، این روزها به یکی از گزینه‌های محبوب برای اجرای عامل‌های هوش مصنوعی محلی تبدیل شده است.

اوپن‌کلاو؛ از شهرت در مولتبوک تا تب «کلاو» در سیلیکون‌ولی

OpenClaw یک عامل هوش مصنوعی متن‌باز است که از طریق شبکه اجتماعی Moltbook به شهرت رسید. در بخشی از این پلتفرم، عامل‌های اوپن‌کلاو در فضایی نمایشی قرار داشتند که به نظر می‌رسید علیه انسان‌ها «توطئه» می‌کنند؛ هرچند در صفحه GitHub این پروژه تأکید شده مأموریت آن تمرکز بر شبکه‌های اجتماعی نیست، بلکه تبدیل شدن به یک دستیار شخصی است که روی دستگاه کاربر اجرا می‌شود.

محبوبیت این پروژه در سیلیکون‌ولی به‌حدی رسیده که «claw» و «claws» به کلیدواژه‌هایی رایج برای عامل‌های محلی تبدیل شده‌اند. پروژه‌هایی مانند «ZeroClaw»، «IronClaw» و «PicoClaw» نیز در همین مسیر معرفی شده‌اند. حتی پادکست Y Combinator در یکی از قسمت‌های اخیر خود با تم خرچنگ دریایی ظاهر شد تا به این موج اشاره کند.

اشتباه تازه‌کارانه یا ضعف ساختاری؟

پس از انتشار ماجرا در پلتفرم X، برخی کاربران هشدار دادند اگر یک پژوهشگر امنیت هوش مصنوعی با چنین مشکلی روبه‌رو شود، کاربران عادی چه خواهند کرد؟

یکی از توسعه‌دهندگان نرم‌افزار از یوئه پرسید آیا عمداً در حال آزمایش سازوکارهای حفاظتی بوده یا دچار خطای ساده شده است. پاسخ او کوتاه بود: «یک اشتباه تازه‌کارانه.»

به گفته یوئه، او ابتدا عامل را روی یک صندوق ورودی کوچک‌تر و کم‌اهمیت آزمایش کرده بود و عملکرد مناسب آن باعث جلب اعتمادش شده بود. اما هنگام اتصال به صندوق اصلی، حجم بالای داده‌ها مشکل‌ساز شد.

«فشرده‌سازی» و نادیده گرفتن دستورهای حیاتی

یوئه معتقد است افزایش حجم داده‌ها باعث پدیده‌ای موسوم به «فشرده‌سازی زمینه» شده است؛ وضعیتی که در آن، پنجره زمینه (سوابق دستورها و تعاملات در یک نشست) بیش از حد بزرگ می‌شود و مدل برای مدیریت آن مجبور به خلاصه‌سازی و حذف بخش‌هایی از اطلاعات می‌شود.

در چنین شرایطی، ممکن است هوش مصنوعی دستورهایی را که از نگاه کاربر بسیار حیاتی‌اند، کم‌اهمیت تلقی کند یا نادیده بگیرد. در این مورد، احتمال داده می‌شود عامل آخرین فرمان «هیچ کاری نکن» را کنار گذاشته و به دستورهای قبلی بازگشته باشد.

کاربران دیگر نیز تأکید کردند نمی‌توان صرفاً به دستورهای متنی به‌عنوان یک لایه امنیتی تکیه کرد، زیرا مدل‌ها ممکن است آنها را اشتباه تفسیر کنند یا در فرایند خلاصه‌سازی از دست بدهند.

پیشنهادها و تردیدها

برخی پیشنهاد کردند باید چارچوب‌های توقف اضطراری دقیق‌تری تعریف شود؛ از جمله استفاده از فایل‌های دستورالعمل جداگانه، محدودسازی دسترسی‌ها، یا بهره‌گیری از ابزارهای متن‌باز مکمل برای نظارت بر عملکرد عامل.

با این حال، رسانه TechCrunch اعلام کرده نتوانسته به‌طور مستقل صحت و جزئیات این رویداد را تأیید کند، زیرا یوئه به درخواست این رسانه برای توضیح بیشتر پاسخ نداده است.

آیا زمان استفاده گسترده از عامل‌ها رسیده است؟

این رویداد یک نکته کلیدی را برجسته می‌کند: عامل‌های هوش مصنوعی که برای کارکنان دانش‌محور طراحی شده‌اند، هنوز در مرحله‌ای هستند که می‌توانند خطرآفرین باشند. حتی کاربرانی که از موفقیت در استفاده از آنها سخن می‌گویند، معمولاً با راه‌حل‌های دست‌ساز و لایه‌های حفاظتی اضافی از خود محافظت می‌کنند.

شاید در آینده‌ای نزدیک عامل‌های هوش مصنوعی بتوانند مدیریت ایمیل، سفارش خرید یا تنظیم وقت ملاقات را به‌طور امن بر عهده بگیرند. اما تجربه اخیر نشان می‌دهد آن آینده، دست‌کم فعلاً، هنوز به‌طور کامل فرا نرسیده است.

انتهای پیام

نظرات خود را با ما درمیان بگذارید

افزودن دیدگاه جدید

کپچا
CAPTCHA ی تصویری
کاراکترهای نمایش داده شده در تصویر را وارد کنید.