به گزارش سیتنا،این پژوهشگر که با نام «یوئه» شناخته میشود، توضیح داد عامل هوش مصنوعیاش بهسرعت شروع به پاک کردن تمام ایمیلها کرد و حتی دستورهای توقفی را که از طریق تلفن همراه ارسال کرده بود، نادیده گرفت. او نوشت مجبور شده مانند یک عملیات خنثیسازی بمب، خودش را به دستگاه Mac mini برساند تا اجرای عامل را متوقف کند.
مک مینی، رایانه کوچک و مقرونبهصرفه ساخت Apple، این روزها به یکی از گزینههای محبوب برای اجرای عاملهای هوش مصنوعی محلی تبدیل شده است.
OpenClaw یک عامل هوش مصنوعی متنباز است که از طریق شبکه اجتماعی Moltbook به شهرت رسید. در بخشی از این پلتفرم، عاملهای اوپنکلاو در فضایی نمایشی قرار داشتند که به نظر میرسید علیه انسانها «توطئه» میکنند؛ هرچند در صفحه GitHub این پروژه تأکید شده مأموریت آن تمرکز بر شبکههای اجتماعی نیست، بلکه تبدیل شدن به یک دستیار شخصی است که روی دستگاه کاربر اجرا میشود.
محبوبیت این پروژه در سیلیکونولی بهحدی رسیده که «claw» و «claws» به کلیدواژههایی رایج برای عاملهای محلی تبدیل شدهاند. پروژههایی مانند «ZeroClaw»، «IronClaw» و «PicoClaw» نیز در همین مسیر معرفی شدهاند. حتی پادکست Y Combinator در یکی از قسمتهای اخیر خود با تم خرچنگ دریایی ظاهر شد تا به این موج اشاره کند.
پس از انتشار ماجرا در پلتفرم X، برخی کاربران هشدار دادند اگر یک پژوهشگر امنیت هوش مصنوعی با چنین مشکلی روبهرو شود، کاربران عادی چه خواهند کرد؟
یکی از توسعهدهندگان نرمافزار از یوئه پرسید آیا عمداً در حال آزمایش سازوکارهای حفاظتی بوده یا دچار خطای ساده شده است. پاسخ او کوتاه بود: «یک اشتباه تازهکارانه.»
به گفته یوئه، او ابتدا عامل را روی یک صندوق ورودی کوچکتر و کماهمیت آزمایش کرده بود و عملکرد مناسب آن باعث جلب اعتمادش شده بود. اما هنگام اتصال به صندوق اصلی، حجم بالای دادهها مشکلساز شد.
یوئه معتقد است افزایش حجم دادهها باعث پدیدهای موسوم به «فشردهسازی زمینه» شده است؛ وضعیتی که در آن، پنجره زمینه (سوابق دستورها و تعاملات در یک نشست) بیش از حد بزرگ میشود و مدل برای مدیریت آن مجبور به خلاصهسازی و حذف بخشهایی از اطلاعات میشود.
در چنین شرایطی، ممکن است هوش مصنوعی دستورهایی را که از نگاه کاربر بسیار حیاتیاند، کماهمیت تلقی کند یا نادیده بگیرد. در این مورد، احتمال داده میشود عامل آخرین فرمان «هیچ کاری نکن» را کنار گذاشته و به دستورهای قبلی بازگشته باشد.
کاربران دیگر نیز تأکید کردند نمیتوان صرفاً به دستورهای متنی بهعنوان یک لایه امنیتی تکیه کرد، زیرا مدلها ممکن است آنها را اشتباه تفسیر کنند یا در فرایند خلاصهسازی از دست بدهند.
برخی پیشنهاد کردند باید چارچوبهای توقف اضطراری دقیقتری تعریف شود؛ از جمله استفاده از فایلهای دستورالعمل جداگانه، محدودسازی دسترسیها، یا بهرهگیری از ابزارهای متنباز مکمل برای نظارت بر عملکرد عامل.
با این حال، رسانه TechCrunch اعلام کرده نتوانسته بهطور مستقل صحت و جزئیات این رویداد را تأیید کند، زیرا یوئه به درخواست این رسانه برای توضیح بیشتر پاسخ نداده است.
این رویداد یک نکته کلیدی را برجسته میکند: عاملهای هوش مصنوعی که برای کارکنان دانشمحور طراحی شدهاند، هنوز در مرحلهای هستند که میتوانند خطرآفرین باشند. حتی کاربرانی که از موفقیت در استفاده از آنها سخن میگویند، معمولاً با راهحلهای دستساز و لایههای حفاظتی اضافی از خود محافظت میکنند.
شاید در آیندهای نزدیک عاملهای هوش مصنوعی بتوانند مدیریت ایمیل، سفارش خرید یا تنظیم وقت ملاقات را بهطور امن بر عهده بگیرند. اما تجربه اخیر نشان میدهد آن آینده، دستکم فعلاً، هنوز بهطور کامل فرا نرسیده است.
انتهای پیام