تنش بر سر دسترسی نامحدود به «کلود»؛ پنتاگون در برابر آنتروپیک
در حالی که مدل «کلود» تاکنون تنها سامانه هوش مصنوعی فعال در پلتفرمهای محرمانه دولت آمریکا بوده، گزارشها از فشار مستقیم پنتاگون بر شرکت سازنده آن، Anthropic، برای حذف محدودیتهای کاربری حکایت دارند؛ فشاری که میتواند به یک رویارویی کمسابقه میان دولت و صنعت هوش مصنوعی منجر شود.
به گزارش سیتنا،مدل «Claude» از طریق همکاری آنتروپیک با Palantir Technologies وارد پلتفرمهای طبقهبندیشده دولت آمریکا شد و تاکنون تنها مدل در دسترس در این محیطها بوده است.
این همکاری، جایگاه کلود را در پروژههای حساس امنیتی تثبیت کرد و به آن نقشی کلیدی در برخی عملیاتهای اطلاعاتی و نظامی داد.
احضار به پنتاگون و احتمال اولتیماتوم
طبق گزارشها، Pete Hegseth وزیر دفاع آمریکا، Dario Amodei مدیرعامل آنتروپیک را برای نشستی در Pentagon فراخوانده است؛ جلسهای که منابع آن را «پرتنش» توصیف کردهاند.
گفته میشود پنتاگون قصد دارد به آنتروپیک اولتیماتوم بدهد:
یا کلود را بدون محدودیت اضافی برای «تمام اهداف قانونی» در اختیار قرار دهد، یا با پیامدهایی از جمله احتمال قرار گرفتن در فهرست «خطر زنجیره تأمین» روبهرو شود؛ برچسبی که معمولاً برای بازیگران مرتبط با تهدیدهای خارجی به کار میرود.
مقاومت در برابر حذف محدودیتها
آنتروپیک تاکنون در برابر درخواستهای پنتاگون برای برداشتن برخی قیود مقاومت کرده است. این محدودیتها شامل موانعی برای استفاده از فناوری در نظارت گسترده داخلی بر شهروندان آمریکایی یا بهکارگیری آن در سامانههای تسلیحاتی کاملاً خودکار و بدون دخالت انسان میشود.
در مقابل، بر اساس برخی گزارشها، شرکت xAI با این شرایط موافقت کرده، هرچند هنوز موضع رسمی در اینباره اعلام نکرده است.
نگرانی از اختلال در سامانههای محرمانه
مقامات پنتاگون اذعان دارند کنار گذاشتن آنتروپیک از زیرساختهای محرمانه میتواند در کوتاهمدت اختلال ایجاد کند. کلود در ماه گذشته در عملیاتی مرتبط با ربایش Nicolás Maduro، رئیسجمهور ونزوئلا، به کار گرفته شد؛ رویدادی که بهعنوان نخستین نمونه شناختهشده از نقش مستقیم یک سامانه هوش مصنوعی در یک عملیات نظامی فعال توصیف شده است.
نقطه عطفی در رابطه دولت و شرکتهای هوش مصنوعی
این مناقشه میتواند به یک آزمون مهم برای مرزهای همکاری میان شرکتهای پیشرو هوش مصنوعی و نهادهای دفاعی آمریکا تبدیل شود. از یک سو، دولت به دنبال دسترسی گستردهتر و انعطافپذیرتر به فناوریهای پیشرفته است؛ از سوی دیگر، شرکتهایی مانند آنتروپیک میکوشند چارچوبهای ایمنی و محدودیتهای اخلاقی خود را حفظ کنند.
نتیجه این تقابل میتواند بر نحوه بهکارگیری هوش مصنوعی در حوزههای امنیتی و نظامی در سالهای آینده تأثیر تعیینکنندهای بگذارد.
انتهای پیام
افزودن دیدگاه جدید