ناکامی ابرشرکت‌های هوش مصنوعی در عمل به تعهدات ایمنی

هوش مصنوعی
یک مطالعه جدید نشان می‌دهد هشت شرکت پیشرو از جمله OpenAI، Meta، Anthropic و DeepSeek برای جلوگیری از خطرهای فاجعه‌بار هوش‌مصنوعی برنامه قابل‌اتکایی ندارند و در عمل به تعهدات ایمنی ناکام مانده‌اند.

به گزارش سیتنا به نقل از یورونیوز، بر اساس ارزیابی جدیدی که هشدار می‌دهد این ناکامی‌ها با خطرات «فاجعه‌بار» همراه است، بزرگ‌ترین شرکت‌های هوش مصنوعی (AI) جهان در عمل به تعهدات ایمنی خود ناکام مانده‌اند.

این گزارش در حالی منتشر شده که شرکت‌های هوش مصنوعی با شکایت‌ها و اتهام‌هایی روبه‌رو هستند مبنی بر اینکه چت‌بات‌هایشان باعث آسیب‌های روانی می‌شوند، از جمله با ایفای نقش «مربی خودکشی»، و همچنین گزارش‌هایی درباره حملات سایبری با کمک هوش مصنوعی.

گزارش شاخص ایمنی هوش مصنوعی زمستان ۲۰۲۵ که از سوی موسسه غیرانتفاعی آینده زندگی (FLI) منتشر شده، هشت شرکت بزرگ هوش مصنوعی را ارزیابی کرد؛ از جمله شرکت‌های آمریکایی Anthropic، OpenAI، Google DeepMind، xAI و Meta و شرکت‌های چینی DeepSeek، Alibaba Cloud و Z.ai.

این گزارش نشان داد که در حالی که شرکت‌ها برای دستیابی به هوش عمومی مصنوعی (AGI) و ابرهوش، شکلی از هوش مصنوعی که از هوش انسانی فراتر می‌رود، می‌کوشند، راهبردهای معتبر برای جلوگیری از سوءاستفاده‌های فاجعه‌بار یا از دست رفتن کنترل بر ابزارهای هوش مصنوعی وجود ندارد.

تحلیلگران مستقل که این گزارش را بررسی کردند دریافتند هیچ شرکتی برنامه‌ای قابل آزمون برای حفظ کنترل انسانی بر سامانه‌های بسیار توانمند هوش مصنوعی ارائه نکرده است. 

استوارت راسل، استاد علوم رایانه در دانشگاه کالیفرنیا، برکلی، گفت شرکت‌های هوش مصنوعی مدعی‌اند می‌توانند هوش مصنوعی فراانسانی بسازند، اما هیچ‌یک نشان نداده‌اند چگونه از از دست رفتن کنترل انسان بر چنین سامانه‌هایی جلوگیری می‌کنند.

راسل نوشت: «به‌دنبال اثباتی هستم که نشان دهد می‌توانند خطر سالانه از دست رفتن کنترل را به یک در صد میلیون کاهش دهند، مطابق با الزامات راکتورهای هسته‌ای.» او افزود: «در عوض، اذعان می‌کنند خطر می‌تواند یک در ۱۰، یک در ۵، حتی یک در ۳ باشد و نه می‌توانند این اعداد را توجیه کنند و نه بهبود دهند.»

انتهای پیام


Source URL: https://www.citna.ir/news/329267/ناکامی-ابرشرکت‌های-هوش-مصنوعی-عمل-تعهدات-ایمنی