به گزارش سیتنا به نقل از یورونیوز، بر اساس ارزیابی جدیدی که هشدار میدهد این ناکامیها با خطرات «فاجعهبار» همراه است، بزرگترین شرکتهای هوش مصنوعی (AI) جهان در عمل به تعهدات ایمنی خود ناکام ماندهاند.
این گزارش در حالی منتشر شده که شرکتهای هوش مصنوعی با شکایتها و اتهامهایی روبهرو هستند مبنی بر اینکه چتباتهایشان باعث آسیبهای روانی میشوند، از جمله با ایفای نقش «مربی خودکشی»، و همچنین گزارشهایی درباره حملات سایبری با کمک هوش مصنوعی.
گزارش شاخص ایمنی هوش مصنوعی زمستان ۲۰۲۵ که از سوی موسسه غیرانتفاعی آینده زندگی (FLI) منتشر شده، هشت شرکت بزرگ هوش مصنوعی را ارزیابی کرد؛ از جمله شرکتهای آمریکایی Anthropic، OpenAI، Google DeepMind، xAI و Meta و شرکتهای چینی DeepSeek، Alibaba Cloud و Z.ai.
این گزارش نشان داد که در حالی که شرکتها برای دستیابی به هوش عمومی مصنوعی (AGI) و ابرهوش، شکلی از هوش مصنوعی که از هوش انسانی فراتر میرود، میکوشند، راهبردهای معتبر برای جلوگیری از سوءاستفادههای فاجعهبار یا از دست رفتن کنترل بر ابزارهای هوش مصنوعی وجود ندارد.
تحلیلگران مستقل که این گزارش را بررسی کردند دریافتند هیچ شرکتی برنامهای قابل آزمون برای حفظ کنترل انسانی بر سامانههای بسیار توانمند هوش مصنوعی ارائه نکرده است.
استوارت راسل، استاد علوم رایانه در دانشگاه کالیفرنیا، برکلی، گفت شرکتهای هوش مصنوعی مدعیاند میتوانند هوش مصنوعی فراانسانی بسازند، اما هیچیک نشان ندادهاند چگونه از از دست رفتن کنترل انسان بر چنین سامانههایی جلوگیری میکنند.
راسل نوشت: «بهدنبال اثباتی هستم که نشان دهد میتوانند خطر سالانه از دست رفتن کنترل را به یک در صد میلیون کاهش دهند، مطابق با الزامات راکتورهای هستهای.» او افزود: «در عوض، اذعان میکنند خطر میتواند یک در ۱۰، یک در ۵، حتی یک در ۳ باشد و نه میتوانند این اعداد را توجیه کنند و نه بهبود دهند.»
انتهای پیام