کد مطلب: 

293263

چرا ورود هوش مصنوعی به صحنه جنگ باعث نگرانی می‌شود؟

ورود هوش مصنوعی به میدان جنگ باعث نگرانی از شدت گرفتن درگیری‌ها و تضعیف نقش حیاتی انسان در تصمیم‌گیری‌های جنگی شده است. هوش مصنوعی نشان داده که می‌تواند سریع‌تر عمل کند، اما لزوماً ایمن‌تر یا اخلاقی‌تر نیست.
چرا ورود هوش مصنوعی به صحنه جنگ باعث نگرانی می‌شود؟

به گزارش سرویس بین الملل سیتنا، آنتونیو گوترش، دبیرکل سازمان ملل متحد، اخیراً گفت از گزارش‌های رسانه‌های رژیم صهیونیستی مبنی بر استفاده این رژیم از هوش مصنوعی برای شناسایی اهداف در غزه که «منجر به تلفات زیاد غیرنظامیان شده»، «عمیقاً ناراحت» است.

گذشته از نرم‌افزار مورد اشاره گوترش، یعنی نرم‌افزار لَوندر و انکار و تکذیب رژیم صهیونیستی، در اینجا نگاهی داریم به تحولات حوزه فناوری که در حال دگرگون کردن چهره جنگ است.

همان‌طور که در مورد لوندر دیده شد، هوش مصنوعی با الگوریتم‌های پرسرعت خود که حجم عظیمی از داده‌ها را برای شناسایی تهدیدات بالقوه پردازش می‌کنند، می‌تواند به‌ویژه برای انتخاب اهداف مفید باشد. اما نتایج فناوری باز هم در حوزه احتمالات قرار می‌گیرند و کارشناسان هشدار می‌دهند که بروز خطا در آن اجتناب‌ناپذیر است.

هوش مصنوعی در فن آرایش رزمی نیز کاربرد دارد، برای مثال، آرایش جنگی پهپادها به صورت دسته‌ای؛ تاکتیکی که به نظر می‌رسد چین به سرعت در حال توسعه آن است. با این روش، پهپادها این قابلیت را خواهند داشت که با یکدیگر ارتباط برقرار کنند و بر اساس اهداف تعیین‌شده قبلی با هم همکاری داشته باشند.

در مقیاسی بزرگ‌تر، هوش مصنوعی مدل‌هایی از میدان‌های نبرد فراهم می‌کند و برای مقابله با حملات راه‌هایی پیشنهاد می‌کند که هیچ بعید نیست شامل استفاده از سلاح‌های هسته‌ای هم بشود.

فکر کردن با سرعتی هرچه بیشتر

آلساندرو آکورسی از گروه بین‌المللی بحران می‌گوید: «یک درگیری تمام‌عیار بین دو کشور را تصور کنید که برای تهیه راهبرد و طرح‌های نظامی آن سراغ هوش مصنوعی رفته‌اند و هوش مصنوعی در آنِ واحد نسبت به هر رخداد و تحول جدید پاسخ می‌دهد.»

او می‌افزاید که با این کار «فاصله زمانیِ واکنش‌های طرفین درگیری بسیار کاهش می‌یابد و تصمیم و اقدامی برای یک انسان یک ساعت طول می‌کشد، برای هوش مصنوعی چند ثانیه بیشتر طول نمی‌کشد».

یک خلأ اخلاقی نگران‌کننده

با توجه به تشدید مسابقه تسلیحاتی و دشواری‌های همیشگی صحنه جنگ، بعید نیست هوش مصنوعی را هم در آینده بسیار نزدیک وارد میدان نبرد کنند و این درحالی است که بخش بزرگی از جهان هنوز به‌طور کامل از پیامدهای بالقوه آن آگاه نیست.

دو روشی-روشگوند می‌گوید: انسان‌ها با این کار «پیشنهاد‌های یک ماشین را مبنای تصمیمات خود قرار می‌دهند، اما از اطلاعاتی که دستگاه برای رسیدن به چنین تصمیمی از آن استفاده‌ کرده، بی‌اطلاع‌اند».

او اضافه می‌کند: «درست است که در نهایت انسان دکمه پرتاب یا شلیک را فشار می‌دهد، اما عدم آگاهی فرد از روند تصمیم‌گیری و همچنین سرعت کار ماشین بدین معناست که فرد شلیک‌کننده کنترل واقعی بر روی نتیجه‌گیری‌ها و تصمیمات خود ندارد.»

اولریکه فرانکه از شورای روابط خارجی اروپا می‌گوید: هوش مصنوعی «مثل سیاه‌چاله است؛ لزوماً نمی‌فهمیم چه می‌داند یا چه فکر می‌کند، یا چگونه به این نتایج می‌رسد».

او ادامه می‌دهد: «چرا هوش مصنوعی این یا آن هدف را پیشنهاد می‌کند؟ چه می‌شود که این اطلاعات یا آن اطلاعات را به من می‌دهد؟ با این وضع اگر اجازه دهیم هوش مصنوعی جنگ‌افزار را هم کنترل کند، با یک پرسش اخلاقی جدی روبه‌رو می‌شویم».

اوکراین به‌عنوان صحنۀ آزمایش

خبر می‌رسد که آمریکا به تازگی از الگوریتم‌هایی در حملات اخیر خود علیه حوثی‌ها در یمن استفاده کرده است.

اما آکورسی می‌گوید: «تغییردهنده واقعی شیوه بازی، جنگ اوکراین است که به آزمایشگاهی برای کاربرد نظامی هوش مصنوعی تبدیل شده است».

ویتالی گونچاروک از رصدخانه هوش مصنوعی دفاعی در دانشگاه هلموت اشمیت هامبورگ می‌گوید: از زمان حمله روسیه به اوکراین در سال ۲۰۲۲، طرفین درگیری شروع به «توسعه و به‌کارگیری راه حل‌های هوش مصنوعی برای حوزه‌هایی مانند اطلاعات جغرافیایی فضایی، عملیات با سامانه‌های بدون سرنشین، آموزش نظامی و جنگ سایبری» کرده‌اند.

گونچاروک می‌گوید: «در نتیجه، جنگ در اوکراین به اولین درگیری تبدیل شده که در آن هر دو طرف،‌ در جهت استفاده از هوش مصنوعی رقابت می‌کنند؛ عاملی که به یک مؤلفه حیاتی برای دستیابی به پیروزی بدل شده است.»

برتری‌جویی و خطر هسته‌ای

«ترمیناتور»، ربات قاتلی که انسان کنترل خود را بر آن از دست می‌دهد، جزو تخیلات هالیوودی است. با این‌حال، محاسبات سرد این ماشین، پژواکی از واقعیات هوش مصنوعی مدرن را در خود دارد: اینکه این سیستم‌ها نه غریزه بقا دارند و نه تردید.

محققان چهار مؤسسه و دانشگاه آمریکایی در ژانویه نتایج یک مطالعه علمی انجام‌شده روی پنج مدل زبانی بزرگ (سیستمی شبیه به نرم‌افزار مولد چت‌جی‌پی‌تی) در موقعیت‌های تنش سیاسی و درگیری را منتشر کردند.

این مطالعه نشان داد که گرایش این مدل‌های هوش مصنوعی، «به سمت ایجاد رقابت تنگاتنگ تسلیحاتی است که منجر به درگیری‌های بزرگ‌تر و در موارد نادر استفاده از سلاح‌های هسته‌ای می‌شود».

قدرت‌های بزرگ جهانی کوشش فراوانی دارند تا در میدان مسابقه کاربرد نظامی هوش مصنوعی، پیروز صحنه شوند و همین تکاپوی بی‌امان، مانع سامان‌دهی و قانون‌گذاری به‌موقع در این حوزه شده است.

جو بایدن، رئیس‌جمهور آمریکا و شی جین پینگ، رئیس‌جمهور چین در ماه نوامبر توافق کردند که کارشناسان خود را برای سامان دادن به این وضعیت به‌کار بگمارند.

بحث‌هایی نیز ده سال پیش در سازمان ملل متحد آغاز شد، اما بدون نتیجه‌ای ملموس باقی ماند.

آکورسی می‌گوید: «درباره کارهای که باید در ارتباط با خطرات ورود هوش مصنوعی به حوزه غیرنظامی انجام شود، بحث‌هایی وجود دارد، اما وقتی نوبت به صنعت دفاعی می‌رسد، کسی به آن نمی‌پردازد.»

انتهای پیام

به این محتوا امتیاز دهید: 

هنوز رأی ندارید
سیتنا 3
2024-04-13 12:30

افزودن دیدگاه جدید