به گزارش سیتنا به نقل از ایندیپندنت، این تصمیم شاید در ظاهر، اقدامی فنی در چارچوب سازوکارهای معمول سازمان ملل به نظر برسد، در عمق خود اعترافی است به اینکه جهان در آستانه یک دگرگونی راهبردی قرار دارد که حتی مفهوم قدرت را بازتعریف میکند. امروز دیگر برتری با تعداد جنگندهها و موشکها سنجیده نمیشود، بلکه با شتاب الگوریتمها، انبوه دادهها و توان سامانهها در اتخاذ تصمیم در کسری از ثانیه تعریف میشود.
هوش مصنوعی دیگر تنها ابزاری برای رشد اقتصاد یا تسهیل امور زندگی روزمره نیست، بلکه به مولفهای اساسی در سامانههای امنیتی، دفاعی و اطلاعاتی بدل شده است. سامانههای پدافندی که در یک چشم به هم زدن هزاران داده را پردازش میکنند، پهپادهایی که با تحلیل الگوهای حرکتی هدفشان را انتخاب میکنند و نرمافزارهایی که قادرند بدون مداخله مستقیم انسان، حملات سایبری پیچیده را طراحی و اجرا کنند.
در چنین بستری، هوش مصنوعی به «سلاحی نامرئی» بدل میشود که نه صدای انفجارش شنیده میشود و نه ردی آشکار به جا میگذارد، اما میتواند سرنوشت یک نبرد را پیش از آغاز آن، رقم بزند.
اهمیت ابتکار ۲۰ فوریه نه در تعداد کارشناسان، بلکه در این اعتراف بینالمللی نهفته است که این فناوری دو جنبه درهمتنیده دارد: نوید توسعه و خطر رشد بیرویه. همانگونه که این فناوری میتواند با بهبود دقت هدفگیری و هشدارهای زودهنگام، تلفات انسانی را کاهش دهد، همزمان میتواند انگیزهای برای تدوین دکترینهای نظامی تازه باشد که تصمیمگیری درباره استفاده از قدرت را از نظر سیاسی آسانتر و از نظر هزینه انسانی برای مهاجم سبکتر میکند. در نتیجه، هرگاه هزینه جنگ برای تصمیمگیرنده کاهش یابد، احتمال توسل به آن افزایش مییابد.
تفاوت اساسی بین سلاحهای متعارف و سیستمهای هوش مصنوعی در ماهیت تصمیمگیری نهفته است. یک سلاح متعارف منتظر انگشت انسان است تا دکمهای را فشار دهد، اما سامانههای هوشمند بر اساس معیارهای از پیش تعیینشده توان ارزیابی و انتخاب خواهند داشت. این امر پرسشهای اخلاقی و حقوقی جدی را مطرح میکند: اگر الگوریتم اشتباه کند، چه کسی پاسخگو خواهد بود؟ آیا برنامهنویسی که آن را طراحی کرده، مسئول است، یا فرماندهای که آن را فعال کرده، یا دولتی که از آن استفاده کرده است، یا اینکه تصمیم در یک شبکه نرمافزاری پیچیده که در آن خطا را نمیتوان به یک بازیگر واحد نسبت داد، گم میشود؟ حقوق بینالملل بشردوستانه بر پایه وجود انسان پاسخگو طراحی شد، اما در عصر الگوریتمها، تعیین مسئول بسیار دشوارتر میشود.
جنبه دیگری نیز وجود دارد که اهمیت آن را نمیتوان نادیده گرفت: رقابت سر قدرت. قدرتهای بزرگ میلیاردها دلار در پژوهشهای هوش مصنوعی سرمایهگذاری میکنند، نه فقط برای اهداف اقتصادی، بلکه برای تثبیت جایگاه راهبردی خود در نظم جهانی. برتری الگوریتمی یعنی توان پیشدستی بر رقیب، درک اهداف و برنامهها، از کار انداختن تاسیسات حیاتی و حتی فلج کردن زیرساختهای دشمن، بیآنکه حتی یک گلوله شلیک شود. در چنین فضایی، هر چارچوب نظارتی سختگیرانه در سطح بینالمللی، با تردید قدرتهایی روبرو میشود که این فناوری را ستون جایگاه جهانی خود میدانند. پرسش محوری این است: آیا قواعد حکمرانی بهطور عادلانه و یکسان اجرا خواهد شد یا به ابزاری سیاسی بدل میشوند که برخی کشورها را مهار و به برخی دیگر میدان مانور گستردهتر میدهند؟
هوش مصنوعی را نمیتوان در دوگانه ساده «خطر یا پیشرفت» خلاصه کرد. این فناوری در واقع بازتابی فشرده از ماهیت خود نظم بینالملل است. اگر این نظم بر پایه توازن و بازدارندگی متقابل استوار باشد، میتواند با تقویت سامانههای دفاعی دقیقتر و پاسخگوتر، به تحکیم همین بازدارندگی کمک کند، اما اگر منطق رقابت مهارنشده دست بالا را پیدا کند، این فناوری ممکن است به موتور یک مسابقه تسلیحاتی دیجیتال بدل شود؛ رقابتی که از توان مهار نهادهای بینالمللی فراتر میرود. در نهایت، این فناوری بهتنهایی تعیینکننده مسیر آینده نیست. آنچه سرنوشت را مشخص میکند، تصمیم و اراده سیاسی است که نحوه استفاده از آن را تعیین میکند.
اقدام سازمان ملل در ۲۰ فوریه ۲۰۲۶ فرصتی است برای بازاندیشی در قوانین بازی، پیش از آنکه پیامدها در میدان عمل قطعی شوند. تشکیل کمیتهای از کارشناسان به معنای تلاش برای پیشبینی بحران است، نه صرفا مدیریت آن پس از وقوع. با این حال، موفقیت این تلاش به میزان تمایل کشورها به پذیرش محدودیتهای متقابلی که حداقل سطح ثبات را حفظ میکنند، بستگی دارد. تاریخ ثابت کرده است که فناوری اغلب سریعتر از قوانینی که آن را تنظیم میکنند، پیشرفت میکند و لحظه تعیینکننده نه در خود اختراع، بلکه در نحوه اعمال آن نهفته است.
البته، هوش مصنوعی خود هیچ قصد و نیتی ندارد؛ بلکه آیینهای است که منافع و اولویتهای کاربران خود را منعکس میکند. اگر این فناوری در چارچوبهای شفاف و با نظارت انسانی و پاسخگویی استفاده شود، میتواند ابزاری برای حفظ جان انسانها و تقویت امنیت باشد، اما اگر در رقابتی بیضابطه و بدون کنترل رها شود، به منبعی از آشوب و هرجومرج تبدیل خواهد شد.
بنابراین آنچه در فوریه ۲۰۲۶ اتفاق افتاد، پایان ماجرا نیست، بلکه آغاز آن است. پرسشی که سرنوشت آینده جهان را رقم خواهد زد در ظاهر ساده به نظر میرسد، اما در عمق، پیامدهای عظیمی به همراه دارد: چه کسی کنترل واقعی فناوری پیشرفته جنگ را در دست خواهد داشت؟ انسان با چارچوبهای قانونی و اخلاقیاش، یا منطق بیقیدوبند قدرت که هیچ محدودیتی نمیشناسد؟
انتهای پیام