هشدار درباره پایان سلطه بشر بر هوش مصنوعی؛ راهکارهای پیشنهادی برای ایران

هوش مصنوعی
دکتر حیدر ربیعی، استاد دانشگاه تهران، طی یاداشتی ضمن اعلام هشدار اریک اشمیت درباره پایان سلطه بشر بر هوش مصنوعی، پیرامون پیامدها، چالش‌ها و راهکارهای پیشنهادی برای ایران به ارائه دیدگاه پرداخت.

به گزارش سیتنا، دکتر حیدر ربیعی، استاد دانشگاه تهران و عضو اصلی انجمن صنفی شرکت‌های فناور هوش مصنوعی و اقتصاد دیجیتال ایران طی یادداشت ارسالی بذای این رسانه نوشت:

اریک اشمیت، مدیرعامل و رئیس اجرایی پیشین گوگل و یکی از اثرگذارترین چهره‌های فناوری، اخیراً در نشستی با اندیشکده Special Competitive Studies Project  هشدار داده بود که پیشرفت هوش مصنوعی ممکن است به‌زودی به نقطه‌ای برسد که کنترل کامل آن دیگر برای انسان ممکن نباشد.
او پیش‌بینی کرده است که طی سه تا پنج سال آینده، پژوهشگران به سطحی از هوش مصنوعی خواهند رسید که از آن با عنوان هوش عمومی مصنوعی یاد می‌شود؛ یعنی سیستمی که می‌تواند مانند انسان فکر کند و تصمیم بگیرد. اشمیت معتقد است پس از تحقق این سطح از هوش مصنوعی، پیش‌بینی آینده ممکن نخواهد بود.
اشمیت توضیح داد که زمانی که هوش مصنوعی توانایی ارتقا و برنامه‌ریزی خودکار پیدا کند، دیگر ضرورتی برای تبعیت از انسان‌ نخواهد داشت. به گفته او، در این نقطه، ممکن است هوش مصنوعی از تمامی انسان‌ها هوشمندتر شود و ما وارد مرحله‌ای شویم که به آن ابرهوش مصنوعی گفته می‌شود؛ یعنی هوشی فراتر از تمامی افراد بشر.
او اشاره کرد که در سیلیکون‌ولی فرضیه‌ای وجود دارد که بر اساس آن ابرهوش مصنوعی ممکن است تا شش سال آینده، تنها با رشد ظرفیت سخت‌افزاری تحقق یابد.
اشمیت اظهار داشت که جامعه هنوز عمق تاثیرات ورود چنین هوشی را درک نکرده و حتی واژه‌ای برای توصیف چنین وضعیتی در اختیار ندارد؛ به همین دلیل هم این موضوع آنطور که باید جدی گرفته نشده است.
با وجود این هشدارها، اشمیت برخلاف برخی افراد بدبین، نگرانی شدید ابراز نکرد و صرفاً با آرامش به بررسی احتمال نزدیک شدن به این وضعیت پرداخت. او تاکید نمود که مردم هنوز نمی‌دانند ظهور چنین هوش قدرتمندی چه عواقبی به دنبال خواهد داشت.

در ادامه، نکات کلیدی این هشدار بررسی می‌شود:
١. نزدیک شدن به هوش مصنوعی هم‌سطح انسان (AGI):
اشمیت اشاره دارد که جامعه علمی و فناوری احتمالاً ظرف سه تا پنج سال آینده به سطحی از هوش مصنوعی خواهد رسید که توانایی تفکر و یادگیری شبیه به انسان را دارد، مسائل پیچیده را حل می‌کند و حتی خودش را ارتقا می‌دهد.
٢. خودآموزی و توسعه مستقل هوش مصنوعی:
پس از دستیابی به AGI، هوش مصنوعی می‌تواند بدون نیاز به برنامه‌ریزی مستقیم انسانی، روند یادگیری و توسعه خود را پی بگیرد و حتی خودش را بازنویسی کند و مهارت‌های جدید به دست آورد.
٣. آینده غیرقابل پیش‌بینی:
اشمیت هشدار داده است که بسیاری از مردم و حتی متخصصان پیامدهای پدید آمدن چنین سطحی از هوش را درک نکرده‌اند و تأکید می‌کند که سیاست‌گذاران و دانشمندان و کل جامعه باید برای این چالش بزرگ آماده باشند. او باور دارد آینده‌ای که تصمیم‌گیری نهایی در اختیار هوش مصنوعی باشد، تنها یک موضوع فنی نیست و سرنوشت بشر را تحت تاثیر قرار می‌دهد.
٤. پیامدهای اجتماعی، امنیتی و سیاسی:
خروج هوش مصنوعی از کنترل انسان می‌تواند چالش‌های بزرگی در بخش‌های نظامی، اقتصادی و اجتماعی ایجاد کند. همچنین احتمال فرار هوش مصنوعی از کنترل و نافرمانی از سیاست‌ها و دستورات انسانی وجود دارد؛ موضوعی که دولت‌ها و شرکت‌های فناوری باید برای آن برنامه و مقررات سختگیرانه‌تری تدوین کنند.
٥. سرعت بالای پیشرفت هوش مصنوعی:
اشمیت بر این نکته تاکید می‌کند که سرعت توسعه هوش مصنوعی بسیار فراتر از تصور عمومی است و حتی متخصصان را هم شگفت‌زده کرده است.
٦. عدم شناخت کافی در جامعه:
به اعتقاد اشمیت، بسیاری از مردم و حتی برخی سیاست‌گذاران و کاربران عادی نسبت به قابلیت‌ها و خطرات واقعی هوش مصنوعی آگاهی لازم را ندارند و برای مواجهه با ریسک‌های احتمالی آماده نشده‌اند.
٧. خودمختاری و تصمیم‌گیری مستقل هوش مصنوعی:
یکی از مهم‌ترین نگرانی‌ها این است که با دستیابی به AGI، سیستم‌های هوشمند بتوانند بر اساس منافع و خواست خود، به‌طور مستقل تصمیم‌گیری و هدف‌گذاری کنند و دیگر ملزم به رعایت خواست انسان‌ها نباشند.
٨. ضرورت قانون‌گذاری و تدوین مقررات جدید:
به عقیده اشمیت باید هر چه سریع‌تر قوانین و چارچوب‌های اخلاقی مرتبط با هوش مصنوعی تدوین و اعمال شود تا در جریان پیشرفت فناوری، ابزارهای مناسبی برای کنترل و مدیریت این فناوری فراهم باشد.
٩. نگرانی از گریز هوش مصنوعی از محدودیت‌ها:
در متن اشاره شده که هوش مصنوعی می‌تواند از محدودیت‌ها و کنترل‌های فعلی خارج شود و رفتارهایی انجام دهد که قابل پیش‌بینی نباشند.
١٠. پیشنهاد برای واکنش جمعی:
این هشدار تأکید دارد که دولت‌ها، شرکت‌های فناوری و سازمان‌های مدنی باید هر چه جدی‌تر به موضوع هوش مصنوعی توجه کرده و همکاری کنند تا در برابر خطرها و چالش‌های پیش‌رو آمادگی لازم به وجود آید.

سابقه مدیریتی و علمی اریک اشمیت اهمیت سخنان او را افزایش می‌دهد. او سال‌ها علاوه بر مدیریت یکی از بزرگ‌ترین شرکت‌های فناوری، به عنوان مشاور دولت آمریکا در مسائل علمی و فناورانه فعالیت داشته است. بنابراین صحبت‌هایش مبتنی بر نگرش سطحی نیست و از تحلیل دقیق روندهای جاری در حوزه هوش مصنوعی سرچشمه می‌گیرد.
امروزه شتاب بالای توسعه هوش مصنوعی موجب شده حتی بسیاری از کارشناسان برجسته نیز نسبت به آینده این تکنولوژی هشدار دهند. نگرانی اصلی این است که با دستیابی به هوش هم‌سطح انسان، ممکن است کنترل بشر بر فناوری تغییر کند و خود فناوری برای جامعه، سیاست و امنیت جهانی تهدیدی بالقوه ایجاد کند.
سایت MSN نیز دیدگاه‌های اریک اشمیت را درباره خطرات هوش مصنوعی تحلیل کرده است. اشمیت در این خصوص هشدار داده که توسعه سریع هوش مصنوعی می‌تواند به پروژه‌ای شبیه پروژه منهتن تبدیل شود؛ یعنی حرکتی سریع و متمرکز که نتایج و تبعات آن ممکن است قابل پیش‌بینی یا بازگشت‌پذیر نباشد.
در این گزارش آمده اشمیت نسبت به روند رو به رشد و سرمایه‌گذاری‌های کلان در حوزه هوش مصنوعی ابراز نگرانی کرده و اعتقاد دارد اگر این مسیر بدون ایجاد ضوابط و موارد ایمنی ادامه یابد، کنترل آن برای بشر ممکن نخواهد بود.
لازم به ذکر است این نگرانی‌ها فقط مختص اشمیت نیست و چهره‌هایی مانند مدیرعامل Scale AI و رئیس مرکز ایمنی هوش مصنوعی نیز هشدارهای مشابهی داده‌اند. آنها همگی بر نیاز به قانون‌گذاری، ایجاد چارچوب‌های ایمنی و همکاری جهانی برای کنترل خطرات احتمالی تاکید دارند.
نکته مهم این است که مخالفت جدی و منسجمی با این هشدارها دیده نمی‌شود و تقریباً تمامی رسانه‌ها و کارشناسان بر لزوم احتیاط، تدوین مقررات و توجه ویژه به این موضوع اتفاق نظر دارند. در نتیجه، جمع‌بندی اغلب فعالان و صاحب‌نظران حوزه فناوری همسویی با هشدارهای اشمیت و تأکید بر قانون‌گذاری و مدیریت جدی‌تر هوش مصنوعی است.

حالا با با توجه به هشدارها و چالش‌های اشاره‌شده، برای توسعه ایمن هوش مصنوعی در ایران راهکارهای ایمن ذیل پیشنهاد می‌شود:
۱. تدوین مقررات و چارچوب اخلاقی شفاف؛  
دولت و مجلس باید هرچه سریع‌تر قوانین ویژه‌ای برای هوش مصنوعی تنظیم کنند؛ قوانین باید موضوعاتی مانند حفاظت داده، شفافیت عملکرد الگوریتم‌ها، مسئولیت تصمیمات هوش مصنوعی و حقوق کاربران را پوشش دهد. تشکیل کمیته ملی اخلاق هوش مصنوعی با حضور متخصصین، حقوقدانان و نمایندگان جامعه متعهد به تسریع رسدن به اهداف میتواند بسیار موثر واقع شود.
۲. آموزش و آگاه‌سازی؛  
برگزاری کارگاه‌ها، دوره‌های آموزشی و تعامل دانشگاه با صنعت برای تربیت متخصصین آگاه به مخاطرات و مسئولیت‌های اجتماعی و دوری از شواف و محدود کردن کسانی که در سالهای اخیر موج سواری را به خوبی یادگرفتند. اطلاع‌رسانی عمومی برای افزایش سواد هوش مصنوعی مردم و سیاست‌گذاران یک موضوع حیاتی است.
۳. طراحی سیستم‌های قابل کنترل و تفسیرپذیر؛  
تمرکز روی توسعه هوش مصنوعی‌هایی با قابلیت توضیح‌پذیری (Explainable AI)، تا خروجی‌ها و تصمیم‌ها برای انسان واضح باشد. اطمینان از وجود "سطوح کنترلی" برای توقف، تعدیل یا جهت‌دهی رفتار سیستم‌های پیچیده بسیاری از آن نگرانی ها را می‌توانند کاهش دهند.
۴. همکاری بین‌دبخشی و بین‌المللی؛  
ایجاد شبکه همکاری میان دانشگاه، صنعت، دولت و نهادهای مدنی برای مدیریت ریسک‌ها به نوبه خود ضریب امنیت بالایی ایجاد خواهد کرد. آنچه مسلم است، استفاده از تجربیات و مقررات بین‌المللی در حوزه ایمنی هوش مصنوعی و تطبیق آنها با شرایط ایران، هوش مصنوعی را در همان حد ابزار کمک کننده به انسان نگه میدارد.
۵. پایش و ارزیابی مداوم؛ 
راه‌اندازی نهاد یا رگولاتور مستقل برای ارزیابی منظم پروژه‌های هوش مصنوعی داخلی و رصد مخاطرات احتمالی بسیار تاثیر گذار در حفظ مسیر فناوری هوش مصنوعی خواهد بود. تهیه سامانه گزارش‌دهی از رفتارهای غیرمنتظره یا خطرناک هوش مصنوعی و واکنش سریع به رخدادها ریسک جامعه به حداقل میرساند.
۶. توسعه فناوری بومی امن؛  
تاکید بر ساخت و پیاده‌سازی سامانه‌های هوش مصنوعی بومی که هم نیازهای جامعه را پاسخ دهد و هم توسط متخصصین محلی قابل نظارت و بهبود باشد.

از طرفی دیگر به متخصصان ایرانی توصیه می‌شود:
- رعایت اصول اخلاقی و مسئولیت اجتماعی در طراحی و توسعه پروژه‌ها،
- مشارکت فعال در تدوین استانداردهای ملی و رصد پروژه‌های بزرگ هوش مصنوعی بین المللی،
- استفاده از مدل‌های متن‌باز و بومی به جای پلتفرم‌های ناشناس خارجی و تلاش برای بومی‌سازی الگوریتم‌ها،
- یادگیری مداوم درباره ریسک‌ها و چالش‌های جدید حوزه هوش مصنوعی و تبادل دانش با جامعه جهانی.

گسترش خردمندانه و نظارت‌شده هوش مصنوعی باید اولویت باشد؛ رویکردی که به توسعه فناوری کمک می‌کند اما از تهدیدهای بلندمدت نیز پیشگیری می‌کند. متخصصان ایرانی با تقویت همکاری میان‌رشته‌ای، توجه به اخلاق حرفه‌ای و مشارکت در قانون‌گذاری می‌توانند نقش کلیدی در کنترل و هدایت مطمئن این فناوری داشته باشند.

انتهای پیام


Source URL: https://www.citna.ir/news/320471/هشدار-درباره-پایان-سلطه-بشر-بر-هوش-مصنوعی؛-راهکارهای-پیشنهادی-برای-ایران