به گزارش سیتنا، دکتر حیدر ربیعی، استاد دانشگاه تهران و عضو اصلی انجمن صنفی شرکتهای فناور هوش مصنوعی و اقتصاد دیجیتال ایران طی یادداشت ارسالی بذای این رسانه نوشت:
اریک اشمیت، مدیرعامل و رئیس اجرایی پیشین گوگل و یکی از اثرگذارترین چهرههای فناوری، اخیراً در نشستی با اندیشکده Special Competitive Studies Project هشدار داده بود که پیشرفت هوش مصنوعی ممکن است بهزودی به نقطهای برسد که کنترل کامل آن دیگر برای انسان ممکن نباشد.
او پیشبینی کرده است که طی سه تا پنج سال آینده، پژوهشگران به سطحی از هوش مصنوعی خواهند رسید که از آن با عنوان هوش عمومی مصنوعی یاد میشود؛ یعنی سیستمی که میتواند مانند انسان فکر کند و تصمیم بگیرد. اشمیت معتقد است پس از تحقق این سطح از هوش مصنوعی، پیشبینی آینده ممکن نخواهد بود.
اشمیت توضیح داد که زمانی که هوش مصنوعی توانایی ارتقا و برنامهریزی خودکار پیدا کند، دیگر ضرورتی برای تبعیت از انسان نخواهد داشت. به گفته او، در این نقطه، ممکن است هوش مصنوعی از تمامی انسانها هوشمندتر شود و ما وارد مرحلهای شویم که به آن ابرهوش مصنوعی گفته میشود؛ یعنی هوشی فراتر از تمامی افراد بشر.
او اشاره کرد که در سیلیکونولی فرضیهای وجود دارد که بر اساس آن ابرهوش مصنوعی ممکن است تا شش سال آینده، تنها با رشد ظرفیت سختافزاری تحقق یابد.
اشمیت اظهار داشت که جامعه هنوز عمق تاثیرات ورود چنین هوشی را درک نکرده و حتی واژهای برای توصیف چنین وضعیتی در اختیار ندارد؛ به همین دلیل هم این موضوع آنطور که باید جدی گرفته نشده است.
با وجود این هشدارها، اشمیت برخلاف برخی افراد بدبین، نگرانی شدید ابراز نکرد و صرفاً با آرامش به بررسی احتمال نزدیک شدن به این وضعیت پرداخت. او تاکید نمود که مردم هنوز نمیدانند ظهور چنین هوش قدرتمندی چه عواقبی به دنبال خواهد داشت.
در ادامه، نکات کلیدی این هشدار بررسی میشود:
١. نزدیک شدن به هوش مصنوعی همسطح انسان (AGI):
اشمیت اشاره دارد که جامعه علمی و فناوری احتمالاً ظرف سه تا پنج سال آینده به سطحی از هوش مصنوعی خواهد رسید که توانایی تفکر و یادگیری شبیه به انسان را دارد، مسائل پیچیده را حل میکند و حتی خودش را ارتقا میدهد.
٢. خودآموزی و توسعه مستقل هوش مصنوعی:
پس از دستیابی به AGI، هوش مصنوعی میتواند بدون نیاز به برنامهریزی مستقیم انسانی، روند یادگیری و توسعه خود را پی بگیرد و حتی خودش را بازنویسی کند و مهارتهای جدید به دست آورد.
٣. آینده غیرقابل پیشبینی:
اشمیت هشدار داده است که بسیاری از مردم و حتی متخصصان پیامدهای پدید آمدن چنین سطحی از هوش را درک نکردهاند و تأکید میکند که سیاستگذاران و دانشمندان و کل جامعه باید برای این چالش بزرگ آماده باشند. او باور دارد آیندهای که تصمیمگیری نهایی در اختیار هوش مصنوعی باشد، تنها یک موضوع فنی نیست و سرنوشت بشر را تحت تاثیر قرار میدهد.
٤. پیامدهای اجتماعی، امنیتی و سیاسی:
خروج هوش مصنوعی از کنترل انسان میتواند چالشهای بزرگی در بخشهای نظامی، اقتصادی و اجتماعی ایجاد کند. همچنین احتمال فرار هوش مصنوعی از کنترل و نافرمانی از سیاستها و دستورات انسانی وجود دارد؛ موضوعی که دولتها و شرکتهای فناوری باید برای آن برنامه و مقررات سختگیرانهتری تدوین کنند.
٥. سرعت بالای پیشرفت هوش مصنوعی:
اشمیت بر این نکته تاکید میکند که سرعت توسعه هوش مصنوعی بسیار فراتر از تصور عمومی است و حتی متخصصان را هم شگفتزده کرده است.
٦. عدم شناخت کافی در جامعه:
به اعتقاد اشمیت، بسیاری از مردم و حتی برخی سیاستگذاران و کاربران عادی نسبت به قابلیتها و خطرات واقعی هوش مصنوعی آگاهی لازم را ندارند و برای مواجهه با ریسکهای احتمالی آماده نشدهاند.
٧. خودمختاری و تصمیمگیری مستقل هوش مصنوعی:
یکی از مهمترین نگرانیها این است که با دستیابی به AGI، سیستمهای هوشمند بتوانند بر اساس منافع و خواست خود، بهطور مستقل تصمیمگیری و هدفگذاری کنند و دیگر ملزم به رعایت خواست انسانها نباشند.
٨. ضرورت قانونگذاری و تدوین مقررات جدید:
به عقیده اشمیت باید هر چه سریعتر قوانین و چارچوبهای اخلاقی مرتبط با هوش مصنوعی تدوین و اعمال شود تا در جریان پیشرفت فناوری، ابزارهای مناسبی برای کنترل و مدیریت این فناوری فراهم باشد.
٩. نگرانی از گریز هوش مصنوعی از محدودیتها:
در متن اشاره شده که هوش مصنوعی میتواند از محدودیتها و کنترلهای فعلی خارج شود و رفتارهایی انجام دهد که قابل پیشبینی نباشند.
١٠. پیشنهاد برای واکنش جمعی:
این هشدار تأکید دارد که دولتها، شرکتهای فناوری و سازمانهای مدنی باید هر چه جدیتر به موضوع هوش مصنوعی توجه کرده و همکاری کنند تا در برابر خطرها و چالشهای پیشرو آمادگی لازم به وجود آید.
سابقه مدیریتی و علمی اریک اشمیت اهمیت سخنان او را افزایش میدهد. او سالها علاوه بر مدیریت یکی از بزرگترین شرکتهای فناوری، به عنوان مشاور دولت آمریکا در مسائل علمی و فناورانه فعالیت داشته است. بنابراین صحبتهایش مبتنی بر نگرش سطحی نیست و از تحلیل دقیق روندهای جاری در حوزه هوش مصنوعی سرچشمه میگیرد.
امروزه شتاب بالای توسعه هوش مصنوعی موجب شده حتی بسیاری از کارشناسان برجسته نیز نسبت به آینده این تکنولوژی هشدار دهند. نگرانی اصلی این است که با دستیابی به هوش همسطح انسان، ممکن است کنترل بشر بر فناوری تغییر کند و خود فناوری برای جامعه، سیاست و امنیت جهانی تهدیدی بالقوه ایجاد کند.
سایت MSN نیز دیدگاههای اریک اشمیت را درباره خطرات هوش مصنوعی تحلیل کرده است. اشمیت در این خصوص هشدار داده که توسعه سریع هوش مصنوعی میتواند به پروژهای شبیه پروژه منهتن تبدیل شود؛ یعنی حرکتی سریع و متمرکز که نتایج و تبعات آن ممکن است قابل پیشبینی یا بازگشتپذیر نباشد.
در این گزارش آمده اشمیت نسبت به روند رو به رشد و سرمایهگذاریهای کلان در حوزه هوش مصنوعی ابراز نگرانی کرده و اعتقاد دارد اگر این مسیر بدون ایجاد ضوابط و موارد ایمنی ادامه یابد، کنترل آن برای بشر ممکن نخواهد بود.
لازم به ذکر است این نگرانیها فقط مختص اشمیت نیست و چهرههایی مانند مدیرعامل Scale AI و رئیس مرکز ایمنی هوش مصنوعی نیز هشدارهای مشابهی دادهاند. آنها همگی بر نیاز به قانونگذاری، ایجاد چارچوبهای ایمنی و همکاری جهانی برای کنترل خطرات احتمالی تاکید دارند.
نکته مهم این است که مخالفت جدی و منسجمی با این هشدارها دیده نمیشود و تقریباً تمامی رسانهها و کارشناسان بر لزوم احتیاط، تدوین مقررات و توجه ویژه به این موضوع اتفاق نظر دارند. در نتیجه، جمعبندی اغلب فعالان و صاحبنظران حوزه فناوری همسویی با هشدارهای اشمیت و تأکید بر قانونگذاری و مدیریت جدیتر هوش مصنوعی است.
حالا با با توجه به هشدارها و چالشهای اشارهشده، برای توسعه ایمن هوش مصنوعی در ایران راهکارهای ایمن ذیل پیشنهاد میشود:
۱. تدوین مقررات و چارچوب اخلاقی شفاف؛
دولت و مجلس باید هرچه سریعتر قوانین ویژهای برای هوش مصنوعی تنظیم کنند؛ قوانین باید موضوعاتی مانند حفاظت داده، شفافیت عملکرد الگوریتمها، مسئولیت تصمیمات هوش مصنوعی و حقوق کاربران را پوشش دهد. تشکیل کمیته ملی اخلاق هوش مصنوعی با حضور متخصصین، حقوقدانان و نمایندگان جامعه متعهد به تسریع رسدن به اهداف میتواند بسیار موثر واقع شود.
۲. آموزش و آگاهسازی؛
برگزاری کارگاهها، دورههای آموزشی و تعامل دانشگاه با صنعت برای تربیت متخصصین آگاه به مخاطرات و مسئولیتهای اجتماعی و دوری از شواف و محدود کردن کسانی که در سالهای اخیر موج سواری را به خوبی یادگرفتند. اطلاعرسانی عمومی برای افزایش سواد هوش مصنوعی مردم و سیاستگذاران یک موضوع حیاتی است.
۳. طراحی سیستمهای قابل کنترل و تفسیرپذیر؛
تمرکز روی توسعه هوش مصنوعیهایی با قابلیت توضیحپذیری (Explainable AI)، تا خروجیها و تصمیمها برای انسان واضح باشد. اطمینان از وجود "سطوح کنترلی" برای توقف، تعدیل یا جهتدهی رفتار سیستمهای پیچیده بسیاری از آن نگرانی ها را میتوانند کاهش دهند.
۴. همکاری بیندبخشی و بینالمللی؛
ایجاد شبکه همکاری میان دانشگاه، صنعت، دولت و نهادهای مدنی برای مدیریت ریسکها به نوبه خود ضریب امنیت بالایی ایجاد خواهد کرد. آنچه مسلم است، استفاده از تجربیات و مقررات بینالمللی در حوزه ایمنی هوش مصنوعی و تطبیق آنها با شرایط ایران، هوش مصنوعی را در همان حد ابزار کمک کننده به انسان نگه میدارد.
۵. پایش و ارزیابی مداوم؛
راهاندازی نهاد یا رگولاتور مستقل برای ارزیابی منظم پروژههای هوش مصنوعی داخلی و رصد مخاطرات احتمالی بسیار تاثیر گذار در حفظ مسیر فناوری هوش مصنوعی خواهد بود. تهیه سامانه گزارشدهی از رفتارهای غیرمنتظره یا خطرناک هوش مصنوعی و واکنش سریع به رخدادها ریسک جامعه به حداقل میرساند.
۶. توسعه فناوری بومی امن؛
تاکید بر ساخت و پیادهسازی سامانههای هوش مصنوعی بومی که هم نیازهای جامعه را پاسخ دهد و هم توسط متخصصین محلی قابل نظارت و بهبود باشد.
از طرفی دیگر به متخصصان ایرانی توصیه میشود:
- رعایت اصول اخلاقی و مسئولیت اجتماعی در طراحی و توسعه پروژهها،
- مشارکت فعال در تدوین استانداردهای ملی و رصد پروژههای بزرگ هوش مصنوعی بین المللی،
- استفاده از مدلهای متنباز و بومی به جای پلتفرمهای ناشناس خارجی و تلاش برای بومیسازی الگوریتمها،
- یادگیری مداوم درباره ریسکها و چالشهای جدید حوزه هوش مصنوعی و تبادل دانش با جامعه جهانی.
گسترش خردمندانه و نظارتشده هوش مصنوعی باید اولویت باشد؛ رویکردی که به توسعه فناوری کمک میکند اما از تهدیدهای بلندمدت نیز پیشگیری میکند. متخصصان ایرانی با تقویت همکاری میانرشتهای، توجه به اخلاق حرفهای و مشارکت در قانونگذاری میتوانند نقش کلیدی در کنترل و هدایت مطمئن این فناوری داشته باشند.
انتهای پیام