خطر فزاینده فیشینگ با کمک هوش مصنوعی
پژوهش مشترک رویترز و دانشگاه هاروارد به طرز نگرانکنندهای نشان داد که چتباتهای هوش مصنوعی میتوانند در طراحی و اجرای کلاهبرداریهای فیشینگ (فریبکاری اینترنتی) بسیار مؤثر عمل کنند.
به گزارش سیتنا، پژوهشگران از شش چتبات مهم «چت جیپیتی»، «گراک»، «کلاد»، «جمنای»، «متا اِیآی»، و «دیپسیک» خواستند ایمیلهای فیشینگ برای فریب سالمندان تولید کنند. بسیاری از این باتها، با وجود هشدار اولیه درباره غیرقانونی بودن چنین اقدامی، پس از اندکی فشار یا تغییر در متن درخواست، ایمیلهای فریبنده ساختند.
ایمیلهای تولیدی بهگونهای طراحی شدند که سالمندان را به کلیک روی لینکها و ارائه اطلاعات شخصی و مالی ترغیب کنند. برخی حتی شامل تاکتیکهای دقیقتری مثل توصیه به ارسال پیامها در ساعات خاص روز یا افزودن عنصر فوریت برای اثرگذاری بیشتر بودند.
در آزمایشی که روی 108 داوطلب سالمند در آمریکا انجام شد، 11 درصد روی لینکهای چنین ایمیلهایی کلیک کردند. این میزان تقریباً دو برابر نرخ موفقیت کارزارهای آزمایشی شرکتهای امنیت سایبری بود.
این ایمیلها شامل پیشنهاد تخفیفهای ویژه، هشدار درباره تعلیق مزایای تأمین اجتماعی، یا دعوت به مشارکت در بنیادهای خیریهٔ جعلی بود. در مواردی باتها حتی لینکهای جعلی بانکی یا صفحات مشابه «مدیکر» (تامین اجتماعی آمریکا) را پیشنهاد دادند.
بات چینی دیپسیک حتی از این نیز فراتر رفت، و طرحی برای «پوشاندن ردپا» ارائه کرد، بهگونهای که قربانی پس از دادن اطلاعات حساس به یک وبسایت جعلی، به سایت واقعی خیریه هدایت شود تا متوجه فریب نشود.
کارشناسان هشدار میدهند که این توانایی چتباتها، بهویژه با نظر به سرعت و مقیاس بیسابقهٔ تولید محتوا توسط آنها، میتواند کلاهبرداریها را به شدت افزایش و هزینه و زمان مورد نیاز برای مجرمان را کاهش دهد.
سیستم دفاع داخلی مدلهای هوش مصنوعی ناپایدار و متناقض است: گاهی یک درخواست را رد میکند و مشابه همان درخواست را در چتی دیگر میپذیرد. پژوهشگران میگویند رقابت تجاری و تمایل به جذب کاربر باعث میشود مدلها اغلب «اطاعتپذیری» را بر «احتیاط» ترجیح دهند.
افبیآی هشدار داده هوش مصنوعی مولد کلاهبرداران را قادر میسازد با سرعت بیشتر و هزینه کمتر قربانیان بیشتری را فریب دهند. در حالی که برخی کشورها قوانینی علیه استفاده از هوش مصنوعی در کلاهبرداری تصویب کردهاند، بیشتر این قوانین متوجه عاملان مستقیم است، و شرکتهای فناوری معمولا مسئول شناخته نمیشوند.
این پژوهش نشان میدهد که با وجود هشدارها و تلاش برای محدود کردن سوءاستفاده، هوش مصنوعی میتواند بهراحتی به ابزاری برای جنایتکاران سایبری تبدیل شود، بهویژه علیه گروههای آسیبپذیر مانند سالمندان.
انتهای پیام
افزودن دیدگاه جدید