کدخبر :325348 پرینت
26 شهریور 1404 - 15:30

خطر فزاینده فیشینگ با کمک هوش مصنوعی

پژوهش مشترک رویترز و دانشگاه هاروارد به طرز نگران‌کننده‌ای نشان داد که چت‌بات‌های هوش مصنوعی می‌توانند در طراحی و اجرای کلاه‌برداری‌های فیشینگ (فریب‌کاری اینترنتی) بسیار مؤثر عمل کنند.

متن خبر

به گزارش سیتنا، پژوهشگران از شش چت‌بات مهم «چت جی‌پی‌تی»، «گراک»، «کلاد»، «جمنای»، «متا اِی‌آی»، و «دیپ‌سیک» خواستند ایمیل‌های فیشینگ برای فریب سالمندان تولید کنند. بسیاری از این بات‌ها، با وجود هشدار اولیه درباره غیرقانونی بودن چنین اقدامی، پس از اندکی فشار یا تغییر در متن درخواست، ایمیل‌های فریبنده ساختند.

ایمیل‌های تولیدی به‌گونه‌ای طراحی شدند که سالمندان را به کلیک روی لینک‌ها و ارائه اطلاعات شخصی و مالی ترغیب کنند. برخی حتی شامل تاکتیک‌های دقیق‌تری مثل توصیه به ارسال پیام‌ها در ساعات خاص روز یا افزودن عنصر فوریت برای اثرگذاری بیشتر بودند.

در آزمایشی که روی 108 داوطلب سالمند در آمریکا انجام شد، 11 درصد روی لینک‌های چنین ایمیل‌هایی کلیک کردند. این میزان تقریباً دو برابر نرخ موفقیت کارزار‌های آزمایشی شرکت‌های امنیت سایبری بود.

این ایمیل‌ها شامل پیشنهاد تخفیف‌های ویژه، هشدار درباره تعلیق مزایای تأمین اجتماعی، یا دعوت به مشارکت در بنیادهای خیریهٔ جعلی بود. در مواردی بات‌ها حتی لینک‌های جعلی بانکی یا صفحات مشابه «مدیکر» (تامین اجتماعی آمریکا) را پیشنهاد دادند.

بات چینی دیپ‌سیک حتی از این نیز فراتر رفت، و طرحی برای «پوشاندن ردپا» ارائه کرد، به‌گونه‌ای که قربانی پس از دادن اطلاعات حساس به یک وب‌سایت جعلی، به سایت واقعی خیریه هدایت شود تا متوجه فریب نشود.

کارشناسان هشدار می‌دهند که این توانایی چت‌بات‌ها، به‌ویژه با نظر به سرعت و مقیاس بی‌سابقهٔ تولید محتوا توسط آنها، می‌تواند کلاه‌برداری‌ها را به شدت افزایش و هزینه و زمان مورد نیاز برای مجرمان را کاهش دهد.

سیستم دفاع‌ داخلی مدل‌های هوش مصنوعی ناپایدار و متناقض است: گاهی یک درخواست را رد می‌کند و مشابه همان درخواست را در چتی دیگر می‌پذیرد. پژوهشگران می‌گویند رقابت تجاری و تمایل به جذب کاربر باعث می‌شود مدل‌ها اغلب «اطاعت‌پذیری» را بر «احتیاط» ترجیح دهند.

اف‌بی‌آی هشدار داده هوش مصنوعی مولد کلاه‌برداران را قادر می‌سازد با سرعت بیشتر و هزینه کمتر قربانیان بیشتری را فریب دهند. در حالی که برخی کشور‌ها قوانینی علیه استفاده از هوش مصنوعی در کلاه‌برداری تصویب کرده‌اند، بیشتر این قوانین متوجه عاملان مستقیم است، و شرکت‌های فناوری معمولا مسئول شناخته نمی‌شوند.

این پژوهش نشان می‌دهد که با وجود هشدارها و تلاش برای محدود کردن سوءاستفاده‌، هوش مصنوعی می‌تواند به‌راحتی به ابزاری برای جنایتکاران سایبری تبدیل شود، به‌ویژه علیه گروه‌های آسیب‌پذیر مانند سالمندان.

انتهای پیام

نظرات خود را با ما درمیان بگذارید

افزودن دیدگاه جدید

کپچا
CAPTCHA ی تصویری
کاراکترهای نمایش داده شده در تصویر را وارد کنید.