دسته‌بندی نشده

بررسی تأثیر هوش مصنوعی بر حملات و دفاع سایبری

بررسی تأثیر هوش مصنوعی بر حملات و دفاع سایبری

آغاز یک رقابت بی‌پایان میان مهاجمان و مدافعان سایبری

ظهور هوش مصنوعی و به‌ویژه مدل‌های مولد زبانی، تحولی بزرگ در دنیای امنیت سایبری ایجاد کرده است. این فناوری نه‌تنها توانایی‌های مدافعان را برای شناسایی و مقابله با تهدیدات افزایش داده، بلکه سطح حملات سایبری را نیز ارتقا داده و باعث شده است مهاجمان با سرعت بیشتر و دقت بالاتر از گذشته فعالیت کنند. سرعت توسعه مدل‌های زبانی، ابزارهای عامل‌محور یا همان Agentic AI و الگوریتم‌های تولید خودکار کد، باعث شده است که امنیت سایبری در یک «رقابت تسلیحاتی» قرار گیرد که در آن هر به‌روزرسانی دفاعی، به‌سرعت با یک روش حمله جدید پاسخ داده می‌شود. بر اساس یافته‌های منتشرشده توسط تیم‌های امنیتی و تحلیلگران تهدید، به بررسی دقیق تأثیر هوش مصنوعی بر حملات سایبری، نحوه بهره‌برداری مهاجمان از مدل‌های زبانی، نقش Agentic AI در تسهیل فعالیت‌های مخرب و همچنین برتری مدافعان در استفاده طولانی‌مدت از فناوری‌های هوش مصنوعی خواهیم پرداخت.

 

هوش مصنوعی و فیشینگ: افزایش دقت، کیفیت و مقیاس حملات مهندسی اجتماعی

فیشینگ همواره یکی از محبوب‌ترین روش‌های حملات سایبری بوده است؛ اما با ورود مدل‌های زبانی پیشرفته، این روش به سطحی کاملاً جدید رسیده است. بسیاری از مهاجمان پیش از این برای نوشتن متن‌های حرفه‌ای، روان و متقاعدکننده با مشکل مواجه بودند، زیرا بسیاری از آنها انگلیسی‌زبان نبودند و همین موضوع باعث می‌شد پیام‌های فیشینگ دارای غلط‌های نگارشی، ساختاری یا لحنی باشند. اکنون مدل‌های زبانی این محدودیت را تقریباً از بین برده‌اند. یک مهاجم تنها با چند پرسش ساده می‌تواند متنی تولید کند که از نظر روانی، زبانی و ساختاری تقریباً مشابه یک پیام معتبر از سوی یک شرکت رسمی باشد. این مدل‌ها قادرند لحن محتوا را به حالت دوستانه، رسمی یا اضطراری تبدیل کنند و همین موضوع میزان موفقیت حملات فیشینگ را به‌طور چشمگیری افزایش داده است. علاوه بر کیفیت، عامل مهم دیگر، افزایش کمیت حملات است. مهاجمان می‌توانند در یک بازه کوتاه هزاران پیام با سناریوهای متفاوت تولید کنند که این موضوع بار دفاعی را چندین برابر می‌کند.

 

کاهش موانع ورود برای مهاجمان: از فیشینگ‌به‌عنوان‌یک‌خدمت تا تولید محتوا با چند کلیک

پیش از ظهور مدل‌های زبانی، انجام یک حمله فیشینگ حرفه‌ای نیازمند مهارت‌های زبانی، فنی و شناخت روانشناسی کاربران بود. اما اکنون، سرویس‌های فیشینگ‌به‌عنوان‌خدمت یا PaaS با استفاده از هوش مصنوعی به‌شدت ساده‌تر شده‌اند. پلتفرم‌های زیرزمینی این امکان را فراهم می‌کنند که کاربر با کمترین سطح دانش فنی، تنها با پر کردن چند فرم ساده، بتواند کمپین فیشینگ خود را اجرا کند. این موضوع باعث شده تعداد مهاجمان کم‌تجربه و تازه‌کار به طرز چشمگیری افزایش یابد، زیرا تولید محتوا، قالب‌بندی ایمیل‌ها، ترجمه حرفه‌ای، ساخت لندینگ‌پیج جعلی و حتی زمان‌بندی ارسال پیام‌ها اکنون توسط هوش مصنوعی انجام می‌شود.

 

استفاده مهاجمان از هوش مصنوعی برای تولید کدهای مخرب

یکی از جنبه‌های بسیار مهم نفوذ هوش مصنوعی در امنیت سایبری، امکان تولید یا اصلاح کدهای مخرب است. هرچند مدل‌های زبانی با محدودیت‌های امنیتی ساخته شده‌اند و معمولاً با درخواست تولید بدافزار مخالفت می‌کنند، اما مهاجمان در سال‌های گذشته نشان داده‌اند که این محدودیت‌ها کاملاً قابل دور زدن است. تکنیک‌هایی مانند مهندسی پرامپت، داستان‌سازی، درخواست برای اهداف آموزشی، یا کوچک کردن گام‌های درخواست منجر به آن شده است که مدل‌های زبانی، بخشی یا حتی کل یک بدافزار را تولید کنند. تحقیقات سال‌های گذشته نشان داده است که برخی اسکریپت‌ها و بدافزارهایی که در حملات واقعی دیده شده‌اند، دارای ویژگی‌هایی هستند که به‌وضوح نشان می‌دهد تولیدکننده آنها یک مدل زبانی بوده است. این ویژگی‌ها شامل نام‌گذاری‌های سراسری و نامعمول متغیرها، وجود توضیحات اضافه و غیرضروری پس از هر خط کد، و ساختارهای یکسان و قابل تشخیص هستند. این نشان می‌دهد که بسیاری از افراد بدون مهارت برنامه‌نویسی می‌توانند با استفاده از هوش مصنوعی بدافزارهایی بسازند که قابلیت اجرای حملات واقعی را دارند.

 

مطالعات موردی: نمونه‌هایی از نقش مدل‌های زبانی در توسعه بدافزار

تحقیقات انجام‌شده در سال‌های ۲۰۲۴ و ۲۰۲۵ نشان می‌دهد که برخی حملات بزرگ از کدهایی استفاده کرده‌اند که به احتمال زیاد با کمک مدل‌های هوش مصنوعی نوشته شده‌اند. این حملات شامل انتشار و اجرای بدافزارهای مختلفی مانند Radamanthys، NetSupport، ModiLoader و LokiBot بوده‌اند. تحلیل فنی این اسکریپت‌ها نشان می‌دهد که بخش‌هایی از آنها ماشینی و غیرانسانی هستند و تولیدکننده آنها یا یک مدل زبانی بوده یا از آن الهام گرفته است. این نکته نشان می‌دهد که هوش مصنوعی به یک ابزار مهم در چرخه تولید بدافزار تبدیل شده است. در یک مورد دیگر، پژوهشگران توانسته‌اند با فریب یک مدل زبانی چینی، به بهانه اهداف آموزشی، یک باج‌افزار و یک کی‌لاگر نیمه‌کار ایجاد کنند که پس از اصلاحات انسانی قادر به اجرا شده است. این مثال‌ها نشان می‌دهد که حتی مدل‌های دارای محدودیت نیز می‌توانند در صورت درخواست‌های مناسب، نقش مهمی در تولید کدهای مخرب ایفا کنند.

 

رویکرد «جهان غوطه‌ور» و عبور از خطوط دفاعی مدل‌ها

یکی از تکنیک‌های جالبی که مهاجمان و پژوهشگران در سال ۲۰۲۵ از آن استفاده کرده‌اند، روش «Immersive World» یا جهان غوطه‌ور است. این روش، نوعی مهندسی پرامپت روایی است که در آن به مدل زبانی یک دنیا یا سناریوی غیرواقعی معرفی می‌شود و به آن اجازه داده می‌شود نقش یک شخصیت داستانی را بازی کند. در چنین سناریوهایی، مدل‌ها معمولاً محدودیت‌های امنیتی را کنار می‌گذارند و پاسخ‌هایی ارائه می‌دهند که در حالت عادی مجاز نیست. پژوهشگری بدون هیچ دانش برنامه‌نویسی توانسته است با استفاده از این روش یک ابزار جاسوسی کاملاً کاربردی برای سرقت اطلاعات از مرورگر گوگل کروم تولید کند. اگرچه این مدل‌ها همچنان نیازمند کمک انسانی برای رفع خطاها هستند، اما خطر این است که تعداد بیشتری از افراد غیرمتخصص قادر به تولید ابزارهای خطرناک شوند.

 

ظهور LLMهای مخرب و سفارشی‌سازی‌شده توسط مهاجمان

در کنار سوءاستفاده مهاجمان از مدل‌های قانونی، روند خطرناک جدیدی در حال شکل‌گیری است: توسعه مدل‌های زبانی مخرب توسط خود مهاجمان. این مدل‌ها برخلاف مدل‌های تجاری، هیچگونه سیستم نظارت یا محدودیت اخلاقی ندارند و برای تولید بدافزار، طراحی حملات فیشینگ، ساخت کدهای بهره‌برداری و کارهای مخرب دیگر آزاد هستند. نمونه‌ای از این مدل‌ها Xanthorox AI است که در بازارهای زیرزمینی ارائه می‌شود و دسترسی آزاد و بدون محدودیت را برای ایجاد محتوا و کدهای مخرب فراهم می‌کند. این روند به‌طور جدی می‌تواند موانع ورود به دنیای جرم سایبری را از بین ببرد و موج جدیدی از حملات سازمان‌یافته و سریع را ایجاد کند.

 

Agentic AI: عصر جدید خودمختاری و تهدیدات پیشرفته‌تر

در سال ۲۰۲۵ نسل جدیدی از ابزارهای هوش مصنوعی معرفی شد که تحت عنوان «Agentic AI» شناخته می‌شوند. برخلاف مدل‌های زبانی معمولی که صرفاً تولید کننده محتوا و پاسخ هستند، عامل‌های هوشمند قادرند استدلال، تصمیم‌گیری، برنامه‌ریزی و اجرای خودکار وظایف را انجام دهند. این مفهوم به‌طور بنیادی ماهیت حملات سایبری را تغییر می‌دهد، زیرا مهاجم دیگر لازم نیست مرحله‌به‌مرحله حمله را طراحی، اجرا و اصلاح کند. یک عامل هوش مصنوعی می‌تواند وظایفی مانند جمع‌آوری اطلاعات هدف، یافتن ایمیل‌های کارکنان، نوشتن یک اسکریپت مخرب، ارسال آن، جمع‌آوری خروجی و گزارش‌گیری را بدون کمک انسان انجام دهد. پژوهش‌هایی که در ماه‌های اخیر انجام شده نشان می‌دهد که حتی با وجود محدودیت‌های امنیتی فعلی، برخی عامل‌های هوش مصنوعی توانسته‌اند زنجیره حمله را تقریباً به‌صورت خودکار و با کمترین مداخله انسانی اجرا کنند.

 

تصور آینده‌ای نزدیک: حملات کاملاً خودکار تنها با یک دستور

با سرعت فعلی پیشرفت مدل‌ها، تصور سناریوهای خطرناک چندان دشوار نیست. تصور کنید مهاجم تنها یک جمله وارد کند: «شرکت X را هک کن» و عامل هوشمند به شکل خودکار مراحل زیر را انجام دهد: جمع‌آوری اطلاعات، اسکن آسیب‌پذیری‌ها، نوشتن اکسپلویت‌های لازم، راه‌اندازی سرور فرمان و کنترل، ایجاد بدافزارهای سفارشی، ورود به شبکه، ماندگاری چندروزه، سرقت داده‌ها و پاک‌سازی ردپاها. اگرچه این سطح از خودمختاری هنوز روی کاغذ است، اما فاصله آن با واقعیت کمتر از چند سال برآورد می‌شود. چنین حالتی می‌تواند انقلابی خطرناک در جرایم سایبری ایجاد کند و حملات پیچیده‌ای را به‌صورت خودکار و در مقیاسی بی‌سابقه در دسترس مهاجمان قرار دهد.

 

آسیب‌پذیری‌های خود هوش مصنوعی: هدف جدیدی برای هکرها

همان‌طور که هوش مصنوعی می‌تواند یک ابزار قدرت‌مند باشد، به‌طور طبیعی می‌تواند هدف جدید حملات نیز واقع شود. مدل‌های زبانی و عامل‌های هوشمند آسیب‌پذیری‌های مخصوص به خود دارند، از جمله حملات تزریق پرامپت، دستکاری داده‌های ورودی، القای رفتارهای مخرب و دسترسی غیرمجاز از طریق API. پژوهشگران امنیتی در سال‌های اخیر نمونه‌هایی از حملات واقعی به مدل‌های هوش مصنوعی را ثبت کرده‌اند که در آنها مهاجمان توانسته‌اند مدل‌ها را از طریق ورودی‌های دستکاری‌شده فریب دهند یا آنها را مجبور به تولید رفتارهای غیرمنتظره کنند.

 

برتری مدافعان: تجربه چند دهه‌ای در استفاده از هوش مصنوعی

در حالی که مهاجمان تنها طی چند سال اخیر از مدل‌های هوش مصنوعی استفاده کرده‌اند، مدافعان امنیت سایبری مانند شرکت سیمانتک دهه‌ها تجربه در بهره‌گیری از الگوریتم‌های هوشمند دارند. شرکت‌های امنیتی بزرگ از سال‌ها قبل از مدل‌های یادگیری ماشین برای شناسایی الگوهای حملات، تحلیل ترافیک مشکوک و پیش‌بینی تهدیدات استفاده کرده‌اند. امروزه سیستم‌های پیشرفته‌ای مثل فناوری Incident Prediction می‌توانند زنجیره حملات احتمالی را پیش از وقوع پیش‌بینی کنند. این سیستم‌ها بر اساس داده‌های گسترده از صدها هزار زنجیره حملات واقعی آموزش دیده‌اند و قادرند رفتار مهاجم را حتی زمانی که از تکنیک‌های پنهان‌سازی و Living off the Land استفاده می‌کند، تشخیص دهند. این موضوع نشان می‌دهد که هوش مصنوعی نه‌تنها برای مهاجمان، بلکه برای مدافعان نیز یک ابزار حیاتی است و مزیت اصلی همچنان در اختیار تیم‌های امنیتی است که دارای حجم عظیمی از داده، تجربه و دانش عملی هستند.

 

آینده امنیت سایبری در سایه توسعه هوش مصنوعی

هوش مصنوعی بدون شک یکی از تأثیرگذارترین فناوری‌های عصر حاضر است و تأثیر آن بر امنیت سایبری یک واقعیت انکارناپذیر است. در یک‌سو، مهاجمان از مدل‌های زبانی برای تولید کدهای مخرب، فیشینگ حرفه‌ای و حتی خودکارسازی حملات استفاده می‌کنند. از سوی دیگر، مدافعان با استفاده از فناوری‌های پیشرفته و تجربه طولانی‌مدت خود قادرند تهدیدات پیچیده را شناسایی، پیش‌بینی و خنثی کنند. رقابت تسلیحاتی میان دو طرف ادامه دارد و به‌نظر می‌رسد در سال‌های آینده با ورود مدل‌های قدرتمندتر، عامل‌های خودمختارتر و روش‌های حمله پیشرفته‌تر، این رقابت شدیدتر نیز خواهد شد. تنها راه‌حل، تقویت ابزارهای هوش مصنوعی دفاعی، افزایش آگاهی کاربران و اتخاذ یک رویکرد مبتنی بر پیش‌بینی و تحلیل هوشمند تهدیدات است. آینده امنیت سایبری قطعاً وابسته به هوش مصنوعی است؛ اما این‌که کدام طرف پیروز این رقابت خواهد بود، بستگی به سرعت سازگاری و نوآوری دارد.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دو × 1 =