آغاز یک رقابت بیپایان میان مهاجمان و مدافعان سایبری
ظهور هوش مصنوعی و بهویژه مدلهای مولد زبانی، تحولی بزرگ در دنیای امنیت سایبری ایجاد کرده است. این فناوری نهتنها تواناییهای مدافعان را برای شناسایی و مقابله با تهدیدات افزایش داده، بلکه سطح حملات سایبری را نیز ارتقا داده و باعث شده است مهاجمان با سرعت بیشتر و دقت بالاتر از گذشته فعالیت کنند. سرعت توسعه مدلهای زبانی، ابزارهای عاملمحور یا همان Agentic AI و الگوریتمهای تولید خودکار کد، باعث شده است که امنیت سایبری در یک «رقابت تسلیحاتی» قرار گیرد که در آن هر بهروزرسانی دفاعی، بهسرعت با یک روش حمله جدید پاسخ داده میشود. بر اساس یافتههای منتشرشده توسط تیمهای امنیتی و تحلیلگران تهدید، به بررسی دقیق تأثیر هوش مصنوعی بر حملات سایبری، نحوه بهرهبرداری مهاجمان از مدلهای زبانی، نقش Agentic AI در تسهیل فعالیتهای مخرب و همچنین برتری مدافعان در استفاده طولانیمدت از فناوریهای هوش مصنوعی خواهیم پرداخت.
هوش مصنوعی و فیشینگ: افزایش دقت، کیفیت و مقیاس حملات مهندسی اجتماعی
فیشینگ همواره یکی از محبوبترین روشهای حملات سایبری بوده است؛ اما با ورود مدلهای زبانی پیشرفته، این روش به سطحی کاملاً جدید رسیده است. بسیاری از مهاجمان پیش از این برای نوشتن متنهای حرفهای، روان و متقاعدکننده با مشکل مواجه بودند، زیرا بسیاری از آنها انگلیسیزبان نبودند و همین موضوع باعث میشد پیامهای فیشینگ دارای غلطهای نگارشی، ساختاری یا لحنی باشند. اکنون مدلهای زبانی این محدودیت را تقریباً از بین بردهاند. یک مهاجم تنها با چند پرسش ساده میتواند متنی تولید کند که از نظر روانی، زبانی و ساختاری تقریباً مشابه یک پیام معتبر از سوی یک شرکت رسمی باشد. این مدلها قادرند لحن محتوا را به حالت دوستانه، رسمی یا اضطراری تبدیل کنند و همین موضوع میزان موفقیت حملات فیشینگ را بهطور چشمگیری افزایش داده است. علاوه بر کیفیت، عامل مهم دیگر، افزایش کمیت حملات است. مهاجمان میتوانند در یک بازه کوتاه هزاران پیام با سناریوهای متفاوت تولید کنند که این موضوع بار دفاعی را چندین برابر میکند.
کاهش موانع ورود برای مهاجمان: از فیشینگبهعنوانیکخدمت تا تولید محتوا با چند کلیک
پیش از ظهور مدلهای زبانی، انجام یک حمله فیشینگ حرفهای نیازمند مهارتهای زبانی، فنی و شناخت روانشناسی کاربران بود. اما اکنون، سرویسهای فیشینگبهعنوانخدمت یا PaaS با استفاده از هوش مصنوعی بهشدت سادهتر شدهاند. پلتفرمهای زیرزمینی این امکان را فراهم میکنند که کاربر با کمترین سطح دانش فنی، تنها با پر کردن چند فرم ساده، بتواند کمپین فیشینگ خود را اجرا کند. این موضوع باعث شده تعداد مهاجمان کمتجربه و تازهکار به طرز چشمگیری افزایش یابد، زیرا تولید محتوا، قالببندی ایمیلها، ترجمه حرفهای، ساخت لندینگپیج جعلی و حتی زمانبندی ارسال پیامها اکنون توسط هوش مصنوعی انجام میشود.
استفاده مهاجمان از هوش مصنوعی برای تولید کدهای مخرب
یکی از جنبههای بسیار مهم نفوذ هوش مصنوعی در امنیت سایبری، امکان تولید یا اصلاح کدهای مخرب است. هرچند مدلهای زبانی با محدودیتهای امنیتی ساخته شدهاند و معمولاً با درخواست تولید بدافزار مخالفت میکنند، اما مهاجمان در سالهای گذشته نشان دادهاند که این محدودیتها کاملاً قابل دور زدن است. تکنیکهایی مانند مهندسی پرامپت، داستانسازی، درخواست برای اهداف آموزشی، یا کوچک کردن گامهای درخواست منجر به آن شده است که مدلهای زبانی، بخشی یا حتی کل یک بدافزار را تولید کنند. تحقیقات سالهای گذشته نشان داده است که برخی اسکریپتها و بدافزارهایی که در حملات واقعی دیده شدهاند، دارای ویژگیهایی هستند که بهوضوح نشان میدهد تولیدکننده آنها یک مدل زبانی بوده است. این ویژگیها شامل نامگذاریهای سراسری و نامعمول متغیرها، وجود توضیحات اضافه و غیرضروری پس از هر خط کد، و ساختارهای یکسان و قابل تشخیص هستند. این نشان میدهد که بسیاری از افراد بدون مهارت برنامهنویسی میتوانند با استفاده از هوش مصنوعی بدافزارهایی بسازند که قابلیت اجرای حملات واقعی را دارند.
مطالعات موردی: نمونههایی از نقش مدلهای زبانی در توسعه بدافزار
تحقیقات انجامشده در سالهای ۲۰۲۴ و ۲۰۲۵ نشان میدهد که برخی حملات بزرگ از کدهایی استفاده کردهاند که به احتمال زیاد با کمک مدلهای هوش مصنوعی نوشته شدهاند. این حملات شامل انتشار و اجرای بدافزارهای مختلفی مانند Radamanthys، NetSupport، ModiLoader و LokiBot بودهاند. تحلیل فنی این اسکریپتها نشان میدهد که بخشهایی از آنها ماشینی و غیرانسانی هستند و تولیدکننده آنها یا یک مدل زبانی بوده یا از آن الهام گرفته است. این نکته نشان میدهد که هوش مصنوعی به یک ابزار مهم در چرخه تولید بدافزار تبدیل شده است. در یک مورد دیگر، پژوهشگران توانستهاند با فریب یک مدل زبانی چینی، به بهانه اهداف آموزشی، یک باجافزار و یک کیلاگر نیمهکار ایجاد کنند که پس از اصلاحات انسانی قادر به اجرا شده است. این مثالها نشان میدهد که حتی مدلهای دارای محدودیت نیز میتوانند در صورت درخواستهای مناسب، نقش مهمی در تولید کدهای مخرب ایفا کنند.
رویکرد «جهان غوطهور» و عبور از خطوط دفاعی مدلها
یکی از تکنیکهای جالبی که مهاجمان و پژوهشگران در سال ۲۰۲۵ از آن استفاده کردهاند، روش «Immersive World» یا جهان غوطهور است. این روش، نوعی مهندسی پرامپت روایی است که در آن به مدل زبانی یک دنیا یا سناریوی غیرواقعی معرفی میشود و به آن اجازه داده میشود نقش یک شخصیت داستانی را بازی کند. در چنین سناریوهایی، مدلها معمولاً محدودیتهای امنیتی را کنار میگذارند و پاسخهایی ارائه میدهند که در حالت عادی مجاز نیست. پژوهشگری بدون هیچ دانش برنامهنویسی توانسته است با استفاده از این روش یک ابزار جاسوسی کاملاً کاربردی برای سرقت اطلاعات از مرورگر گوگل کروم تولید کند. اگرچه این مدلها همچنان نیازمند کمک انسانی برای رفع خطاها هستند، اما خطر این است که تعداد بیشتری از افراد غیرمتخصص قادر به تولید ابزارهای خطرناک شوند.
ظهور LLMهای مخرب و سفارشیسازیشده توسط مهاجمان
در کنار سوءاستفاده مهاجمان از مدلهای قانونی، روند خطرناک جدیدی در حال شکلگیری است: توسعه مدلهای زبانی مخرب توسط خود مهاجمان. این مدلها برخلاف مدلهای تجاری، هیچگونه سیستم نظارت یا محدودیت اخلاقی ندارند و برای تولید بدافزار، طراحی حملات فیشینگ، ساخت کدهای بهرهبرداری و کارهای مخرب دیگر آزاد هستند. نمونهای از این مدلها Xanthorox AI است که در بازارهای زیرزمینی ارائه میشود و دسترسی آزاد و بدون محدودیت را برای ایجاد محتوا و کدهای مخرب فراهم میکند. این روند بهطور جدی میتواند موانع ورود به دنیای جرم سایبری را از بین ببرد و موج جدیدی از حملات سازمانیافته و سریع را ایجاد کند.
Agentic AI: عصر جدید خودمختاری و تهدیدات پیشرفتهتر
در سال ۲۰۲۵ نسل جدیدی از ابزارهای هوش مصنوعی معرفی شد که تحت عنوان «Agentic AI» شناخته میشوند. برخلاف مدلهای زبانی معمولی که صرفاً تولید کننده محتوا و پاسخ هستند، عاملهای هوشمند قادرند استدلال، تصمیمگیری، برنامهریزی و اجرای خودکار وظایف را انجام دهند. این مفهوم بهطور بنیادی ماهیت حملات سایبری را تغییر میدهد، زیرا مهاجم دیگر لازم نیست مرحلهبهمرحله حمله را طراحی، اجرا و اصلاح کند. یک عامل هوش مصنوعی میتواند وظایفی مانند جمعآوری اطلاعات هدف، یافتن ایمیلهای کارکنان، نوشتن یک اسکریپت مخرب، ارسال آن، جمعآوری خروجی و گزارشگیری را بدون کمک انسان انجام دهد. پژوهشهایی که در ماههای اخیر انجام شده نشان میدهد که حتی با وجود محدودیتهای امنیتی فعلی، برخی عاملهای هوش مصنوعی توانستهاند زنجیره حمله را تقریباً بهصورت خودکار و با کمترین مداخله انسانی اجرا کنند.
تصور آیندهای نزدیک: حملات کاملاً خودکار تنها با یک دستور
با سرعت فعلی پیشرفت مدلها، تصور سناریوهای خطرناک چندان دشوار نیست. تصور کنید مهاجم تنها یک جمله وارد کند: «شرکت X را هک کن» و عامل هوشمند به شکل خودکار مراحل زیر را انجام دهد: جمعآوری اطلاعات، اسکن آسیبپذیریها، نوشتن اکسپلویتهای لازم، راهاندازی سرور فرمان و کنترل، ایجاد بدافزارهای سفارشی، ورود به شبکه، ماندگاری چندروزه، سرقت دادهها و پاکسازی ردپاها. اگرچه این سطح از خودمختاری هنوز روی کاغذ است، اما فاصله آن با واقعیت کمتر از چند سال برآورد میشود. چنین حالتی میتواند انقلابی خطرناک در جرایم سایبری ایجاد کند و حملات پیچیدهای را بهصورت خودکار و در مقیاسی بیسابقه در دسترس مهاجمان قرار دهد.
آسیبپذیریهای خود هوش مصنوعی: هدف جدیدی برای هکرها
همانطور که هوش مصنوعی میتواند یک ابزار قدرتمند باشد، بهطور طبیعی میتواند هدف جدید حملات نیز واقع شود. مدلهای زبانی و عاملهای هوشمند آسیبپذیریهای مخصوص به خود دارند، از جمله حملات تزریق پرامپت، دستکاری دادههای ورودی، القای رفتارهای مخرب و دسترسی غیرمجاز از طریق API. پژوهشگران امنیتی در سالهای اخیر نمونههایی از حملات واقعی به مدلهای هوش مصنوعی را ثبت کردهاند که در آنها مهاجمان توانستهاند مدلها را از طریق ورودیهای دستکاریشده فریب دهند یا آنها را مجبور به تولید رفتارهای غیرمنتظره کنند.
برتری مدافعان: تجربه چند دههای در استفاده از هوش مصنوعی
در حالی که مهاجمان تنها طی چند سال اخیر از مدلهای هوش مصنوعی استفاده کردهاند، مدافعان امنیت سایبری مانند شرکت سیمانتک دههها تجربه در بهرهگیری از الگوریتمهای هوشمند دارند. شرکتهای امنیتی بزرگ از سالها قبل از مدلهای یادگیری ماشین برای شناسایی الگوهای حملات، تحلیل ترافیک مشکوک و پیشبینی تهدیدات استفاده کردهاند. امروزه سیستمهای پیشرفتهای مثل فناوری Incident Prediction میتوانند زنجیره حملات احتمالی را پیش از وقوع پیشبینی کنند. این سیستمها بر اساس دادههای گسترده از صدها هزار زنجیره حملات واقعی آموزش دیدهاند و قادرند رفتار مهاجم را حتی زمانی که از تکنیکهای پنهانسازی و Living off the Land استفاده میکند، تشخیص دهند. این موضوع نشان میدهد که هوش مصنوعی نهتنها برای مهاجمان، بلکه برای مدافعان نیز یک ابزار حیاتی است و مزیت اصلی همچنان در اختیار تیمهای امنیتی است که دارای حجم عظیمی از داده، تجربه و دانش عملی هستند.
آینده امنیت سایبری در سایه توسعه هوش مصنوعی
هوش مصنوعی بدون شک یکی از تأثیرگذارترین فناوریهای عصر حاضر است و تأثیر آن بر امنیت سایبری یک واقعیت انکارناپذیر است. در یکسو، مهاجمان از مدلهای زبانی برای تولید کدهای مخرب، فیشینگ حرفهای و حتی خودکارسازی حملات استفاده میکنند. از سوی دیگر، مدافعان با استفاده از فناوریهای پیشرفته و تجربه طولانیمدت خود قادرند تهدیدات پیچیده را شناسایی، پیشبینی و خنثی کنند. رقابت تسلیحاتی میان دو طرف ادامه دارد و بهنظر میرسد در سالهای آینده با ورود مدلهای قدرتمندتر، عاملهای خودمختارتر و روشهای حمله پیشرفتهتر، این رقابت شدیدتر نیز خواهد شد. تنها راهحل، تقویت ابزارهای هوش مصنوعی دفاعی، افزایش آگاهی کاربران و اتخاذ یک رویکرد مبتنی بر پیشبینی و تحلیل هوشمند تهدیدات است. آینده امنیت سایبری قطعاً وابسته به هوش مصنوعی است؛ اما اینکه کدام طرف پیروز این رقابت خواهد بود، بستگی به سرعت سازگاری و نوآوری دارد.
