تهدیدات امنیتی پیادهسازی Generative AI
سازمانها بهطور فزایندهای ادغام AI در عملیات خود را ایدهای مناسب و حتی ضرورتی مطلق میدانند. این امر میتواند درست باشد؛ اما بسیاری از سازمانها ریسکهای سایبری مرتبط با AI را درک نمیکنند و از میزان عدمآمادگی خود برای تأمین امنیت استقرارهای AI آگاه نیستند.
چه برای افزایش بهرهوری داخلی و چه برای نوآوری مشتریمحور، AI — بهویژه Generative AI — میتواند کسبوکار را متحول کند.
اما در صورت عدم تأمین امنیت، استقرارهای AI میتواند بیش از فایده، مشکلزا باشد. بدون تدابیر حفاظتی مناسب، AI میتواند آسیبپذیریهایی ایجاد کند که درِ نفوذ را برای مجرمان سایبری باز کند، نه اینکه دفاعها را تقویت نماید.
پذیرش AI جلوتر از آمادگی امنیتی
اشتیاق به AI غیرقابلانکار است. بر اساس گزارش EY، ۹۲% از رهبران فناوری انتظار داشتند هزینههای AI را در ۲۰۲۵ افزایش دهند که حاکی از افزایش ۱۰% نسبت به ۲۰۲۴ است. Agentic AI بهعنوان حوزهای بهویژه تحولآفرین پدیدار شده و ۶۹% از رهبران فناوری میگویند سازمانشان برای حفظ رقابت به آن نیاز دارد.
متأسفانه سازمانها بهاندازه کافی درباره امنیت فکر نمیکنند. World Economic Forum (WEF) گزارش میدهد که ۶۶% از سازمانها معتقدند AI در ۱۲ ماه آینده تأثیر قابلتوجهی بر امنیت سایبری خواهد داشت، اما تنها ۳۷% فرایندهایی برای ارزیابی security AI قبل از استقرار دارند. کسبوکارهای کوچکتر بیشتر در معرض هستند — ۶۹% فاقد تدابیر حفاظتی برای استقرار امن AI مانند پایش training data یا inventorying AI assets هستند.
Accenture نیز شکافهای مشابهی را نشان میدهد: ۷۷% از سازمانها فاقد رویههای بنیادین data و AI security هستند و تنها ۲۰% به توانایی خود در امنسازی generative AI models اعتماد دارند.
در عمل، این بدان معناست که اکثر سازمانها AI را میپذیرند در حالی که اطمینان کمی وجود دارد که سامانهها و دادههایشان واقعاً محافظت شدهاند.
چرا استقرارهای ناامن AI خطرناکاند
استقرار AI بدون امنیت میتواند ریسک عمدهای از نظر compliance ایجاد کند. فراتر از آن، این امر بهطور فعال مهاجمان سایبری را توانمند میسازد که میتوانند از generative AI به چندین روش سوءاستفاده کنند:
- فیشینگ و کلاهبرداری مبتنی بر AI. WEF گزارش میدهد که ۴۷% از سازمانها حملات AI-enabled را بزرگترین نگرانی خود میدانند. و بهحق: ۴۲% از سازمانها سال گذشته شاهد حملات social engineering بودهاند.
- دستکاری مدل. Accenture نشان میدهد AI worms مانند Morris II میتوانند prompts مخرب را در مدلها جاسازی کنند و AI assistants را برای exfiltrate data یا انتشار spam ربایش کنند.
- کلاهبرداریهای مبتنی بر deepfake. مجرمان بهطور فزایندهای از صداها، تصاویر و ویدئوهای تولیدشده توسط AI برای ارتکاب تقلب استفاده میکنند. در یک حمله، از voice deepfakes برای تقلید از وزیر دفاع ایتالیا استفاده شد و افراد برجستهٔ تجاری به واریز وجه به خارج فریب داده شدند.
- AI مرز ورود برای مهاجمان را کاهش میدهد و کلاهبرداریها را سریعتر، ارزانتر و تشخیصپذیریشان را دشوارتر میسازد.
تأمین امنیت AI از ابتدا
اگر سازمانها بخواهند منافع کامل AI را بهطور ایمن محقق کنند، باید رویکردی با اولویت امنیت اتخاذ کنند. بهجای اضافه کردن تدابیر دفاعی پس از وقوع حادثه یا ترکیب ابزارهای ناهمگون، شرکتها باید از ابتدا بهدنبال natively integrated cybersecurity solutions باشند. با راهکارهایی که از یک کنسول مرکزی بهسادگی مدیریت میشوند و بدون نیاز به ادغامهای دستی با هم کار میکنند، سازمانها میتوانند:
- گنجاندن امنیت در pipelineهای توسعهٔ AI. Secure coding، data encryption و adversarial testing باید در هر مرحله استاندارد باشند.
- پایش و اعتبارسنجی مداوم مدلها. سازمانها باید AI systems را برای دستکاری، data poisoning و سایر ریسکهای نوظهور آزمون کنند.
- یکپارچهسازی استراتژیهای تابآوری سایبری. امنیت نباید جزیرهای باشد. دفاعها باید بهصورت natively integrated در سراسر endpoints، networks، cloud environments و AI workloads اعمال شوند. این استراتژی پیچیدگی را کاهش داده و از بهرهبرداری مهاجمان از نقاط ضعف جلوگیری میکند.
WEF و Accenture تأکید میکنند که سازمانهایی که برای عصر AI بهتر آمادهاند، آنهایی هستند که دارای استراتژیهای یکپارچه و توانمندیهای قوی امنیت سایبریاند.
تحقیقات Accenture نشان میدهد تنها ۱۰% از شرکتها به آنچه «Reinvention-Ready Zone» مینامد رسیدهاند؛ منطقهای که استراتژیهای سایبری بالغ را با قابلیتهای یکپارچهٔ monitoring، detection و response ترکیب میکند. شرکتهای در این گروه ۶۹% کمتر احتمال دارد که شاهد حملات سایبری مبتنی بر AI نسبت به سازمانهای کمتر آماده باشند.
نقش MSPs و سازمانها
برای managed service providers (MSPs)، موج AI هم چالش و هم فرصت است. مشتریان بهطور فزایندهای خواهان ابزارهای AI-powered خواهند شد، اما برای تأمین امنیت نیز به MSPهای خود تکیه خواهند کرد.
بر اساس Acronis Cyberthreats Report H1 2025، مهاجمان سایبری حملات AI-enabled علیه MSPها را افزایش دادهاند. بیش از نیمی از حملات علیه MSPها در H1 2025 تلاشهای phishing بودند که عمدتاً توسط قابلیتهای AI هدایت شدهاند.
بنابراین، MSPها باید حفاظت یکپارچهای ارائه دهند که پوششدهندهٔ cloud، endpoint و AI environments باشد تا از خود و مشتریانشان محافظت کنند.
برای سازمانها، مسیر پیشرو نیازمند تعادل بین بلندپروازی و احتیاط است. AI میتواند کارایی، خلاقیت و رقابتپذیری را افزایش دهد، اما تنها در صورت استقرار مسئولانه.
سازمانها باید امنیت AI را در سطح هیئتمدیره در اولویت قرار دهند، چارچوبهای حاکمیتی روشن برقرار کنند و اطمینان حاصل نمایند که تیمهای امنیت سایبری برای مقابله با تهدیدات نوظهور مبتنی بر AI آموزش دیدهاند.
آیندهٔ استقرارهای AI با امنیت گره خورده است
Generative AI ماندنی است و عمیقتر در عملیات کسبوکار جای خواهد گرفت. اما پیشروی شتابزده بدون تأمین امنیت این سامانهها مانند ساختن آسمانخراشی بر شن است: زیربنا برای پشتیبانی سازه بسیار ضعیف است.
با اتخاذ تدابیر و راهکارهای امنیتی یکپارچه و پیشگیرانه، سازمانها میتوانند از ظرفیت AI بهرهبرداری کنند بدون اینکه مواجههٔ خود با ransomware، fraud و سایر تهدیدهای در حال تحول را افزایش دهند.
دربارهٔ TRU
Acronis Threat Research Unit (TRU)، تیمی از کارشناسان امنیت سایبری است که در threat intelligence، AI و مدیریت ریسک تخصص دارد. تیم TRU به بررسی تهدیدهای نوظهور میپردازد، بینشهای امنیتی ارائه میدهد و از تیمهای IT با راهنماییها، incident response و کارگاههای آموزشی حمایت میکند.