تهدیدات امنیتی پیاده‌سازی Generative AI

سازمان‌ها به‌طور فزاینده‌ای ادغام AI در عملیات خود را ایده‌ای مناسب و حتی ضرورتی مطلق می‌دانند. این امر می‌تواند درست باشد؛ اما بسیاری از سازمان‌ها ریسک‌های سایبری مرتبط با AI را درک نمی‌کنند و از میزان عدم‌آمادگی خود برای تأمین امنیت استقرارهای AI آگاه نیستند.

چه برای افزایش بهره‌وری داخلی و چه برای نوآوری مشتری‌محور، AI — به‌ویژه Generative AI — می‌تواند کسب‌وکار را متحول کند.

اما در صورت عدم تأمین امنیت، استقرارهای AI می‌تواند بیش از فایده، مشکل‌زا باشد. بدون تدابیر حفاظتی مناسب، AI می‌تواند آسیب‌پذیری‌هایی ایجاد کند که درِ نفوذ را برای مجرمان سایبری باز کند، نه اینکه دفاع‌ها را تقویت نماید.

پذیرش AI جلوتر از آمادگی امنیتی

اشتیاق به AI غیرقابل‌انکار است. بر اساس گزارش EY، ۹۲% از رهبران فناوری انتظار داشتند هزینه‌های AI را در ۲۰۲۵ افزایش دهند که حاکی از افزایش ۱۰% نسبت به ۲۰۲۴ است. Agentic AI به‌عنوان حوزه‌ای به‌ویژه تحول‌آفرین پدیدار شده و ۶۹% از رهبران فناوری می‌گویند سازمان‌شان برای حفظ رقابت به آن نیاز دارد.

آکادمی لیان

متأسفانه سازمان‌ها به‌اندازه کافی درباره امنیت فکر نمی‌کنند. World Economic Forum (WEF) گزارش می‌دهد که ۶۶% از سازمان‌ها معتقدند AI در ۱۲ ماه آینده تأثیر قابل‌توجهی بر امنیت سایبری خواهد داشت، اما تنها ۳۷% فرایندهایی برای ارزیابی security AI قبل از استقرار دارند. کسب‌وکارهای کوچک‌تر بیشتر در معرض هستند — ۶۹% فاقد تدابیر حفاظتی برای استقرار امن AI مانند پایش training data یا inventorying AI assets هستند.

Accenture نیز شکاف‌های مشابهی را نشان می‌دهد: ۷۷% از سازمان‌ها فاقد رویه‌های بنیادین data و AI security هستند و تنها ۲۰% به توانایی خود در امن‌سازی generative AI models اعتماد دارند.

در عمل، این بدان معناست که اکثر سازمان‌ها AI را می‌پذیرند در حالی که اطمینان کمی وجود دارد که سامانه‌ها و داده‌هایشان واقعاً محافظت شده‌اند.

چرا استقرارهای ناامن AI خطرناک‌اند

استقرار AI بدون امنیت می‌تواند ریسک عمده‌ای از نظر compliance ایجاد کند. فراتر از آن، این امر به‌طور فعال مهاجمان سایبری را توانمند می‌سازد که می‌توانند از generative AI به چندین روش سوءاستفاده کنند:

  • فیشینگ و کلاهبرداری مبتنی بر AI. WEF گزارش می‌دهد که ۴۷% از سازمان‌ها حملات AI-enabled را بزرگ‌ترین نگرانی خود می‌دانند. و به‌حق: ۴۲% از سازمان‌ها سال گذشته شاهد حملات social engineering بوده‌اند.
  • دستکاری مدل. Accenture نشان می‌دهد AI worms مانند Morris II می‌توانند prompts مخرب را در مدل‌ها جاسازی کنند و AI assistants را برای exfiltrate data یا انتشار spam ربایش کنند.
  • کلاهبرداری‌های مبتنی بر deepfake. مجرمان به‌طور فزاینده‌ای از صداها، تصاویر و ویدئوهای تولیدشده توسط AI برای ارتکاب تقلب استفاده می‌کنند. در یک حمله، از voice deepfakes برای تقلید از وزیر دفاع ایتالیا استفاده شد و افراد برجستهٔ تجاری به واریز وجه به خارج فریب داده شدند.
  • AI مرز ورود برای مهاجمان را کاهش می‌دهد و کلاهبرداری‌ها را سریع‌تر، ارزان‌تر و تشخیص‌پذیری‌شان را دشوارتر می‌سازد.

تأمین امنیت AI از ابتدا

اگر سازمان‌ها بخواهند منافع کامل AI را به‌طور ایمن محقق کنند، باید رویکردی با اولویت امنیت اتخاذ کنند. به‌جای اضافه کردن تدابیر دفاعی پس از وقوع حادثه یا ترکیب ابزارهای ناهمگون، شرکت‌ها باید از ابتدا به‌دنبال natively integrated cybersecurity solutions باشند. با راهکارهایی که از یک کنسول مرکزی به‌سادگی مدیریت می‌شوند و بدون نیاز به ادغام‌های دستی با هم کار می‌کنند، سازمان‌ها می‌توانند:

  • گنجاندن امنیت در pipelineهای توسعهٔ AI. Secure coding، data encryption و adversarial testing باید در هر مرحله استاندارد باشند.
  • پایش و اعتبارسنجی مداوم مدل‌ها. سازمان‌ها باید AI systems را برای دستکاری، data poisoning و سایر ریسک‌های نوظهور آزمون کنند.
  • یکپارچه‌سازی استراتژی‌های تاب‌آوری سایبری. امنیت نباید جزیره‌ای باشد. دفاع‌ها باید به‌صورت natively integrated در سراسر endpoints، networks، cloud environments و AI workloads اعمال شوند. این استراتژی پیچیدگی را کاهش داده و از بهره‌برداری مهاجمان از نقاط ضعف جلوگیری می‌کند.

WEF و Accenture تأکید می‌کنند که سازمان‌هایی که برای عصر AI بهتر آماده‌اند، آن‌هایی هستند که دارای استراتژی‌های یکپارچه و توانمندی‌های قوی امنیت سایبری‌اند.

تحقیقات Accenture نشان می‌دهد تنها ۱۰% از شرکت‌ها به آنچه «Reinvention-Ready Zone» می‌نامد رسیده‌اند؛ منطقه‌ای که استراتژی‌های سایبری بالغ را با قابلیت‌های یکپارچهٔ monitoring، detection و response ترکیب می‌کند. شرکت‌های در این گروه ۶۹% کمتر احتمال دارد که شاهد حملات سایبری مبتنی بر AI نسبت به سازمان‌های کمتر آماده باشند.

نقش MSPs و سازمان‌ها

برای managed service providers (MSPs)، موج AI هم چالش و هم فرصت است. مشتریان به‌طور فزاینده‌ای خواهان ابزارهای AI-powered خواهند شد، اما برای تأمین امنیت نیز به MSPهای خود تکیه خواهند کرد.

بر اساس Acronis Cyberthreats Report H1 2025، مهاجمان سایبری حملات AI-enabled علیه MSPها را افزایش داده‌اند. بیش از نیمی از حملات علیه MSPها در H1 2025 تلاش‌های phishing بودند که عمدتاً توسط قابلیت‌های AI هدایت شده‌اند.

بنابراین، MSPها باید حفاظت یکپارچه‌ای ارائه دهند که پوشش‌دهندهٔ cloud، endpoint و AI environments باشد تا از خود و مشتریان‌شان محافظت کنند.

برای سازمان‌ها، مسیر پیش‌رو نیازمند تعادل بین بلندپروازی و احتیاط است. AI می‌تواند کارایی، خلاقیت و رقابت‌پذیری را افزایش دهد، اما تنها در صورت استقرار مسئولانه.

سازمان‌ها باید امنیت AI را در سطح هیئت‌مدیره در اولویت قرار دهند، چارچوب‌های حاکمیتی روشن برقرار کنند و اطمینان حاصل نمایند که تیم‌های امنیت سایبری برای مقابله با تهدیدات نوظهور مبتنی بر AI آموزش دیده‌اند.

آیندهٔ استقرارهای AI با امنیت گره خورده است

Generative AI ماندنی است و عمیق‌تر در عملیات کسب‌وکار جای خواهد گرفت. اما پیش‌روی شتاب‌زده بدون تأمین امنیت این سامانه‌ها مانند ساختن آسمان‌خراشی بر شن است: زیربنا برای پشتیبانی سازه بسیار ضعیف است.

با اتخاذ تدابیر و راهکارهای امنیتی یکپارچه و پیش‌گیرانه، سازمان‌ها می‌توانند از ظرفیت AI بهره‌برداری کنند بدون اینکه مواجههٔ خود با ransomware، fraud و سایر تهدیدهای در حال تحول را افزایش دهند.

دربارهٔ TRU

Acronis Threat Research Unit (TRU)، تیمی از کارشناسان امنیت سایبری است که در threat intelligence، AI و مدیریت ریسک تخصص دارد. تیم TRU به بررسی تهدیدهای نوظهور می‌پردازد، بینش‌های امنیتی ارائه می‌دهد و از تیم‌های IT با راهنمایی‌ها، incident response و کارگاه‌های آموزشی حمایت می‌کند.

آکادمی لیان

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا