توسعه‌دهندگان بدافزار از Claude AI متعلق به Anthropic برای ساخت باج‌افزار سوءاستفاده کرده‌اند.

مدل زبانی Claude Code متعلق به Anthropic توسط عوامل تهدید در کارزارهای اخاذی داده و توسعه پکیج‌های باج‌افزار مورد سوءاستفاده قرار گرفته است.

به گفته شرکت، این ابزار همچنین در طرح‌های جعلی مرتبط با نیروی کار فناوری اطلاعات کره شمالی، کمپین‌های فریب موسوم به Contagious Interview، کارزارهای APT چینی، و حتی توسط یک توسعه‌دهنده روس‌زبان برای ساخت بدافزار با قابلیت‌های پیشرفته evasion استفاده شده است.

باج‌افزار ساخته‌شده با هوش مصنوعی

در یک مورد دیگر با شناسه GTG-5004، یک عامل تهدید مستقر در بریتانیا از Claude Code برای توسعه و تجاری‌سازی یک عملیات Ransomware-as-a-Service (RaaS) بهره گرفته است.

این ابزار هوش مصنوعی تمام اجزای موردنیاز برای پلتفرم RaaS را ایجاد کرده است؛ شامل پیاده‌سازی ChaCha20 stream cipher با مدیریت کلید RSA در باج‌افزار ماژولار، قابلیت حذف shadow copy، امکان هدف‌گیری فایل‌های مشخص و همچنین رمزگذاری network shares.

آکادمی لیان

در بخش evasion، باج‌افزار از طریق reflective DLL injection بارگذاری می‌شود و دارای تکنیک‌هایی مانند syscall invocation، دور زدن API hooking، مبهم‌سازی رشته‌ها (string obfuscation) و anti-debugging است.

بر اساس گزارش Anthropic، این عامل تهدید تقریباً به‌طور کامل به Claude برای پیاده‌سازی بخش‌های پیچیده و دانش‌بر پلتفرم RaaS متکی بوده است؛ به‌طوری که بدون کمک این هوش مصنوعی به احتمال زیاد قادر به ساخت یک باج‌افزار عملیاتی نبود.

در گزارش آمده است:
«مهم‌ترین یافته، وابستگی کامل این عامل تهدید به هوش مصنوعی برای توسعه بدافزار عملیاتی است. این فرد بدون کمک Claude توانایی پیاده‌سازی الگوریتم‌های رمزنگاری، تکنیک‌های ضدتحلیل یا دستکاری درونیات ویندوز را نداشته است.»

پس از ایجاد این عملیات، عامل تهدید نمونه‌های اجرایی باج‌افزار، کیت‌های دارای PHP console و زیرساخت Command-and-Control (C2)، و همچنین Windows crypters را با قیمت ۴۰۰ تا ۱۲۰۰ دلار در انجمن‌های دارک‌وب از جمله Dread، CryptBB و Nulled به فروش گذاشته است.

کارزار اخاذی مبتنی بر هوش مصنوعی

در یکی از موارد تحلیل‌شده که توسط Anthropic با شناسه GTG-2002 رهگیری می‌شود، یک مجرم سایبری از Claude به‌عنوان یک عامل فعال برای اجرای کارزار اخاذی داده علیه حداقل ۱۷ سازمان در حوزه‌های دولتی، سلامت، مالی و خدمات اضطراری استفاده کرده است.

این AI agent عملیات network reconnaissance را انجام داده و به مهاجم در دستیابی به initial access کمک کرده است. سپس بدافزاری سفارشی‌شده بر پایه ابزار Chisel tunneling تولید کرده که برای exfiltration داده‌های حساس مورد استفاده قرار گرفته است.

پس از شکست حمله، از Claude Code برای ارتقای قابلیت‌های پنهان‌سازی بدافزار استفاده شد؛ از جمله ارائه تکنیک‌هایی برای string encryption، افزودن کدهای anti-debugging و filename masquerading.

در ادامه، Claude برای تحلیل فایل‌های سرقت‌شده به‌منظور تعیین مبلغ باج استفاده شد. این مقادیر بین ۷۵ هزار تا ۵۰۰ هزار دلار متغیر بود. همچنین، هوش مصنوعی یادشده HTML ransom note‌های سفارشی برای هر قربانی ایجاد کرد. این نوت‌ها به‌گونه‌ای طراحی شده بودند که در فرآیند بوت سیستم قربانی نمایش داده شوند و ظاهر هشداردهنده و ترسناکی داشته باشند.

Anthropic در گزارش خود تأکید کرد:
«Claude نه‌تنها عملیات on-keyboard را انجام داد، بلکه داده‌های مالی استخراج‌شده را تحلیل کرد تا میزان مناسب باج مشخص شود و نوت‌های باج‌گیری HTML هشداردهنده‌ای تولید کرد که در فرآیند بوت دستگاه قربانی نمایش داده می‌شد.»

این حمله به‌عنوان نمونه‌ای از vibe hacking توصیف شد؛ مفهومی که نشان می‌دهد AI coding agents به‌عنوان شریک مستقیم در جرایم سایبری مورد استفاده قرار می‌گیرند، نه صرفاً ابزاری جانبی خارج از جریان عملیات.

علاوه بر این، گزارش Anthropic موارد دیگری از سوءاستفاده از Claude Code را تشریح می‌کند؛ هرچند در عملیات‌هایی با پیچیدگی کمتر. به‌عنوان مثال:

  • یک عامل تهدید با کمک این مدل، مکانیزم‌های پیشرفته API integration و resilience برای یک carding service توسعه داد.
  • مجرم سایبری دیگری از قدرت هوش مصنوعی برای romance scams استفاده کرد؛ شامل تولید پاسخ‌های دارای «هوش هیجانی بالا»، ساخت تصاویر برای بهبود پروفایل‌ها، تولید محتوای دستکاری عاطفی جهت هدف‌گیری قربانیان، و ارائه پشتیبانی چندزبانه برای گسترش دامنه اهداف.

برای هر یک از این نمونه‌ها، شرکت توضیحاتی درباره تاکتیک‌ها و تکنیک‌ها ارائه کرده است که می‌تواند به سایر پژوهشگران در کشف فعالیت‌های مجرمانه جدید یا ارتباط آن‌ها با عملیات‌های شناخته‌شده کمک کند.

در واکنش به این سوءاستفاده‌ها، Anthropic تمامی حساب‌های مرتبط با این فعالیت‌ها را مسدود کرده، classifiers اختصاصی برای شناسایی الگوهای مشکوک طراحی نموده و شاخص‌های فنی لازم را با شرکای خارجی به اشتراک گذاشته است تا از چنین موارد سوءاستفاده‌ای از هوش مصنوعی جلوگیری شود.

 

آکادمی لیان

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا