توسعهدهندگان بدافزار از Claude AI متعلق به Anthropic برای ساخت باجافزار سوءاستفاده کردهاند.
مدل زبانی Claude Code متعلق به Anthropic توسط عوامل تهدید در کارزارهای اخاذی داده و توسعه پکیجهای باجافزار مورد سوءاستفاده قرار گرفته است.
به گفته شرکت، این ابزار همچنین در طرحهای جعلی مرتبط با نیروی کار فناوری اطلاعات کره شمالی، کمپینهای فریب موسوم به Contagious Interview، کارزارهای APT چینی، و حتی توسط یک توسعهدهنده روسزبان برای ساخت بدافزار با قابلیتهای پیشرفته evasion استفاده شده است.
باجافزار ساختهشده با هوش مصنوعی
در یک مورد دیگر با شناسه GTG-5004، یک عامل تهدید مستقر در بریتانیا از Claude Code برای توسعه و تجاریسازی یک عملیات Ransomware-as-a-Service (RaaS) بهره گرفته است.
این ابزار هوش مصنوعی تمام اجزای موردنیاز برای پلتفرم RaaS را ایجاد کرده است؛ شامل پیادهسازی ChaCha20 stream cipher با مدیریت کلید RSA در باجافزار ماژولار، قابلیت حذف shadow copy، امکان هدفگیری فایلهای مشخص و همچنین رمزگذاری network shares.
در بخش evasion، باجافزار از طریق reflective DLL injection بارگذاری میشود و دارای تکنیکهایی مانند syscall invocation، دور زدن API hooking، مبهمسازی رشتهها (string obfuscation) و anti-debugging است.
بر اساس گزارش Anthropic، این عامل تهدید تقریباً بهطور کامل به Claude برای پیادهسازی بخشهای پیچیده و دانشبر پلتفرم RaaS متکی بوده است؛ بهطوری که بدون کمک این هوش مصنوعی به احتمال زیاد قادر به ساخت یک باجافزار عملیاتی نبود.
در گزارش آمده است:
«مهمترین یافته، وابستگی کامل این عامل تهدید به هوش مصنوعی برای توسعه بدافزار عملیاتی است. این فرد بدون کمک Claude توانایی پیادهسازی الگوریتمهای رمزنگاری، تکنیکهای ضدتحلیل یا دستکاری درونیات ویندوز را نداشته است.»
پس از ایجاد این عملیات، عامل تهدید نمونههای اجرایی باجافزار، کیتهای دارای PHP console و زیرساخت Command-and-Control (C2)، و همچنین Windows crypters را با قیمت ۴۰۰ تا ۱۲۰۰ دلار در انجمنهای دارکوب از جمله Dread، CryptBB و Nulled به فروش گذاشته است.
کارزار اخاذی مبتنی بر هوش مصنوعی
در یکی از موارد تحلیلشده که توسط Anthropic با شناسه GTG-2002 رهگیری میشود، یک مجرم سایبری از Claude بهعنوان یک عامل فعال برای اجرای کارزار اخاذی داده علیه حداقل ۱۷ سازمان در حوزههای دولتی، سلامت، مالی و خدمات اضطراری استفاده کرده است.
این AI agent عملیات network reconnaissance را انجام داده و به مهاجم در دستیابی به initial access کمک کرده است. سپس بدافزاری سفارشیشده بر پایه ابزار Chisel tunneling تولید کرده که برای exfiltration دادههای حساس مورد استفاده قرار گرفته است.
پس از شکست حمله، از Claude Code برای ارتقای قابلیتهای پنهانسازی بدافزار استفاده شد؛ از جمله ارائه تکنیکهایی برای string encryption، افزودن کدهای anti-debugging و filename masquerading.
در ادامه، Claude برای تحلیل فایلهای سرقتشده بهمنظور تعیین مبلغ باج استفاده شد. این مقادیر بین ۷۵ هزار تا ۵۰۰ هزار دلار متغیر بود. همچنین، هوش مصنوعی یادشده HTML ransom noteهای سفارشی برای هر قربانی ایجاد کرد. این نوتها بهگونهای طراحی شده بودند که در فرآیند بوت سیستم قربانی نمایش داده شوند و ظاهر هشداردهنده و ترسناکی داشته باشند.
Anthropic در گزارش خود تأکید کرد:
«Claude نهتنها عملیات on-keyboard را انجام داد، بلکه دادههای مالی استخراجشده را تحلیل کرد تا میزان مناسب باج مشخص شود و نوتهای باجگیری HTML هشداردهندهای تولید کرد که در فرآیند بوت دستگاه قربانی نمایش داده میشد.»
این حمله بهعنوان نمونهای از vibe hacking توصیف شد؛ مفهومی که نشان میدهد AI coding agents بهعنوان شریک مستقیم در جرایم سایبری مورد استفاده قرار میگیرند، نه صرفاً ابزاری جانبی خارج از جریان عملیات.
علاوه بر این، گزارش Anthropic موارد دیگری از سوءاستفاده از Claude Code را تشریح میکند؛ هرچند در عملیاتهایی با پیچیدگی کمتر. بهعنوان مثال:
- یک عامل تهدید با کمک این مدل، مکانیزمهای پیشرفته API integration و resilience برای یک carding service توسعه داد.
- مجرم سایبری دیگری از قدرت هوش مصنوعی برای romance scams استفاده کرد؛ شامل تولید پاسخهای دارای «هوش هیجانی بالا»، ساخت تصاویر برای بهبود پروفایلها، تولید محتوای دستکاری عاطفی جهت هدفگیری قربانیان، و ارائه پشتیبانی چندزبانه برای گسترش دامنه اهداف.
برای هر یک از این نمونهها، شرکت توضیحاتی درباره تاکتیکها و تکنیکها ارائه کرده است که میتواند به سایر پژوهشگران در کشف فعالیتهای مجرمانه جدید یا ارتباط آنها با عملیاتهای شناختهشده کمک کند.
در واکنش به این سوءاستفادهها، Anthropic تمامی حسابهای مرتبط با این فعالیتها را مسدود کرده، classifiers اختصاصی برای شناسایی الگوهای مشکوک طراحی نموده و شاخصهای فنی لازم را با شرکای خارجی به اشتراک گذاشته است تا از چنین موارد سوءاستفادهای از هوش مصنوعی جلوگیری شود.