چگونه می‌توان از اولین نقض داده‌های هوش مصنوعی خود جلوگیری کرد

در دوران کنونی که هوش مصنوعی مولد ( gen AI ) نقش پررنگی دارد، این اتفاق که رقیبان به اطلاعات حساس سازمان‌ها دسترسی پیدا کنند و از آن برای انجام تبلیغات هدفمند استفاده کنند، به طور مداوم در حال افزایش است.

سازمان نمی‌دانست اطلاعات حساس چطور لو رفته‌اند و این وضعیت به قدری وخیم بود که می‌توانست باعث از دست رفتن اعتماد مشتریان به آن سازمان شود.

شرکت منبع نقض داده‌ها را شناسایی کرد: یک کارمند سابق با استفاده از یک همیار هوش مصنوعی مولد (gen AI copilot) به یک پایگاه داده داخلی پر از اطلاعات حساب دسترسی پیدا کرده بود. آن‌ها جزئیات حساس، مانند هزینه‌های مشتری و محصولات خریداری‌شده را کپی کرده و به یک رقیب منتقل کردند.

با گسترش استفاده از همیاران هوش مصنوعی مولد، احتمال وقوع نقض‌های امنیتی و دسترسی غیرمجاز به داده‌ها بیشتر می‌شود.

بر اساس یک نظرسنجی اخیر از گارتنر (Gartner)، رایج‌ترین موارد استفاده از هوش مصنوعی شامل برنامه‌های مبتنی بر هوش مصنوعی مولد (gen AI) مانند Microsoft 365 Copilot و Salesforce’s Einstein Copilot هستند. در حالی که این ابزارها راهی عالی برای افزایش بهره‌وری سازمان‌ها هستند، اما چالش‌های امنیت داده قابل توجهی نیز ایجاد می‌کنند.

در این مقاله، ما به بررسی این چالش‌ها خواهیم پرداخت و به شما نشان خواهیم داد که چگونه داده‌های خود را در عصر هوش مصنوعی مولد (gen AI) ایمن کنید.

ریسک داده‌های Gen AI

بسیاری از دسترسی‌های داده‌ها مورد استفاده قرار نمی‌گیرند و بسیاری از این دسترسی‌ها نیز پرخطر هستند. این موضوع همیشه برای امنیت داده‌ها مشکل‌ساز بوده است، اما هوش مصنوعی مولد این مشکلات را به مراتب بیشتر و خطرناک‌تر می‌کند.

ابزارهای هوش مصنوعی مولد قادرند به تمامی داده‌هایی که کاربران به آن‌ها دسترسی دارند، دسترسی پیدا کنند. بنابراین، تعیین دقیق و مناسب سطح دسترسی کاربران به داده‌ها اهمیت زیادی برای حفظ امنیت دارد.

زمانی که یک کاربر از یک همیار هوش مصنوعی مولد (gen AI copilot) سوالی می‌پرسد، این ابزار یک پاسخ به زبان طبیعی را بر اساس محتوای اینترنت و محتوای تجاری از طریق فناوری گراف (graph technology) فرموله می‌کند.

چون کاربران ممکن است به طور غیرضروری به داده‌های زیادی دسترسی داشته باشند، ابزار همیار هوش مصنوعی می‌تواند به راحتی داده‌های حساس را نمایش دهد، حتی اگر کاربر خودش از این دسترسی‌های حساس آگاه نباشد.

بسیاری از سازمان‌ها از نوع و میزان داده‌های حساس خود بی‌اطلاع هستند و انجام تنظیمات دقیق برای تعیین سطح دسترسی به این داده‌ها به صورت دستی بسیار دشوار و تقریباً غیرعملی است.

هوش مصنوعی مولد (gen AI) سطح دسترسی به نقض داده‌ها را پایین می‌آورد.

افرادی که قصد دارند به اطلاعات حساس دسترسی پیدا کنند دیگر نیازی به داشتن دانش فنی عمیق در مورد سیستم‌ها و محیط‌های امنیتی ندارند. آن‌ها می‌توانند به راحتی از ابزارهای هوش مصنوعی مولد مانند همیارها درخواست اطلاعات حساس یا مدارک لازم برای پیشرفت در شبکه سازمانی کنند.

چالش‌های امنیتی که با فعال‌سازی ابزارهای هوش مصنوعی مولد (gen AI) همراه است شامل موارد زیر می‌شود:

  • کارمندان به میزان زیادی از داده‌ها دسترسی دارند.
  • داده‌های حساس معمولاً برچسب‌گذاری نشده‌اند یا به اشتباه برچسب‌گذاری شده‌اند.
  • درون‌سازمانی‌ها می‌توانند به سرعت داده‌ها را با استفاده از زبان طبیعی پیدا کرده و استخراج کنند.
  • حملات‌کنندگان می‌توانند اسرار را برای افزایش امتیازات و حرکت درون‌سازمانی کشف کنند.
  • تنظیم دقیق سطح دسترسی به صورت دستی غیرممکن است.
  • هوش مصنوعی مولد می‌تواند به سرعت داده‌های حساس جدیدی ایجاد کند.

مشکلات امنیتی داده‌ها از قبل وجود داشته‌اند، ولی با توجه به اینکه هوش مصنوعی مولد می‌تواند به سرعت و به راحتی اطلاعات را در دسترس قرار دهد، این مشکلات اکنون به راحتی می‌توانند مورد سوءاستفاده قرار گیرند.

چگونه می‌توان از اولین نقض امنیتی هوش مصنوعی خود جلوگیری کرد

برای کاهش یا از بین بردن خطرات مرتبط با هوش مصنوعی مولد، ابتدا باید اطمینان حاصل کنید که سازمان شما از نظر امنیتی و سازماندهی به درستی مدیریت شده و آماده است.

اگر مطمئن نیستید که می‌دانید داده‌های حساس شما کجا قرار دارند، آن داده‌های حساس چه هستند، نمی‌توانید آسیب‌پذیری‌ها و خطرات را تجزیه و تحلیل کنید و نمی‌توانید به‌طور مؤثر شکاف‌های امنیتی و پیکربندی‌های نادرست را برطرف کنید، بهتر است همیارها را بدون محدودیت در سازمان خود رها نکنید.

قبل از این که از ابزارهای هوش مصنوعی مولد (همیارها) استفاده کنید، باید اطمینان حاصل کنید که امنیت داده‌ها در سازمان شما به خوبی مدیریت شده و فرآیندهای لازم برای حفاظت از داده‌ها به درستی پیاده‌سازی شده است. تنها در این صورت می‌توانید با اطمینان از همیارها استفاده کنید.

در این مرحله، باید بر روی مجوزها، برچسب‌ها و فعالیت‌های انسانی تمرکز کنید.

Permissions: اطمینان حاصل کنید که مجوزهای کاربران شما به‌طور مناسب تنظیم شده‌اند و دسترسی همیار (copilot) مطابق با این مجوزها است.

Labels: پس از اینکه فهمیدید داده‌های حساس شما چیست و چه نوع داده‌های حساسی دارید، می‌توانید برچسب‌هایی به آن‌ها اعمال کنید تا از پیشگیری از نشت داده‌ها (DLP) اطمینان حاصل کنید.

Human activity (فعالیت‌های انسانی): نظارت بر نحوه استفاده کارکنان از همیار (copilot) و بررسی هرگونه رفتار مشکوک که شناسایی می‌شود، ضروری است. نظارت بر درخواست‌ها و فایل‌هایی که کاربران به آن‌ها دسترسی پیدا می‌کنند، برای جلوگیری از سوءاستفاده از همیارها بسیار مهم است.

برای مدیریت مؤثر امنیت داده‌ها و استفاده ایمن از ابزارهای هوش مصنوعی مولد، تنها تلاش دستی کافی نیست و نیاز به یک رویکرد جامع و کنترل‌های خاص برای این ابزارها وجود دارد. تنها با داشتن این رویکرد جامع و کنترل‌های ویژه است که سازمان‌ها می‌توانند به طور ایمن از این فناوری‌ها بهره‌برداری کنند.

نقض‌های امنیتی هوش مصنوعی را با استفاده از Varonis پیشگیری کنید.

Varonis به مشتریان در سرتاسر جهان کمک می‌کند تا آنچه که بیشترین اهمیت را دارد، یعنی داده‌هایشان را محافظت کنند. ما از تخصص عمیق خود برای محافظت از سازمان‌هایی که قصد دارند از هوش مصنوعی مولد استفاده کنند، بهره‌برداری کرده‌ایم.

برای شروع کار با هوش مصنوعی مولد، استفاده از ارزیابی رایگان ریسک داده‌ها بهترین گزینه است. این ارزیابی در مدت زمان کوتاه به شما کمک می‌کند تا وضعیت امنیت داده‌های حساس خود را بررسی کنید و تصمیم بگیرید که آیا می‌توانید به‌طور ایمن از ابزارهای هوش مصنوعی مولد بهره‌برداری کنید یا خیر.

برای کسب اطلاعات بیشتر، می توانید این لینک را مطالعه کنید.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *