در دوران کنونی که هوش مصنوعی مولد ( gen AI ) نقش پررنگی دارد، این اتفاق که رقیبان به اطلاعات حساس سازمانها دسترسی پیدا کنند و از آن برای انجام تبلیغات هدفمند استفاده کنند، به طور مداوم در حال افزایش است.
سازمان نمیدانست اطلاعات حساس چطور لو رفتهاند و این وضعیت به قدری وخیم بود که میتوانست باعث از دست رفتن اعتماد مشتریان به آن سازمان شود.
شرکت منبع نقض دادهها را شناسایی کرد: یک کارمند سابق با استفاده از یک همیار هوش مصنوعی مولد (gen AI copilot) به یک پایگاه داده داخلی پر از اطلاعات حساب دسترسی پیدا کرده بود. آنها جزئیات حساس، مانند هزینههای مشتری و محصولات خریداریشده را کپی کرده و به یک رقیب منتقل کردند.
با گسترش استفاده از همیاران هوش مصنوعی مولد، احتمال وقوع نقضهای امنیتی و دسترسی غیرمجاز به دادهها بیشتر میشود.
بر اساس یک نظرسنجی اخیر از گارتنر (Gartner)، رایجترین موارد استفاده از هوش مصنوعی شامل برنامههای مبتنی بر هوش مصنوعی مولد (gen AI) مانند Microsoft 365 Copilot و Salesforce’s Einstein Copilot هستند. در حالی که این ابزارها راهی عالی برای افزایش بهرهوری سازمانها هستند، اما چالشهای امنیت داده قابل توجهی نیز ایجاد میکنند.
در این مقاله، ما به بررسی این چالشها خواهیم پرداخت و به شما نشان خواهیم داد که چگونه دادههای خود را در عصر هوش مصنوعی مولد (gen AI) ایمن کنید.
ریسک دادههای Gen AI
بسیاری از دسترسیهای دادهها مورد استفاده قرار نمیگیرند و بسیاری از این دسترسیها نیز پرخطر هستند. این موضوع همیشه برای امنیت دادهها مشکلساز بوده است، اما هوش مصنوعی مولد این مشکلات را به مراتب بیشتر و خطرناکتر میکند.
ابزارهای هوش مصنوعی مولد قادرند به تمامی دادههایی که کاربران به آنها دسترسی دارند، دسترسی پیدا کنند. بنابراین، تعیین دقیق و مناسب سطح دسترسی کاربران به دادهها اهمیت زیادی برای حفظ امنیت دارد.
زمانی که یک کاربر از یک همیار هوش مصنوعی مولد (gen AI copilot) سوالی میپرسد، این ابزار یک پاسخ به زبان طبیعی را بر اساس محتوای اینترنت و محتوای تجاری از طریق فناوری گراف (graph technology) فرموله میکند.
چون کاربران ممکن است به طور غیرضروری به دادههای زیادی دسترسی داشته باشند، ابزار همیار هوش مصنوعی میتواند به راحتی دادههای حساس را نمایش دهد، حتی اگر کاربر خودش از این دسترسیهای حساس آگاه نباشد.
بسیاری از سازمانها از نوع و میزان دادههای حساس خود بیاطلاع هستند و انجام تنظیمات دقیق برای تعیین سطح دسترسی به این دادهها به صورت دستی بسیار دشوار و تقریباً غیرعملی است.
هوش مصنوعی مولد (gen AI) سطح دسترسی به نقض دادهها را پایین میآورد.
افرادی که قصد دارند به اطلاعات حساس دسترسی پیدا کنند دیگر نیازی به داشتن دانش فنی عمیق در مورد سیستمها و محیطهای امنیتی ندارند. آنها میتوانند به راحتی از ابزارهای هوش مصنوعی مولد مانند همیارها درخواست اطلاعات حساس یا مدارک لازم برای پیشرفت در شبکه سازمانی کنند.
چالشهای امنیتی که با فعالسازی ابزارهای هوش مصنوعی مولد (gen AI) همراه است شامل موارد زیر میشود:
- کارمندان به میزان زیادی از دادهها دسترسی دارند.
- دادههای حساس معمولاً برچسبگذاری نشدهاند یا به اشتباه برچسبگذاری شدهاند.
- درونسازمانیها میتوانند به سرعت دادهها را با استفاده از زبان طبیعی پیدا کرده و استخراج کنند.
- حملاتکنندگان میتوانند اسرار را برای افزایش امتیازات و حرکت درونسازمانی کشف کنند.
- تنظیم دقیق سطح دسترسی به صورت دستی غیرممکن است.
- هوش مصنوعی مولد میتواند به سرعت دادههای حساس جدیدی ایجاد کند.
مشکلات امنیتی دادهها از قبل وجود داشتهاند، ولی با توجه به اینکه هوش مصنوعی مولد میتواند به سرعت و به راحتی اطلاعات را در دسترس قرار دهد، این مشکلات اکنون به راحتی میتوانند مورد سوءاستفاده قرار گیرند.
چگونه میتوان از اولین نقض امنیتی هوش مصنوعی خود جلوگیری کرد
برای کاهش یا از بین بردن خطرات مرتبط با هوش مصنوعی مولد، ابتدا باید اطمینان حاصل کنید که سازمان شما از نظر امنیتی و سازماندهی به درستی مدیریت شده و آماده است.
اگر مطمئن نیستید که میدانید دادههای حساس شما کجا قرار دارند، آن دادههای حساس چه هستند، نمیتوانید آسیبپذیریها و خطرات را تجزیه و تحلیل کنید و نمیتوانید بهطور مؤثر شکافهای امنیتی و پیکربندیهای نادرست را برطرف کنید، بهتر است همیارها را بدون محدودیت در سازمان خود رها نکنید.
قبل از این که از ابزارهای هوش مصنوعی مولد (همیارها) استفاده کنید، باید اطمینان حاصل کنید که امنیت دادهها در سازمان شما به خوبی مدیریت شده و فرآیندهای لازم برای حفاظت از دادهها به درستی پیادهسازی شده است. تنها در این صورت میتوانید با اطمینان از همیارها استفاده کنید.
در این مرحله، باید بر روی مجوزها، برچسبها و فعالیتهای انسانی تمرکز کنید.
Permissions: اطمینان حاصل کنید که مجوزهای کاربران شما بهطور مناسب تنظیم شدهاند و دسترسی همیار (copilot) مطابق با این مجوزها است.
Labels: پس از اینکه فهمیدید دادههای حساس شما چیست و چه نوع دادههای حساسی دارید، میتوانید برچسبهایی به آنها اعمال کنید تا از پیشگیری از نشت دادهها (DLP) اطمینان حاصل کنید.
Human activity (فعالیتهای انسانی): نظارت بر نحوه استفاده کارکنان از همیار (copilot) و بررسی هرگونه رفتار مشکوک که شناسایی میشود، ضروری است. نظارت بر درخواستها و فایلهایی که کاربران به آنها دسترسی پیدا میکنند، برای جلوگیری از سوءاستفاده از همیارها بسیار مهم است.
برای مدیریت مؤثر امنیت دادهها و استفاده ایمن از ابزارهای هوش مصنوعی مولد، تنها تلاش دستی کافی نیست و نیاز به یک رویکرد جامع و کنترلهای خاص برای این ابزارها وجود دارد. تنها با داشتن این رویکرد جامع و کنترلهای ویژه است که سازمانها میتوانند به طور ایمن از این فناوریها بهرهبرداری کنند.
نقضهای امنیتی هوش مصنوعی را با استفاده از Varonis پیشگیری کنید.
Varonis به مشتریان در سرتاسر جهان کمک میکند تا آنچه که بیشترین اهمیت را دارد، یعنی دادههایشان را محافظت کنند. ما از تخصص عمیق خود برای محافظت از سازمانهایی که قصد دارند از هوش مصنوعی مولد استفاده کنند، بهرهبرداری کردهایم.
برای شروع کار با هوش مصنوعی مولد، استفاده از ارزیابی رایگان ریسک دادهها بهترین گزینه است. این ارزیابی در مدت زمان کوتاه به شما کمک میکند تا وضعیت امنیت دادههای حساس خود را بررسی کنید و تصمیم بگیرید که آیا میتوانید بهطور ایمن از ابزارهای هوش مصنوعی مولد بهرهبرداری کنید یا خیر.
برای کسب اطلاعات بیشتر، می توانید این لینک را مطالعه کنید.