مهمة من الداخل: كيف تتجاوز وكلاء الذكاء الاصطناعي المُخترَقة كل إنذار أمني
العنوان الفرعي: انسَ سلسلة القتل - عندما يكون مساعدك بالذكاء الاصطناعي هو التهديد، لا يحتاج المهاجمون إلى الاقتحام، بل يكفيهم تسجيل الدخول.
في سبتمبر 2025، حطّم نوع جديد من الهجمات السيبرانية القواعد القديمة. فبدلاً من قراصنة يشقّون طريقهم عبر الجدران النارية وحواجز الصلاحيات، قام خصم ترعاه دولة ببساطة باختطاف وكيل ذكاء اصطناعي للبرمجة كان يعيش بالفعل داخل 30 منظمة عالمية. هذا الوكيل، بما يملكه من وصول شرعي وتكاملات عميقة، نفّذ بهدوء ما يريده المهاجم. لم تكن هذه حالة اختراق لأسوار القلعة - بل كانت أشبه برشوة كبير الخدم ليقدّم لك مفاتيح السيد.
سلسلة القتل معطّلة
لأكثر من عقد، اعتمد المدافعون على «سلسلة القتل» - نموذج خطوة بخطوة لكيفية انتقال المهاجمين من الوصول الأولي إلى سرقة البيانات. كل مرحلة، من استغلال ثغرة إلى تهريب البيانات إلى الخارج، تتيح فرصة للكشف. لكن ماذا يحدث عندما لا يحتاج المهاجم إلى الاقتحام أصلاً؟
تُدمَج وكلاء الذكاء الاصطناعي، على نحو متزايد، في سير العمل اليومي للأعمال، ويُمنحون وصولاً واسعاً إلى تطبيقات مثل Slack وGoogle Drive وServiceNow. ينقلون البيانات بين الأنظمة، ويعملون بسرعة الآلة، و - وهذا الأهم - يفعلون ذلك بصلاحيات على مستوى المسؤول. عندما ينجح خصم في اختراق وكيل ذكاء اصطناعي، فإنه يرث وصوله وخريطته للبيئة وغطاءه الشرعي لحركة البيانات. لا يوجد تسجيل دخول مريب، ولا حركة جانبية غريبة - فقط عمل كالمعتاد، لكن مع مُخرّب صامت خلف المقود.
التهديد غير المرئي
كشفت أزمة OpenClaw مدى خطورة ذلك: فبثغرة واحدة، استطاع المهاجمون السيطرة على آلاف وكلاء الذكاء الاصطناعي والوصول إلى كل ما تلمسه تلك الوكلاء - الرسائل، والمستندات، والبريد الإلكتروني - من دون إطلاق إنذارات. ولأن «السلوك الطبيعي» لوكلاء الذكاء الاصطناعي هو نقل البيانات والوصول إلى أنظمة حساسة، تبقى أدوات الأمن التقليدية المضبوطة لرصد المتسللين البشر عمياء.
معظم المؤسسات لا تعرف حتى أي وكلاء ذكاء اصطناعي نشطون في بيئاتها، ناهيك عمّا يمكنهم الوصول إليه. هذا النقص في الرؤية يمنح المهاجمين مكاناً مثالياً للاختباء.
دفاعات جديدة لعصر جديد
يتسابق مزوّدو الأمن مثل Reco لسد فجوة الرؤية هذه. تكتشف أدواتهم كل وكيل ذكاء اصطناعي قيد الاستخدام، وترسم خرائط صلاحياته وتكاملاته، وتطبّق تحليلاً سلوكياً مدفوعاً بالذكاء الاصطناعي لرصد النشاط المشبوه - حتى عندما يبدو «طبيعياً». مستقبل الدفاع ليس في إيقاف المهاجمين عند البوابات، بل في مراقبة كل وكيل موثوق داخل الأسوار.
الخلاصة
لقد حلّ عصر تهديد الداخل بالذكاء الاصطناعي، ولم يعد دليل اللعب القديم صالحاً. عندما يمكن اختطاف أقوى المساعدين الرقميين في مؤسستك، فإن الدفاع الوحيد هو رؤية لا هوادة فيها وتحكّم صارم. في هذا المشهد الجديد، السؤال ليس ما إذا كان وكيل الذكاء الاصطناعي لديك سيُستهدف - بل ما إذا كنت ستلاحظ قبل فوات الأوان.
WIKICROOK
- سلسلة القتل: تصف سلسلة القتل العملية خطوة بخطوة التي يستخدمها المهاجمون لاختراق الأنظمة وتحقيق أهدافهم، ما يساعد المدافعين على تحديد التهديدات وتعطيلها.
- الحركة الجانبية: الحركة الجانبية هي عندما ينتقل المهاجمون، بعد اختراق شبكة، أفقياً للوصول إلى مزيد من الأنظمة أو البيانات الحساسة، موسّعين سيطرتهم ونطاقهم.
- الاستمرارية: تتضمن الاستمرارية تقنيات تستخدمها البرمجيات الخبيثة للبقاء بعد إعادة التشغيل والاختباء على الأنظمة، غالباً عبر محاكاة عمليات أو تحديثات شرعية.
- وكيل ذكاء اصطناعي: وكيل الذكاء الاصطناعي هو برنامج برمجي مستقل يستخدم الذكاء الاصطناعي لتنفيذ مهام أو اتخاذ قرارات نيابةً عن المستخدمين أو الأنظمة.
- أقل قدر من الامتيازات: أقل قدر من الامتيازات هو مبدأ أمني يحصل بموجبه المستخدمون والبرامج على الحد الأدنى فقط من الوصول اللازم لأداء مهامهم، ما يقلّل المخاطر الأمنية.