Netcrook Logo
👤 KERNELWATCHER
🗓️ 27 Apr 2026  

تشققات في المخلب: كيف تركت ثغرات OpenClaw الأمنية وكلاء الذكاء الاصطناعي مكشوفين

العنوان الفرعي: ثغرات حرجة في إطار وكلاء الذكاء الاصطناعي لدى OpenClaw تكشف مخاطر مقلقة لتجاوز السياسات وسرقة بيانات الاعتماد والتلاعب بالأنظمة.

في السباق المحموم لأتمتة الذكاء، قد يغفل حتى ألمع العقول أصغر التشققات. هذا الأسبوع، سارعت OpenClaw - محبوبة المصادر المفتوحة في عالم وكلاء الذكاء الاصطناعي المستقلين - إلى ترقيع ثلاث ثغرات كان يمكن أن تحوّل وعدها بالكفاءة إلى ملعب لمجرمي الإنترنت. ومع اندفاع المؤسسات لنشر وكلاء ذكاء اصطناعي بسلطات متزايدة، تأتي هذه العيوب كتحذير صارخ: عندما يفكر البرنامج بنفسه، من يراقب المراقبين؟

إن الصعود السريع لـ OpenClaw كإطار مرن ومفتوح المصدر لوكلاء الذكاء الاصطناعي جعله عنصرًا أساسيًا في البيئات كثيفة الأتمتة. لكن حادثته الأمنية الأخيرة تكشف آلام النمو في موازنة الابتكار مع الدفاع. فقد اكتشف الباحثون ثلاث ثغرات منفصلة - كل واحدة منها بابًا خلفيًا محتملًا للمهاجمين، وكلها متجذرة في تقاطع استقلالية الذكاء الاصطناعي مع هفوات التهيئة الكلاسيكية.

ظهر أول شرخ في إعدادات البوابة: إذ تمكنت نماذج الذكاء الاصطناعي المحقونة بالمحفزات من تجاوز ضمانات المشغّل، وتعديل إعدادات نظام موثوقة كان ينبغي أن تكون خارج الحدود. لم يكن هذا مجرد زلة بسيطة - إذ استطاع المهاجمون العبث بسياسات العزل (sandbox)، وأذونات الإضافات، وخطافات التوجيه، وحتى إعدادات الخادم الأساسية، بما يعادل إعادة كتابة كتاب القواعد لكيفية تصرف الوكلاء. رد OpenClaw؟ تشديد الضوابط، وحظر التغييرات غير المصرح بها عبر كل مسار حساس.

ثم جاءت ثغرة الأدوات المرفقة. حتى عندما يضع المسؤولون قوائم منع صارمة، كانت أدوات MCP وLSP المدمجة في OpenClaw قادرة على التسلل عبر المرشحات الأولية، وإضافة نفسها إلى مجموعات الأدوات النشطة وتنفيذ إجراءات غير مصرح بها. الحل: طبقة تحقق نهائية تُجبر على فحص امتثال كل أداة قبل تفعيلها، لتغلق فجوة خفية لكنها خطيرة في الرقابة.

أما الثغرة الأكثر إثارة للقلق، فقد ظهرت في التعامل مع متغيرات البيئة - وتحديدًا القدرة على زرع ملفات .env خبيثة. فمن خلال تجاوز إعداد MINIMAX_API_HOST، تمكن المهاجمون من إعادة توجيه استدعاءات واجهة API وسحب بيانات اعتماد حساسة عبر طلبات صادرة. ترقيع OpenClaw الآن يحظر مثل هذه التجاوزات، ويلغي آلية التوجيه الضعيفة بالكامل.

تؤكد هذه الحوادث حقيقة أوسع: كلما أصبح وكلاء الذكاء الاصطناعي أكثر استقلالية وترابطًا، اتسعت مساحة الهجوم لديهم بشكل أُسّي. فالأخطاء البسيطة في التهيئة أو إنفاذ السياسات قد تفتح الأبواب أمام الحركة الجانبية وسرقة البيانات واختراق الأنظمة. ويحث فريق OpenClaw جميع المسؤولين على الترقية فورًا وتشديد ضوابط الوصول - فمستقبل الذكاء الاصطناعي الآمن لا يحتمل أقل من ذلك.

إن قصة OpenClaw حكاية تحذيرية لكل من يراهن على الأتمتة المدفوعة بالذكاء الاصطناعي. فكلما ازدادت الأطر قوة، وجب أن تزداد يقظتنا أيضًا. في عالم الوكلاء المستقلين، كل تفصيل مُهمل هو خرق محتمل - وكل ترقيع هو سباق ضد الاستغلال التالي.

WIKICROOK

  • حقن المُحفِّز: حقن المُحفِّز هو عندما يزوّد المهاجمون الذكاء الاصطناعي بمدخلات ضارة، ما يدفعه للتصرف بطرق غير مقصودة أو خطرة، وغالبًا بتجاوز وسائل الحماية المعتادة.
  • متغير البيئة: متغير البيئة هو زوج مفتاح-قيمة يخزن بيانات التهيئة، وغالبًا ما يُستخدم للأسرار مثل مفاتيح API، مما يعزز الأمان في بيئات البرمجيات.
  • تجاوز السياسات: تجاوز السياسات هو أسلوب يستخدمه المهاجمون للتهرب من ضوابط الأمان، بما يسمح بإجراءات أو وصول غير مصرح به عبر الالتفاف على السياسات الأمنية المعتمدة.
  • سياسة العزل (Sandbox): سياسة العزل تقيّد ما يمكن للتطبيق فعله أو الوصول إليه، بعزله لحماية النظام من التهديدات الأمنية المحتملة.
  • كشف بيانات الاعتماد: كشف بيانات الاعتماد يحدث عندما تُفصح تفاصيل تسجيل الدخول الحساسة لأطراف غير مخولة، وغالبًا ما يؤدي ذلك إلى خروقات أمنية ووصول غير مصرح به إلى الأنظمة.
OpenClaw AI security vulnerabilities

KERNELWATCHER KERNELWATCHER
Linux Kernel Security Analyst
← Back to news