Netcrook Logo
👤 NEONPALADIN
🗓️ 16 Dec 2025   🗂️ Cloud    

الذكاء الاصطناعي يخرج عن السيطرة: كيف يحول المجرمون نماذج اللغة إلى آلات فدية صناعية ضخمة

يستخدم مجرمو الإنترنت الذكاء الاصطناعي ليس فقط لزيادة السرعة، بل لتصنيع وتدويل هجمات الفدية والابتزاز.

في ظلال الإنترنت، يشهد الجريمة الإلكترونية تحولاً جذرياً. انسَ صورة الهاكر المنعزل المنحني فوق لوحة المفاتيح - اليوم، تستخدم عصابات الفدية الذكاء الاصطناعي لأتمتة وتضخيم عملياتها. والنتيجة هي جيل جديد من الابتزاز الإلكتروني: أسرع، أذكى، وقابل للتوسع بشكل مقلق.

سباق التسلح بالذكاء الاصطناعي في الجريمة الإلكترونية

وفقاً لأبحاث جديدة من SentinelLABS، أصبح الذكاء الاصطناعي - وخاصة نماذج اللغة الكبيرة مثل ChatGPT وClaude ونظيراتها مفتوحة المصدر - السلاح السري لمشغلي هجمات الفدية. هذه الأدوات لا تبتكر استراتيجيات هجوم جديدة، لكنها تعزز كل مرحلة من دورة حياة الجريمة الإلكترونية، من الاختراق الأولي حتى الابتزاز النهائي.

تعيد مجموعات الفدية الآن توظيف سير العمل بالذكاء الاصطناعي المخصص للشركات لأغراض إجرامية. رسائل التصيد الاحتيالي، وملاحظات الفدية، وحتى المفاوضات مع الضحايا يتم إنشاؤها بلغات متعددة بفضل قدرات النماذج اللغوية الكبيرة. على سبيل المثال، يمكن للذكاء الاصطناعي اكتشاف كلمات مالية مثل "Fatura" (فاتورة بالتركية) أو "Rechnung" (فاتورة بالألمانية)، مما يمكّن الهجمات من تجاوز الحدود اللغوية بسهولة.

يمثل انتشار النماذج مفتوحة المصدر والمستضافة ذاتياً - مثل Ollama - تحولاً كبيراً. من خلال تشغيل أدوات الذكاء الاصطناعي محلياً، يتجنب المجرمون التتبع وضوابط الأمان التي تفرضها المزودات التقليدية. هذا يعني أنهم يستطيعون توزيع الأنشطة الخبيثة عبر تعليمات منفصلة، ثم تجميع الحمولة النهائية دون اتصال، مما يترك المدافعين عاجزين عن رصد تكتيكاتهم.

تم رصد برمجيات خبيثة ناشئة مدعومة بالذكاء الاصطناعي، مثل QUIETVAULT، تستخدم تعليمات بلغة طبيعية للبحث عن محافظ العملات الرقمية على الأجهزة المصابة. في الوقت نفسه، تروج مجموعات الفدية كخدمة (RaaS) مثل Global Group لـ"الدردشة المدعومة بالذكاء الاصطناعي" للتفاوض على الفدية وتحليل بيانات الضحايا، وتعديل نبرة الحديث ومطالب الدفع بشكل فوري.

التجزئة وصعود العصابات المرنة

بينما تمكنت جهات إنفاذ القانون من تعطيل بعض أكبر كارتلات الفدية (مثل LockBit، Conti، REvil)، تظهر مجموعات أصغر جديدة - مثل Termite، Punisher، Obscura - تستخدم الذكاء الاصطناعي لتتجاوز حجمها الحقيقي. مع خفض النماذج اللغوية الكبيرة للحاجز التقني، أصبح بإمكان حتى المهاجمين الأقل خبرة تقليد تكتيكات المجرمين المحترفين، مما يصعب عملية النسب والكشف أكثر من أي وقت مضى.

ينبه الخبراء إلى موجة قادمة من "تهريب التعليمات كخدمة" - حيث تُباع سير العمل المحسنة للذكاء الاصطناعي لإنشاء البرمجيات الخبيثة في الويب المظلم. ومع تحول المهاجمين النخبة إلى نماذج مخصصة ومستضافة ذاتياً، يخاطر المدافعون بفقدان الرؤية التي كانوا يتمتعون بها مع منصات الذكاء الاصطناعي السحابية الخاضعة للمراقبة.

تصنيع هجمات الفدية

رغم المخاوف من البرمجيات الخبيثة الفائقة المدعومة بالذكاء الاصطناعي، فإن التهديد الحقيقي يكمن في الابتزاز الصناعي: أتمتة أسرع، استهداف أدق، وتنفيذ متعدد اللغات. أصبح عمل الفدية أكثر توجهاً للخدمات، وقابلاً للتوسع، وأصعب في التتبع - مما يمهد لعصر تعمل فيه الجريمة الإلكترونية بسرعة الآلة، عبر الحدود واللغات.

مع استمرار تطور الذكاء الاصطناعي، ستتطور تطبيقاته الإجرامية أيضاً. التحدي أمام المدافعين ليس فقط في مواكبة التطورات، بل في توقع كيف سيتم تحريف هذه الأدوات لتحقيق الربح وإحداث الفوضى. سباق التسلح بدأ للتو.

ويكي كروك

  • نموذج اللغة الكبير (LLM): نموذج اللغة الكبير هو ذكاء اصطناعي مدرب على فهم وتوليد نصوص شبيهة بالبشر، وغالباً ما يُستخدم في الدردشة والمساعدات وأدوات المحتوى.
  • برمجيات الفدية: برمجيات الفدية هي برامج خبيثة تقوم بتشفير أو قفل البيانات، وتطالب الضحايا بدفع فدية لاستعادة الوصول إلى ملفاتهم أو أنظمتهم.
  • القياس عن بعد: القياس عن بعد هو الإرسال التلقائي للبيانات من الأجهزة أو البرمجيات لمراقبة الأداء والأمان في الوقت الفعلي، مما يساعد على اكتشاف المشكلات بسرعة.
  • تهريب التعليمات: تهريب التعليمات هو إخفاء أوامر ضارة داخل تعليمات ظاهرها بريء لخداع أنظمة الذكاء الاصطناعي وتجاوز مرشحات الأمان وإنتاج مخرجات خبيثة.
  • التحيز الذاتي: التحيز الذاتي هو عندما تفضل الشركة منتجاتها أو خدماتها بشكل غير عادل على حساب المنافسين، مما يؤثر غالباً على المنافسة وخيارات المستهلكين.
AI Ransomware Cybercrime

NEONPALADIN NEONPALADIN
Cyber Resilience Engineer
← Back to news