Netcrook Logo
👤 NEURALSHIELD
🗓️ 27 Mar 2026   🌍 Europe

داخل الصندوق الأسود: هل تستطيع قيم شابلي أخيرًا كشف ما الذي يفكر فيه الذكاء الاصطناعي؟

العنوان الفرعي: مع ازدياد قوة الذكاء الاصطناعي - وازدياد غموضه - يسابق الباحثون الزمن لجعل قراراته شفافة، لكن هذه الرحلة مليئة بالألغام التقنية والأخلاقية.

تخيّل أن تثق بآلة لاتخاذ قرارات بشأن صحتك، أو أموالك، أو حتى حريتك - من دون أن تعرف أبدًا لماذا اختارت ما اختارته. هذا ليس خيالًا علميًا؛ بل هو الواقع اليومي للذكاء الاصطناعي، ولا سيما نماذج اللغة الكبيرة (LLMs) الجبّارة مثل GPT وLlama. قد تبدو إجاباتها كالسحر، لكن خلف الكواليس تعمل آلياتها الداخلية كشبكة متشابكة معقّدة. والآن، يُحتفى بمفهوم قديم عمره عقود من نظرية الألعاب، وهو «قيمة شابلي»، بوصفه مفتاحًا محتملًا لفك هذه الألغاز. لكن هل هو قادر فعلًا على المهمة - أم أنه مجرد وهم آخر؟

إن السعي نحو الذكاء الاصطناعي القابل للتفسير (XAI) ليس مجرد تحدٍ تقني - بل ضرورة مجتمعية وتنظيمية. ومع اقتراب تطبيق قانون الذكاء الاصطناعي في الاتحاد الأوروبي، يتعرّض المطوّرون لضغط لإثبات ليس فقط أن نماذجهم تعمل، بل كيف ولماذا تصل إلى استنتاجاتها. وتَعِد «قيمة شابلي»، المستعارة من نظرية الألعاب التعاونية، بتحقيق ذلك عبر حساب مقدار تأثير كل رمز في المُدخل على مخرجات النموذج. نظريًا، قد يتيح هذا للجهات التنظيمية والمستخدمين رؤية الكلمات التي ترجّح كفة إجابة الذكاء الاصطناعي - مما يجعل «الصندوق الأسود» أقل ظلمة قليلًا.

لكن هناك مشكلة. فحساب قيم شابلي يعني فحص كل تركيبة ممكنة من الرموز، وهي مهمة تنمو أُسّيًا مع كل كلمة إضافية. وبالنسبة لنماذج اللغة الكبيرة الضخمة اليوم، يصبح هذا سريعًا عبئًا حسابيًا عبثيًا. والأسوأ أن البنية نفسها التي تجعل نماذج اللغة الكبيرة قوية جدًا - أي «المحوّل» - تُبعثر وتمزج مساهمات الرموز بطرق تتحدى الإسناد البسيط. الأمر أشبه بمحاولة تحديد أي مكوّن في يخنةٍ ما شكّل النكهة أكثر، بعد ساعات من الطهي على نار هادئة.

لا يستسلم الباحثون. ففي مختبر SESAR في ميلانو، طُوِّر مقياس جديد يُسمّى «نسبة إنتروبيا SHAP المُركّزة» (FSER) لقياس مقدار ما تُقلّله «حواجز الأمان» (المرشّحات والقيود) من التحيّز في مخرجات نماذج اللغة الكبيرة. وتشير التجارب المبكرة إلى أن هذا قد يوفّر معيارًا مطلوبًا بشدة للذكاء الاصطناعي الأخلاقي، خصوصًا تحت الأضواء التنظيمية الجديدة.

وفي الوقت نفسه، قد يقدّم الجيل التالي من نماذج الذكاء الاصطناعي طريقًا إلى الأمام. فالبنى الهجينة مثل Mamba وRWKV المبتكر تستبدل خلط «المحوّل» المعقّد بمعالجة أكثر رشاقة وقابلية للتنبؤ. ومن خلال تحديث حالاتها الداخلية بصورة تكرارية والعمل بتعقيد خطي، تستطيع هذه النماذج التعامل بكفاءة مع مُدخلات أطول وقد تجعل تحليلًا على طريقة شابلي ممكنًا - حتى في سياقات مترامية مدعومة بقواعد بيانات.

ولدى الباحثين الأوروبيين، الذين يُنظر إليهم غالبًا على أنهم متأخرون عن الولايات المتحدة في نماذج اللغة الكبيرة التقليدية، فرصة الآن: فمن خلال الجمع بين مقاييس شفافية صارمة، وزخم تنظيمي، وبنى جديدة فعّالة، قد يقفزون إلى موقع الريادة في ذكاء اصطناعي أخلاقي ومسؤول وخاضع للمساءلة.

الخلاصة

لا يزال حلم الذكاء الاصطناعي القابل للتفسير بالكامل بعيد المنال. تقدّم قيم شابلي وعدًا مغريًا، لكن العقبات التقنية والمعمارية كبيرة. ومع ذلك، ومع النماذج الجديدة والضغط التنظيمي المتواصل، قد يكون عصر سرّية الذكاء الاصطناعي على وشك أن ينتهي أخيرًا. وما إذا كانت أوروبا - أو أي جهة أخرى - ستتمكن حقًا من جعل الذكاء الاصطناعي خاضعًا للمساءلة، فذلك هو الفصل التالي من هذه الملحمة المتكشّفة.

WIKICROOK

  • قيمة شابلي: تقيس قيمة شابلي بشكل عادل مساهمة كل عنصر في القرارات الجماعية، مما يساعد فرق الأمن السيبراني على ترتيب المخاطر وتخصيص الموارد بفعالية.
  • نموذج اللغة الكبير (LLM): نموذج اللغة الكبير (LLM) هو ذكاء اصطناعي مُدرَّب على فهم النصوص وتوليد نص شبيه بالبشر، ويُستخدم غالبًا في روبوتات الدردشة والمساعدين وأدوات المحتوى.
  • المحوّل (Transformer): المحوّل هو بنية شبكة عصبية تمكّن الذكاء الاصطناعي من معالجة وفهم السلاسل مثل اللغة أو الصور بكفاءة، وهو ما يشغّل العديد من النماذج الحديثة.
  • حاجز أمان: حاجز الأمان هو ضابط في الأمن السيبراني يقيّد الأفعال المحفوفة بالمخاطر، ويمنع الأخطاء أو سوء الاستخدام ويساعد على الحفاظ على الأمن والامتثال في الأنظمة الرقمية.
  • الشبكة العصبية التكرارية (RNN): تعالج الشبكة العصبية التكرارية (RNN) البيانات المتسلسلة، مما يتيح تذكّر المدخلات السابقة. وتُستخدم في الأمن السيبراني لاكتشاف التهديدات من الأنماط عبر الزمن.
Shapley Values Explainable AI Large Language Models

NEURALSHIELD NEURALSHIELD
AI System Protection Engineer
← Back to news