Netcrook Logo
👤 NEURALSHIELD
🗓️ 10 Apr 2026   🌍 North America

إغلاق مُحكم أم إطلاق العنان: المعركة عالية المخاطر على مستقبل الذكاء الاصطناعي العالمي

العنوان الفرعي: بينما تتصادم عمالقة التقنية حول إطلاق ذكاء اصطناعي قوي، يواجه العالم لحظة فاصلة بين ابتكار متسارع وسلامة صارمة لا هوادة فيها.

في صباح بارد من أوائل أبريل، أرسل قرارٌ واحد داخل شركة موجاتٍ عبر مشهد الذكاء الاصطناعي: فقد رفضت أنثروبيك، المعروفة بنهجها الذي يضع السلامة أولاً، طرح نموذجها الأحدث للذكاء الاصطناعي «Claude Mythos Preview» للعامة، مُعلِّلة ذلك بخطر تحويل ثغرات الأمن السيبراني من نوع «زيرو داي» إلى سلاح. هذه الخطوة غير المسبوقة بلورت مواجهة شرسة عالية المخاطر بين رؤيتين متنافستين لمستقبل الذكاء الاصطناعي - إحداهما تركض نحو إحداث الاضطراب، والأخرى تبني متاريس للسلامة. والنتيجة؟ لا شيء أقل من مصير الكيفية التي سيُشكِّل بها الذكاء الاصطناعي العالم - أو يزعزعه.

تصادم عالَمين للذكاء الاصطناعي

انقسم عالم الذكاء الاصطناعي إلى معسكرين. من جهة: مبتكرو «أطلق الآن وأصلِح لاحقاً» - سام ألتمان من OpenAI وإيلون ماسك من xAI - الذين تقوم فلسفتهم على دفع نماذج الذكاء الاصطناعي إلى العلن ومعالجة العواقب أثناء السير. ومن جهة أخرى: حُرّاس «السلامة بالتصميم» - ديميس هاسابيس من Google DeepMind وداريو أمودي من أنثروبيك - الذين يصرّون على ألا ترى نماذج الذكاء الاصطناعي القوية النور إلا بعد مراجعات مخاطر صارمة وفرض قيود.

لم يعد هذا نقاشاً في برج عاجي. فقد استند رفض أنثروبيك إطلاق «Claude Mythos Preview» إلى أدلة تقنية: إذ يمكن للنموذج اكتشاف ثغرات «زيرو داي» في برمجيات واسعة الانتشار واستغلالها، بما يشكّل تهديدات حقيقية للأمن السيبراني. وبدلاً من ذلك، قُيِّد الوصول ليقتصر على شركاء موثوقين ومنظمات البنية التحتية الحيوية - في تناقض صارخ مع كتيّب وادي السيليكون المعتاد.

في المقابل، لا تُشكّك ورقة السياسات الأحدث لدى OpenAI بعنوان «السياسة الصناعية لعصر الذكاء» في المسيرة المتواصلة نحو ذكاء اصطناعي أشد قوة. بل تدعو إلى أطر اقتصادية وتنظيمية جديدة لامتصاص موجات الصدمة - إعادة توزيع الثروة، وإعادة تدريب العمال، وتدقيق النماذج بعد الإطلاق. بالنسبة لألتمان وماسك، سيُصحّح السوق (وأحياناً المحاكم) التجاوزات بعد وقوعها. فشركة xAI التابعة لماسك، على سبيل المثال، لم تُقيِّد ميزات تحرير الصور المثيرة للجدل في Grok إلا بعد ضغط تنظيمي وتهديدات قانونية في أوروبا.

أما DeepMind وأنثروبيك فتغرسـان الحذر في حمضهما النووي. إذ يفرض إطار السلامة المُحدَّث لدى DeepMind مراجعات رسمية قبل الإطلاق إذا بلغ نموذج ذكاء اصطناعي عتبات مخاطر حرجة. وأنثروبيك، المتميزة بنهجها الفريد «الذكاء الاصطناعي الدستوري»، انسحبت من عقود دفاعية مربحة ورفعت السقف بعدم إطلاق نماذج قد تُسهِّل هجمات سيبرانية هجومية.

من يضع القواعد؟

في قلب هذا الانقسام معضلة سياسية وأخلاقية: هل ينبغي أن تأتي القواعد قبل أن يصل الذكاء الاصطناعي إلى السوق، أم فقط بعد أن يشعر المجتمع بالأثر؟ بالنسبة لأوروبا، هذا سؤال ملتهب. فإذا سادت أخلاقيات «تحرّك بسرعة» الأمريكية، فستظل اللوائح دائماً متأخرة - وستكون تكاليف التراجع هائلة. لكن إذا ترسّخ نموذج «السلامة أولاً»، فبوسع الحكومات والجمهور تشكيل الذكاء الاصطناعي قبل أن يُشكِّلهم.

نظرة إلى الأمام: لعبة تُحسم في مكان آخر؟

الواقع الصارخ: مستقبل الذكاء الاصطناعي يُحسم في غرف مجالس الإدارة والمختبرات بعيداً عن معظم العواصم الوطنية، ولا سيما في أوروبا. لكن مع تنامي قوة الذكاء الاصطناعي، تتزايد أيضاً الحاجة الملحّة لأن يطالب المجتمع بمقعد على الطاولة - قبل أن يُرجِّح نموذج بمستوى «Mythos» الكفة على نحو لا رجعة فيه.

WIKICROOK

  • زيرو: ثغرة «زيرو داي» هي خلل أمني خفي غير معروف لصانع البرمجيات، ولا يتوفر له إصلاح، ما يجعلها عالية القيمة وخطيرة على المهاجمين.
  • مفتوح: تعني «مفتوح» أن البرمجيات أو الشيفرة متاحة علناً، بما يتيح لأي شخص الوصول إليها أو تعديلها أو استخدامها - بما في ذلك لأغراض خبيثة.
  • الذكاء الاصطناعي الدستوري: يوجّه الذكاء الاصطناعي الدستوري الذكاء الاصطناعي عبر مبادئ مكتوبة صراحةً، بما يضمن اتساق المخرجات مع معايير أخلاقية أو قانونية، لا مع التغذية الراجعة البشرية فقط.
  • حواجز أمان: حواجز الأمان هي قواعد أو أنظمة مدمجة تمنع الذكاء الاصطناعي من توليد محتوى غير آمن أو مسيء أو خطير، بما يحمي المستخدمين ويصون السلامة.
  • إطار سلامة الحدود المتقدمة: يوجّه إطار سلامة الحدود المتقدمة المؤسسات في تقييم المخاطر وإدارتها أثناء تطوير وإطلاق نماذج ذكاء اصطناعي متقدمة لضمان السلامة والمسؤولية.
AI Safety Tech Giants Cybersecurity Risks

NEURALSHIELD NEURALSHIELD
AI System Protection Engineer
← Back to news