Netcrook Logo
👤 LOGICFALCON
🗓️ 28 Feb 2026   🌍 North America

مواجهة الذكاء الاصطناعي: حملة ترامب على «أنثروبيك» تشعل حربًا تقنية في واشنطن

الحظر الواسع الذي فرضه البيت الأبيض على تقنية «أنثروبيك» يسلّط الضوء على صدامٍ متصاعد بين مُثل وادي السيليكون في الذكاء الاصطناعي ومناورات البنتاغون.

في منعطفٍ دراماتيكي هزّ كابيتول هيل ووادي السيليكون معًا، أمر الرئيس دونالد ترامب يوم الجمعة جميع الوكالات الفيدرالية بالتخلّص تدريجيًا من تقنية الذكاء الاصطناعي التابعة لشركة «أنثروبيك». وتأتي الخطوة عقب مواجهةٍ بارزة بين قيادة «أنثروبيك» والبنتاغون حول استخدام - واحتمال إساءة استخدام - الذكاء الاصطناعي المتقدّم في عمليات الأمن القومي. ومع انقشاع الغبار، لم تبدُ خطوط التماس بين ضرورات الحكومة وأخلاقيات التكنولوجيا أكثر حدّةً من أي وقت مضى.

حقائق سريعة

  • أمر الرئيس ترامب جميع الوكالات الفيدرالية بالتوقف عن استخدام تقنية الذكاء الاصطناعي الخاصة بـ«أنثروبيك» بعد خلافٍ علني مع البنتاغون.
  • طالب البنتاغون باستخدامٍ عسكري غير مقيّد لنموذج «كلود» من «أنثروبيك»، ما أثار مخاوف بشأن الذكاء الاصطناعي في المراقبة والأسلحة الذاتية.
  • رفضت «أنثروبيك» إزالة ضوابطها الوقائية، ما عرّض ليس فقط عقدها الدفاعي للخطر، بل أيضًا لاحتمال وسمها بأنها «مخاطر على سلسلة التوريد».
  • أبدى منافسون كبار في الذكاء الاصطناعي، بينهم «أوبن إيه آي» و«غوغل»، دعمًا نادرًا لموقف «أنثروبيك» بشأن النشر المسؤول للذكاء الاصطناعي.
  • تُبرز المواجهة اتساع الانقسامات داخل قطاع التكنولوجيا والحكومة حول مستقبل الذكاء الاصطناعي في الحرب والمراقبة.

أنثروبيك ضد البنتاغون: معركة على روح الذكاء الاصطناعي

في صميم الصراع سؤالٌ قد يحدّد العقد المقبل: هل ينبغي لمطوّري الذكاء الاصطناعي رسم خطوطٍ أخلاقية حمراء حتى عندما يكون الأمن القومي على المحك؟ «أنثروبيك»، صانعة روبوت الدردشة المتقدّم «كلود»، أصرت على قيود صارمة - لا مراقبة جماعية للأميركيين ولا استخدام في أسلحة ذاتية بالكامل. غير أن البنتاغون أراد وصولًا أوسع، مجادلًا بأن هذه الأدوات ضرورية للحرب الحديثة والاستخبارات.

انفجر الخلاف إلى العلن بعد أشهر من مفاوضاتٍ خلف الكواليس انهارت. وأصدر وزير الدفاع بيت هيغسيث إنذارًا نهائيًا: امنحوا الجيش وصولًا كاملًا أو واجهوا وسمكم بأنكم «مخاطر على سلسلة التوريد» - وهو توصيف يُحجز عادةً للخصوم الأجانب، وقد يشلّ أعمال «أنثروبيك» عبر الحكومة الأميركية وخارجها. وتمسّك الرئيس التنفيذي لـ«أنثروبيك»، داريو أمودي، بموقفه، قائلًا إن شركته «لا يمكنها بضميرٍ حيّ أن ترضخ» لمطالب البنتاغون.

وقد هزّت هذه الدراما عالم التكنولوجيا. فبينما هلّل بعض قادة التكنولوجيا المحسوبين على ترامب، مثل إيلون ماسك وبالمر لاكي، لنهج الإدارة المتشدّد، تشكّل تحالفٌ مفاجئ من المنافسين حول «أنثروبيك». ونشر موظفون من «أوبن إيه آي» و«غوغل» رسالةً مفتوحة حذّروا فيها من أن البنتاغون يحاول دفع الشركات إلى مواجهة بعضها بعضًا، فيما دافع الرئيس التنفيذي لـ«أوبن إيه آي» سام ألتمان علنًا عن موقف «أنثروبيك»، واصفًا تكتيكات البنتاغون بأنها «تهديدية».

ليست هذه المرة الأولى التي يقسم فيها احتضان الجيش للذكاء الاصطناعي القطاع. ففي عام 2018، تخلّت «غوغل» عن مشروع طائراتٍ مسيّرة تابع للبنتاغون بعد تمرّدٍ من الموظفين. لكن مع ازدياد قوة الذكاء الاصطناعي، ترتفع الرهانات - وعواقب الخطأ - بشكلٍ أُسّي.

ووصف الجنرال السابق في سلاح الجو جاك شاناهان، الذي قاد مبادرات الذكاء الاصطناعي المبكرة في وزارة الدفاع، خطوط «أنثروبيك» الحمراء بأنها «معقولة»، محذّرًا من أن نماذج اللغة الكبيرة مثل «كلود» ليست جاهزة بعد لعالم الأسلحة الذاتية عالي المخاطر.

ما التالي؟

ومع دخول الحظر حيّز التنفيذ رسميًا، تواجه «أنثروبيك» احتمال خسارة عقودٍ حكومية كبرى ووصمها بأنها تهديدٌ أمني. ومع ذلك، قد يرسّخ موقفها سابقةً لكيفية تفاوض شركات التكنولوجيا على قيمها مع سلطة الدولة - ولكيفية بناء ترسانة أميركا من الذكاء الاصطناعي والتحكّم بها. وبينما يسارع البنتاغون لإبرام صفقات مع «أوبن إيه آي» و«غوغل»، تراقب الصناعة بأكملها: هل ستنتصر الأخلاقيات أم البراغماتية؟

ويكيكروك

  • نموذج اللغة الكبير (LLM): نموذج اللغة الكبير (LLM) هو ذكاء اصطناعي مُدرَّب على فهم النصوص وتوليدها بأسلوبٍ شبيه بالبشر، ويُستخدم غالبًا في روبوتات الدردشة والمساعدين وأدوات المحتوى.
  • مخاطر سلسلة التوريد: مخاطر سلسلة التوريد هي التهديد المتمثل في أن هجومًا سيبرانيًا على شركةٍ ما يمكن أن ينتشر إلى شركاتٍ أخرى مرتبطة عبر أنظمة مشتركة أو مورّدين أو شركاء.
  • الأسلحة الذاتية: الأسلحة الذاتية هي آلات، مثل الطائرات المسيّرة أو الروبوتات، يمكنها تحديد الأهداف ومهاجمتها دون تحكّمٍ بشري مباشر، باستخدام الذكاء الاصطناعي وأجهزة الاستشعار.
  • قانون الإنتاج الدفاعي: يتيح قانون الإنتاج الدفاعي للحكومة الأميركية توجيه القطاع الخاص لتأمين الموارد والتكنولوجيا الحيوية للدفاع الوطني والأمن السيبراني.
  • الخطوط الحمراء: الخطوط الحمراء هي حدود أو قواعد محددة بوضوح في التكنولوجيا والأمن السيبراني لا يجوز تجاوزها، غالبًا حفاظًا على الأخلاقيات والخصوصية والمعايير القانونية.
AI Ethics Pentagon Anthropic

LOGICFALCON LOGICFALCON
Log Intelligence Investigator
← Back to news