Netcrook Logo
👤 NEURALSHIELD
🗓️ 10 Feb 2026   🌍 Europe

محبوس في الزمن: هل يمكن للذكاء الاصطناعي أن ينسى المستقبل؟

العنوان الفرعي: تجربة جديدة في نماذج الذكاء الاصطناعي التاريخية تتحدى قبضة نماذج اللغة الكبيرة الحديثة على مجمل المعرفة البشرية - مُثيرةً أسئلة حول التحيّز والدقة وطبيعة الذاكرة الرقمية.

تخيّل أن تسأل روبوت محادثة عن مستقبل الطيران - فيستهزئ بالفكرة من أساسها. في عالم تهيمن عليه نماذج اللغة الكبيرة (LLMs) التي تبدو كليّة المعرفة، يجرؤ مشروع جديد يُدعى TimeCapsule LLM على طرح سؤال: ماذا لو كان الذكاء الاصطناعي لا يعرف إلا ما كان يعرفه الناس في الماضي؟ وبينما يواصل الذكاء الاصطناعي إعادة تشكيل علاقتنا بالمعرفة، تُسلّط هذه التجربة الجريئة الضوء على التحيّزات الخفية في الماضي والحاضر معًا - وتكشف في الوقت نفسه تحديات «نسيان» المستقبل حقًا.

حقائق سريعة

  • تم تدريب TimeCapsule LLM حصريًا على نصوص لندن من 1800 إلى 1875.
  • غالبًا ما «تسرّب» نماذج اللغة الكبيرة الحديثة معرفةً معاصرة، حتى عند تقمّص شخصيات تاريخية.
  • تبلغ بيانات تدريب المشروع نحو 90 جيجابايت - معظمها صحف وكتب ووثائق من تلك الحقبة.
  • قد تساعد نماذج اللغة الكبيرة الدقيقة تاريخيًا الباحثين على فهم التحيّزات الخاصة بكل فترة.
  • تظل محدودية البيانات والتحيّز في الاختيار عقبتين رئيسيتين أمام نماذج الذكاء الاصطناعي التاريخية.

إعادة كتابة الماضي - حرفيًا

أصبحت نماذج اللغة الكبيرة عرّافينا الرقميين المفضّلين، بعد تدريبها على مليارات الكلمات الملتقطة من كل ركن من أركان الإنترنت. لكن قدرتها على «معرفة كل شيء» ليست سوى وهم: فمعرفتها لا تكون أوسع - ولا أكثر تحيّزًا - إلا بقدر ما تبتلعه من بيانات. وبينما يمكنك أن تطلب من ChatGPT أن يجيب كما لو كان معلّمًا فيكتوريًا أو تاجرًا من العصور الوسطى، فإنه لا يزال يحمل عقلًا حديثًا يتربّص تحت السطح، قابلًا لتسريب حقائق لم يكن أحد في تلك الحقبة ليخمنها.

هنا يأتي TimeCapsule LLM، وهو نموذج دُرّب بعناية على نصوص نُشرت في لندن بين عامي 1800 و1875. أراد مبتكره، هايك غريغوريان، أن يرى ما الذي يحدث عندما تُغلق على الذكاء الاصطناعي أبواب المستقبل حقًا. النتيجة؟ ذكاء اصطناعي سيؤكد بإصرار أن القمر غير قابل للوصول وأن نظرية الجراثيم علمٌ متقدّم للغاية - لأن هذا كان كل ما يعرفه الناس آنذاك. ومن خلال تجريد النموذج من المستقبل، يقدّم TimeCapsule LLM نافذة نادرة على العقليات التاريخية، غير ملوّثة بميزة الإدراك اللاحق.

لكن بناء ذكاء اصطناعي دقيق وفق الحقبة ليس بالأمر السهل. فالبيانات المتاحة - ومعظمها كتب وصحف وسجلات قانونية - تعكس ما تم حفظه، لا أحاديث الناس العاديين اليومية. وهذا يعني أن النموذج قد يرث تحيّزات النخبة والمتعلمين وأصحاب النفوذ. وعلى خلاف فوضى الإنترنت المترامية، فإن متنًا بحجم 90 جيجابايت بعيد كل البعد عن الشمول. ومع ذلك، بالنسبة للمؤرخين والإنسانيين الرقميين، قد تساعد مثل هذه النماذج على إيضاح كيف رأى أهل الماضي عالمهم - وما الذي تجاهلوه أو أساؤوا فهمه.

وهناك أيضًا حكاية تحذيرية هنا. فكما كان يمكن خداع ألعاب الذكاء الاصطناعي المبكرة بمستخدمين أذكياء، يمكن توجيه نماذج اللغة الكبيرة - أو التلاعب بها - بشكل خفي عبر البيانات التي تُغذّى بها. إن تدريب ذكاء اصطناعي على «نسيان» المستقبل يتعلق بما تستبعده بقدر ما يتعلق بما تُدخله. ويثير ذلك سؤالًا شائكًا: هل يكون النموذج المدرّب على الماضي أقل تحيّزًا حقًا من نموذج مُدرّب على الحاضر؟

الخلاصة

بينما يجرّب الباحثون ذكاءات اصطناعية تاريخية، فهم لا يلعبون ألعابًا مع الزمن فحسب - بل يستكشفون حدود الذاكرة والتحيّز والحقيقة الرقمية. وفي عصر مهووس بالشيء الكبير التالي، يذكّرنا TimeCapsule LLM بأنه أحيانًا، لكي نفهم كيف نفكر اليوم، علينا أن نسأل: ماذا كنا ننسى ذات يوم؟

WIKICROOK

  • نموذج اللغة الكبير (LLM): نموذج اللغة الكبير (LLM) هو ذكاء اصطناعي مُدرّب على فهم النصوص وتوليدها بأسلوب يشبه البشر، ويُستخدم غالبًا في روبوتات الدردشة والمساعدين وأدوات المحتوى.
  • المتن (Corpus): المتن هو مجموعة منظّمة من النصوص أو البيانات تُستخدم في الأمن السيبراني لأغراض البحث والتحليل وتدريب نماذج التعلّم الآلي أو نماذج الكشف.
  • التحيّز (Bias): التحيّز هو انحياز منهجي في أنظمة الذكاء الاصطناعي أو الأمن السيبراني، وغالبًا ما يعكس البيانات أو معتقدات المطوّرين، ما يؤدي إلى نتائج غير عادلة أو غير دقيقة.
  • تقمّص الأدوار (في الذكاء الاصطناعي): تقمّص الأدوار في الذكاء الاصطناعي يعني محاكاة شخصيات أو خبراء محددين لاختبار الردود أو تدريبها أو تقييمها، خصوصًا في سيناريوهات الأمن السيبراني ومحاكاة التهديدات.
  • بيانات التدريب (Training Data): بيانات التدريب هي مجموعة من الأمثلة تُستخدم لتعليم نماذج الذكاء الاصطناعي في الأمن السيبراني التعرّف على التهديدات والشذوذ والأنماط من أجل حماية أفضل.
AI Models Historical Bias Digital Memory

NEURALSHIELD NEURALSHIELD
AI System Protection Engineer
← Back to news