سلطة تصميم الذكاء الاصطناعي

نحن نقف عند نقطة تحول في تطوير البرمجيات. غالبًا ما يدور النقاش حول أي ما إذا كان الذكاء الاصطناعي يكتب أفضل كود (كلود مقابل شات جي بي تي) أو أين أين يجب أن يتواجد الذكاء الاصطناعي (بيئة التطوير المتكاملة أو واجهة سطر الأوامر). ولكن هذا هو النقاش الخاطئ.

المشكلة الحقيقية ليست في جيل الكود. المشكلة الحقيقية هي التحقق تطبيقه.

عندما نتبنى الذكاء الاصطناعي كـ "مُبرمجي الإيقاع" - حيث نحدد النية ويتولى الذكاء الاصطناعي التنفيذ - فإننا نخلق تدفقًا هائلاً من البرامج الجديدة. يمكن لسرب من وكلاء الذكاء الاصطناعي إنشاء كود أكثر في دقيقة واحدة مما يمكن لمطور خبير مراجعته في أسبوع. أصبح الإنسان هو عنق الزجاجة.

الحل ليس المزيد البشر. الحل هو سلطة تصميم الذكاء الاصطناعي.

من الحرفي إلى مدير المصنع

تقليديًا، "سلطة التصميم" هي مجموعة صغيرة من المهندسين المعماريين يجتمعون مرة واحدة في الأسبوع أو الشهر للموافقة على تصميم أو رفضه. في عالم من تطوير الذكاء الاصطناعي عالي السرعة هذا النموذج قد عفا عليه الزمن بشكل ميؤوس منه. إنه بطيء للغاية وتفاعلي للغاية.

عندما نتحول إلى "الكود القابل للتصرف" - وهو برنامج لا نقوم بإعادة هيكلته إلى ما لا نهاية، بل نرميه ونعيد إنشائه عندما تتغير المتطلبات - فإن دورنا يتغير بشكل جذري. لم نعد بنائين يضعون حجراً فوق حجر. نحن مهندسو المصنع الذي يطبع الجدران.

ولكن من يراقب ما إذا كانت تلك الجدران مستقيمة؟

"القفاز": اختبار حريق مؤتمت

سلطة تصميم الذكاء الاصطناعي ليست شخصًا، بل هي خط أنابيب. "تحدي" يجب أن تخوضه كل قاعدة من التعليمات البرمجية التي تم إنشاؤها لتصل إلى مرحلة الإنتاج. هذه العملية لا تحل محل مراجعة التعليمات البرمجية البشرية بـ لا شيء، بل بشيء أفضل.

يعمل في ثلاث طبقات:

1. السلطة التنفيذية (التوليد)
نحن لا نطلب من ذكاء اصطناعي واحد تقديم حل، بل نطلب ثلاثة. نجعل Gemini 3 و GPT-5 ونموذج مفتوح المصدر (مثل Llama) يعملون بالتوازي على نفس المشكلة. هذا يمنع الرؤية النفقية ويكسر "الكسل" الذي تعاني منه أحيانًا النماذج اللغوية الكبيرة (LLMs). هذا النهج أيضًا تم فحصه علميًا ويوضح أنه يمكنك منع هلوسة الذكاء الاصطناعي وبناء سلاسل طويلة جدًا دون أخطاء

2. المرشح الصارم (القانون)
لا مجال للنقاش هنا. يجب أن تتم ترجمة الكود. يجب ألا يشتكي المدققون اللغويون. والأهم من ذلك: اختبارات الصندوق الأسود يجب أن تنجح. نحن لا نختبر ما إذا كانت الوظيفة تعمل داخليًا (لأن ذلك قد يتلاعب بالذكاء الاصطناعي)، بل نختبر ما إذا كان النظام يقوم بما هو مطلوب منه من الخارج. هل فشل الاختبار؟ اذهب مباشرة إلى سلة المهملات.

3. المرشح الناعم (هيئة تحكيم الذكاء الاصطناعي)
هذا هو الابتكار الحقيقي. يتم تقديم الحلول المتبقية إلى "ذكاء اصطناعي تصويتي" متخصص. هذا الوكيل لا يكتب الكود، ولكنه يقرأ التعليمات البرمجية. لقد تم تدريبه على مبادئنا المعمارية، ومتطلبات الأمان (OWASP، ISO)، وقواعد الامتثال (قانون الذكاء الاصطناعي للاتحاد الأوروبي).
يقرر: «الحل أ أسرع، لكن الحل ب أكثر أمانًا ويتوافق بشكل أفضل مع بنية الخدمات المصغرة لدينا».

الفائز ينتقل إلى مرحلة الإنتاج.

الفصل الثلاثي للبرمجيات

هذا النموذج يفرض فصلًا للسلطات يفتقر إليه العديد من الفرق.

  • السلطة التشريعية (المهندس المعماري): يكتب المهندس المعماري "الدستور". الأوامر، ووثائق البنية (الـproject-description.md, rules.md en principles.md، المتطلبات الصارمة. يحدد المهندس المعماري ماذا نبني و لماذا.
  • السلطة التنفيذية (وكلاء الترميز): إنهم ينفذون. بسرعة، وبتكلفة منخفضة، وتحت إشراف مطورين بشريين.
  • السلطة القضائية (سلطة التصميم): طبقة ذكاء اصطناعي مستقلة تتحقق من الامتثال للقانون.

الخلاصة: الدور الجديد للمهندس المعماري

إنه يحررنا من طغيان أخطاء بناء الجملة ويسمح لنا بالتركيز على ما نبرع فيه: التفكير المنظومي. استقصاء الحقائق. الهيكلة واتخاذ القرار.

السؤال ليس ما إذا كان الذكاء الاصطناعي يستطيع كتابة شفرتنا. لقد تم البت في ذلك بالفعل. تصبح الشفرة قابلة للتصرف إلى حد كبير.
السؤال هو: هل تجرؤ على السيطرة على التنفيذ لتركها، وبالتالي استعادة السيطرة على الجودة استعادتها؟

جيرارد

يعمل جيرارد كمستشار ومدير للذكاء الاصطناعي. بفضل خبرته الكبيرة مع المؤسسات الكبرى، يمكنه تفكيك المشكلة بسرعة فائقة والعمل نحو إيجاد حل. مقترنًا بخلفية اقتصادية، يضمن اتخاذ خيارات مسؤولة من الناحية التجارية.

الروبوت الذكي (الذكاء الاصطناعي)