MIT team at work

فريق MIT يعلم نماذج الذكاء الاصطناعي ما لم تكن تعرفه من قبل.

يتزايد تطبيق الذكاء الاصطناعي (AI) بسرعة ويصبح متشابكًا بشكل متزايد مع حياتنا اليومية والصناعات ذات المخاطر العالية مثل الرعاية الصحية والاتصالات والطاقة. ولكن مع القوة العظيمة تأتي مسؤولية عظيمة: أنظمة الذكاء الاصطناعي ترتكب أخطاء أحيانًا أو تقدم إجابات غير مؤكدة يمكن أن يكون لها عواقب وخيمة.

تقدم Themis AI التابعة لمعهد ماساتشوستس للتكنولوجيا (MIT)، والتي شارك في تأسيسها ويقودها البروفيسور دانييلا روس من مختبر CSAIL، حلاً رائداً. تتيح تقنيتهم لنماذج الذكاء الاصطناعي “معرفة ما لا تعرفه”. هذا يعني أن أنظمة الذكاء الاصطناعي يمكنها الإشارة بنفسها عندما تكون غير متأكدة من تنبؤاتها، مما يمنع الأخطاء قبل أن تسبب ضررًا.

لماذا هذا مهم جدًا؟
العديد من نماذج الذكاء الاصطناعي، حتى المتطورة منها، يمكن أن تظهر أحيانًا ما يسمى بـ “الهلوسات” – فهي تقدم إجابات خاطئة أو غير مدعومة. في القطاعات التي تكون فيها القرارات ذات وزن كبير، مثل التشخيص الطبي أو القيادة الذاتية، يمكن أن يكون لهذا عواقب وخيمة. طورت Themis AI منصة Capsa، التي تطبق قياس عدم اليقين: فهي تقيس وتحدد كمية عدم اليقين في مخرجات الذكاء الاصطناعي بطريقة مفصلة وموثوقة.

 كيف يعمل؟
من خلال تعليم النماذج الوعي بعدم اليقين، يمكنها تزويد المخرجات بتسمية للمخاطر أو الثقة. على سبيل المثال: يمكن لسيارة ذاتية القيادة الإشارة إلى أنها غير متأكدة من موقف ما، وبالتالي تفعيل تدخل بشري. هذا لا يزيد من السلامة فحسب، بل يزيد أيضًا من ثقة المستخدمين في أنظمة الذكاء الاصطناعي.

أمثلة على التنفيذ التقني

  • عند التكامل مع PyTorch، يتم تغليف النموذج عبر capsa_torch.wrapper() حيث يتكون الناتج من التنبؤ والمخاطر:

مثال بايثون مع Capsa

بالنسبة لنماذج TensorFlow، تعمل Capsa مع مُزخرف (decorator):

تنسرفلو

التأثير على الشركات والمستخدمين
بالنسبة لـ NetCare وعملائها، تمثل هذه التكنولوجيا خطوة هائلة إلى الأمام. يمكننا تقديم تطبيقات ذكاء اصطناعي ليست ذكية فحسب، بل آمنة وأكثر قابلية للتنبؤ مع تقليل احتمالية الهلوسات. يساعد ذلك المؤسسات على اتخاذ قرارات أكثر استنارة وتقليل المخاطر عند إدخال الذكاء الاصطناعي في التطبيقات الحيوية للأعمال.

الخلاصة
يُظهر فريق MIT الفريق أن مستقبل الذكاء الاصطناعي لا يتعلق فقط بأن يصبح أكثر ذكاءً، بل يتعلق بشكل أساسي بأن يعمل بشكل أكثر أمانًا وإنصافًا. في NetCare، نعتقد أن الذكاء الاصطناعي يصبح ذا قيمة حقيقية فقط عندما يكون شفافًا بشأن قيوده الخاصة. باستخدام أدوات قياس عدم اليقين المتقدمة مثل Capsa، يمكنك أيضًا تطبيق هذه الرؤية عمليًا.

Gerard

يعمل جيرارد كمستشار ومدير في مجال الذكاء الاصطناعي. بفضل خبرته الواسعة في المنظمات الكبرى، يمكنه تفكيك المشكلات بسرعة والعمل نحو حلول. بالإضافة إلى خلفيته الاقتصادية، يضمن اتخاذ قرارات مسؤولة تجاريًا.

AIR (Artificial Intelligence Robot)