MIT doet onderzoek om AI slimmer te maken

فريق MIT يعلّم نماذج الذكاء الاصطناعي ما لم تكن تعرفه

يتزايد تطبيق الذكاء الاصطناعي (AI) بسرعة ويتشابك بشكل متزايد مع حياتنا اليومية والصناعات الحساسة مثل الرعاية الصحية والاتصالات والطاقة. ولكن مع القوة العظيمة تأتي مسؤولية عظيمة: قد ترتكب أنظمة الذكاء الاصطناعي أخطاء أو تقدم إجابات غير مؤكدة قد تكون لها عواقب وخيمة.

تقدم Themis AI التابعة لمعهد ماساتشوستس للتكنولوجيا، والتي شارك في تأسيسها وقيادتها البروفيسورة دانييلا روس من مختبر CSAIL، حلاً رائداً. تتيح تقنيتهم لنماذج الذكاء الاصطناعي أن 'تعرف ما لا تعرفه'. وهذا يعني أن أنظمة الذكاء الاصطناعي يمكنها الإشارة بنفسها عندما تكون غير متأكدة من تنبؤاتها، مما يمنع الأخطاء قبل أن تسبب الضرر.

لماذا هذا مهم جداً؟
العديد من نماذج الذكاء الاصطناعي، حتى المتقدمة منها، يمكن أن تظهر أحيانًا ما يسمى بـ 'الهلوسات' - حيث تقدم إجابات خاطئة أو غير مؤسسة. في القطاعات التي تكون فيها القرارات ذات أهمية قصوى، مثل التشخيص الطبي أو القيادة الذاتية، يمكن أن يكون لذلك عواقب وخيمة. طورت Themis AI منصة Capsa التي تطبق قياس عدم اليقين (uncertainty quantification): فهي تقيس وتحدد كمية عدم اليقين في مخرجات الذكاء الاصطناعي بطريقة مفصلة وموثوقة.

 كيف يعمل؟
من خلال تزويد النماذج بوعي بعدم اليقين، يمكنها إرفاق مخرجاتها بتصنيف للمخاطر أو الموثوقية. على سبيل المثال: يمكن لسيارة ذاتية القيادة أن تشير إلى أنها غير متأكدة من موقف ما، وبالتالي تفعيل تدخل بشري. هذا لا يزيد من السلامة فحسب، بل يزيد أيضاً من ثقة المستخدمين في أنظمة الذكاء الاصطناعي.

أمثلة على التنفيذ التقني

  • عند التكامل مع PyTorch، يتم تغليف النموذج عبر capsa_torch.wrapper() حيث يتكون الناتج من التنبؤ والمخاطرة على حد سواء:

Python example met capsa

بالنسبة لنماذج TensorFlow، يعمل Capsa باستخدام مُزخرف (decorator):

tensorflow

التأثير على الشركات والمستخدمين
بالنسبة لـ NetCare وعملائها، تمثل هذه التقنية خطوة هائلة إلى الأمام. يمكننا تقديم تطبيقات الذكاء الاصطناعي التي ليست ذكية فحسب، بل آمنة وقابلة للتنبؤ بشكل أفضل مع تقليل احتمالية الهلوسة. إنها تساعد المؤسسات في اتخاذ قرارات مستنيرة وتقليل المخاطر عند إدخال الذكاء الاصطناعي في التطبيقات الحيوية للأعمال.

الخاتمة
فريق معهد ماساتشوستس للتكنولوجيا الفريق يُظهر أن مستقبل الذكاء الاصطناعي لا يتعلق فقط بأن يصبح أكثر ذكاءً، بل يتعلق بشكل أساسي بالعمل بأمان وعدالة أكبر. في NetCare، نؤمن بأن الذكاء الاصطناعي يصبح ذا قيمة حقيقية فقط عندما يكون شفافًا بشأن حدوده الخاصة. باستخدام أدوات متقدمة لقياس عدم اليقين مثل Capsa، يمكنك أيضًا تطبيق هذه الرؤية عمليًا.

جيرارد

يعمل جيرارد كمستشار ومدير للذكاء الاصطناعي. بفضل خبرته الواسعة في المؤسسات الكبيرة، يمكنه تفكيك المشكلة والعمل نحو حل بسرعة كبيرة. مقترنًا بخلفية اقتصادية، يضمن اتخاذ خيارات مسؤولة تجاريًا.

الروبوت الذكي (AIR)