يتزايد تطبيق الذكاء الاصطناعي (AI) بسرعة ويصبح متشابكًا بشكل متزايد مع حياتنا اليومية والصناعات ذات المخاطر العالية مثل الرعاية الصحية والاتصالات والطاقة. ولكن مع القوة العظيمة تأتي مسؤولية عظيمة: أنظمة الذكاء الاصطناعي ترتكب أخطاء أحيانًا أو تقدم إجابات غير مؤكدة يمكن أن يكون لها عواقب وخيمة.
تقدم Themis AI التابعة لمعهد ماساتشوستس للتكنولوجيا (MIT)، والتي شارك في تأسيسها ويقودها البروفيسور دانييلا روس من مختبر CSAIL، حلاً رائداً. تتيح تقنيتهم لنماذج الذكاء الاصطناعي “معرفة ما لا تعرفه”. هذا يعني أن أنظمة الذكاء الاصطناعي يمكنها الإشارة بنفسها عندما تكون غير متأكدة من تنبؤاتها، مما يمنع الأخطاء قبل أن تسبب ضررًا.
لماذا هذا مهم جدًا؟
العديد من نماذج الذكاء الاصطناعي، حتى المتطورة منها، يمكن أن تظهر أحيانًا ما يسمى بـ “الهلوسات” – فهي تقدم إجابات خاطئة أو غير مدعومة. في القطاعات التي تكون فيها القرارات ذات وزن كبير، مثل التشخيص الطبي أو القيادة الذاتية، يمكن أن يكون لهذا عواقب وخيمة. طورت Themis AI منصة Capsa، التي تطبق قياس عدم اليقين: فهي تقيس وتحدد كمية عدم اليقين في مخرجات الذكاء الاصطناعي بطريقة مفصلة وموثوقة.
كيف يعمل؟
من خلال تعليم النماذج الوعي بعدم اليقين، يمكنها تزويد المخرجات بتسمية للمخاطر أو الثقة. على سبيل المثال: يمكن لسيارة ذاتية القيادة الإشارة إلى أنها غير متأكدة من موقف ما، وبالتالي تفعيل تدخل بشري. هذا لا يزيد من السلامة فحسب، بل يزيد أيضًا من ثقة المستخدمين في أنظمة الذكاء الاصطناعي.
capsa_torch.wrapper()
حيث يتكون الناتج من التنبؤ والمخاطر:
الخلاصة
يُظهر فريق MIT الفريق أن مستقبل الذكاء الاصطناعي لا يتعلق فقط بأن يصبح أكثر ذكاءً، بل يتعلق بشكل أساسي بأن يعمل بشكل أكثر أمانًا وإنصافًا. في NetCare، نعتقد أن الذكاء الاصطناعي يصبح ذا قيمة حقيقية فقط عندما يكون شفافًا بشأن قيوده الخاصة. باستخدام أدوات قياس عدم اليقين المتقدمة مثل Capsa، يمكنك أيضًا تطبيق هذه الرؤية عمليًا.