MIT team at work

एमआईटी टीम एआई मॉडल को वह सिखाती है जो वे पहले से नहीं जानते थे।

कृत्रिम बुद्धिमत्ता (AI) का अनुप्रयोग तेजी से बढ़ रहा है और हमारे दैनिक जीवन और स्वास्थ्य सेवा, दूरसंचार और ऊर्जा जैसे उच्च-दांव वाले उद्योगों में तेजी से जुड़ रहा है। लेकिन बड़ी शक्ति के साथ बड़ी जिम्मेदारी भी आती है: AI सिस्टम कभी-कभी गलतियाँ करते हैं या अनिश्चित उत्तर देते हैं जिनके बड़े परिणाम हो सकते हैं।

MIT का Themis AI, जिसे CSAIL लैब के प्रोफेसर डेनिएला रस द्वारा सह-स्थापित और नेतृत्व किया गया है, एक अभूतपूर्व समाधान प्रदान करता है। उनकी तकनीक AI मॉडल को ‘यह जानने में सक्षम बनाती है कि वे क्या नहीं जानते’। इसका मतलब है कि AI सिस्टम स्वयं इंगित कर सकते हैं कि वे अपने भविष्यवाणियों के बारे में कब अनिश्चित हैं, जिससे नुकसान होने से पहले त्रुटियों को रोका जा सके।

यह इतना महत्वपूर्ण क्यों है?
कई AI मॉडल, यहां तक कि उन्नत मॉडल भी, कभी-कभी तथाकथित ‘मतिभ्रम’ प्रदर्शित कर सकते हैं—वे गलत या निराधार उत्तर देते हैं। उन क्षेत्रों में जहां निर्णय महत्वपूर्ण होते हैं, जैसे कि चिकित्सा निदान या स्वायत्त ड्राइविंग, इसके विनाशकारी परिणाम हो सकते हैं। Themis AI ने Capsa विकसित किया है, एक ऐसा प्लेटफ़ॉर्म जो अनिश्चितता मात्रा का उपयोग करता है: यह विस्तृत और विश्वसनीय तरीके से AI आउटपुट की अनिश्चितता को मापता और मापता है।

 यह कैसे काम करता है?
मॉडल को अनिश्चितता जागरूकता सिखाकर, वे आउटपुट को जोखिम या विश्वास लेबल के साथ प्रदान कर सकते हैं। उदाहरण के लिए: एक सेल्फ-ड्राइविंग कार इंगित कर सकती है कि यह किसी स्थिति के बारे में अनिश्चित है और इसलिए मानव हस्तक्षेप को सक्रिय करती है। यह न केवल सुरक्षा बढ़ाता है, बल्कि AI सिस्टम में उपयोगकर्ताओं का विश्वास भी बढ़ाता है।

तकनीकी कार्यान्वयन के उदाहरण

  • PyTorch के साथ एकीकरण में, मॉडल को capsa_torch.wrapper() के माध्यम से लपेटा जाता है, जहां आउटपुट में भविष्यवाणी और जोखिम दोनों शामिल होते हैं:

Python example met capsa

TensorFlow मॉडल के लिए, Capsa एक डेकोरेटर के साथ काम करता है:

TensorFlow

कंपनियों और उपयोगकर्ताओं के लिए प्रभाव
NetCare और उसके ग्राहकों के लिए, यह तकनीक एक बड़ी छलांग का प्रतिनिधित्व करती है। हम AI एप्लिकेशन प्रदान कर सकते हैं जो न केवल बुद्धिमान हैं, बल्कि सुरक्षित और अधिक अनुमानित भी हैं, जिसमें मतिभ्रम की संभावना कम होती है। यह संगठनों को बेहतर सूचित निर्णय लेने और व्यावसायिक-महत्वपूर्ण अनुप्रयोगों में AI को लागू करते समय जोखिमों को कम करने में मदद करता है।

निष्कर्ष
MIT टीम दर्शाती है कि AI का भविष्य न केवल अधिक बुद्धिमान बनने के बारे में है, बल्कि मुख्य रूप से सुरक्षित और निष्पक्ष रूप से कार्य करने के बारे में भी है। NetCare में, हम मानते हैं कि AI तभी वास्तव में मूल्यवान होता है जब वह अपनी सीमाओं के बारे में पारदर्शी हो। Capsa जैसे उन्नत अनिश्चितता मात्राकरण उपकरणों के साथ, आप उस दृष्टि को भी व्यवहार में ला सकते हैं।

Gerard

जेरार्ड एक एआई सलाहकार और प्रबंधक के रूप में सक्रिय हैं। बड़े संगठनों के साथ अपने व्यापक अनुभव के साथ, वह किसी समस्या को बहुत तेज़ी से सुलझा सकते हैं और समाधान की ओर बढ़ सकते हैं। एक आर्थिक पृष्ठभूमि के साथ मिलकर, वह व्यावसायिक रूप से जिम्मेदार विकल्प सुनिश्चित करते हैं।

AIR (Artificial Intelligence Robot)