MIT team at work

MIT-გუნდი AI მოდელებს ასწავლის იმას, რაც მათ ჯერ არ იცოდნენ.

ხელოვნური ინტელექტის (AI) გამოყენება სწრაფად იზრდება და სულ უფრო მეტად ერწყმის ჩვენს ყოველდღიურ ცხოვრებას და მაღალი რისკის ინდუსტრიებს, როგორიცაა ჯანდაცვა, ტელეკომუნიკაციები და ენერგეტიკა. მაგრამ დიდი ძალაუფლებით მოდის დიდი პასუხისმგებლობა: AI სისტემები ზოგჯერ უშვებენ შეცდომებს ან იძლევიან არასტაბილურ პასუხებს, რომლებსაც შეიძლება დიდი შედეგები მოჰყვეს.

MIT-ის Themis AI, რომლის თანადამფუძნებელი და ხელმძღვანელია პროფესორი დანიელა რუსი CSAIL ლაბორატორიიდან, გვთავაზობს გარღვევის შემცველ გადაწყვეტას. მათი ტექნოლოგია საშუალებას აძლევს AI მოდელებს „იცოდნენ, რა არ იციან“. ეს ნიშნავს, რომ AI სისტემებს შეუძლიათ თავად მიუთითონ, როდესაც ისინი არ არიან დარწმუნებულნი თავიანთ პროგნოზებში, რაც ხელს უშლის შეცდომებს, სანამ ისინი ზიანს მიაყენებენ.

რატომ არის ეს ასე მნიშვნელოვანი?
ბევრ AI მოდელს, თუნდაც მოწინავეს, ზოგჯერ შეუძლია აჩვენოს ე.წ. „ჰალუცინაციები“ — ისინი იძლევიან არასწორ ან დაუსაბუთებელ პასუხებს. სექტორებში, სადაც გადაწყვეტილებები მძიმე ტვირთს ატარებს, როგორიცაა სამედიცინო დიაგნოსტიკა ან ავტონომიური მართვა, ამას შეიძლება კატასტროფული შედეგები მოჰყვეს. Themis AI-მ შეიმუშავა Capsa, პლატფორმა, რომელიც იყენებს uncertainty quantification-ს: ის ზომავს და რაოდენობრივად აფასებს AI-ის გამომავალი მონაცემების გაურკვევლობას დეტალური და საიმედო გზით.

 როგორ მუშაობს?
მოდელებს uncertainty awareness-ის სწავლებით, მათ შეუძლიათ გამომავალი მონაცემები მიაწოდონ რისკის ან ნდობის ლეიბლით. მაგალითად: თვითმართვადი მანქანა შეიძლება მიუთითებდეს, რომ არ არის დარწმუნებული სიტუაციაში და ამიტომ გაააქტიურებს ადამიანის ჩარევას. ეს ზრდის არა მხოლოდ უსაფრთხოებას, არამედ მომხმარებელთა ნდობას AI სისტემების მიმართ.

ტექნიკური დანერგვის მაგალითები

  • PyTorch-თან ინტეგრაციისას, მოდელის შეფუთვა ხდება capsa_torch.wrapper()-ის საშუალებით, სადაც გამომავალი მოიცავს როგორც პროგნოზს, ასევე რისკს:

Python-ის მაგალითი კაფსით

TensorFlow მოდელებისთვის Capsa მუშაობს დეკორატორთან ერთად:

tensorflow

გავლენა ბიზნესსა და მომხმარებლებზე
NetCare-ისა და მისი კლიენტებისთვის ეს ტექნოლოგია უზარმაზარი ნაბიჯია წინ. ჩვენ შეგვიძლია მივაწოდოთ AI აპლიკაციები, რომლებიც არა მხოლოდ ინტელექტუალურია, არამედ უსაფრთხო და უკეთ პროგნოზირებადია, ჰალუცინაციების ნაკლები შანსით. ეს ეხმარება ორგანიზაციებს მიიღონ უკეთ ინფორმირებული გადაწყვეტილებები და შეამცირონ რისკები AI-ის ბიზნეს-კრიტიკულ აპლიკაციებში დანერგვისას.

დასკვნა
MIT-ის გუნდი აჩვენებს, რომ AI-ის მომავალი არამხოლოდ უფრო ჭკვიანი ხდება, არამედ უფრო უსაფრთხო და სამართლიანი ფუნქციონირებაც. NetCare-ში ჩვენ გვჯერა, რომ AI ნამდვილად ღირებული ხდება მხოლოდ მაშინ, როდესაც ის გამჭვირვალეა საკუთარი შეზღუდვების შესახებ. მოწინავე uncertainty quantification ინსტრუმენტებით, როგორიცაა Capsa, თქვენ ასევე შეგიძლიათ ამ ხედვის პრაქტიკაში განხორციელება.

Gerard

ჟერარი აქტიურია, როგორც AI კონსულტანტი და მენეჯერი. დიდი ორგანიზაციების მრავალწლიანი გამოცდილებით, მას შეუძლია განსაკუთრებით სწრაფად გააანალიზოს პრობლემა და მიაღწიოს მის გადაწყვეტას. ეკონომიკური განათლების გათვალისწინებით, ის უზრუნველყოფს ბიზნესის თვალსაზრისით გამართლებული გადაწყვეტილებების მიღებას.

AIR (Artificial Intelligence Robot)