MIT იკვლევს AI-ის უფრო ჭკვიანად გასაკეთებლად

MIT-ის გუნდი ასწავლის AI მოდელებს იმას, რაც მათ ჯერ არ იცოდნენ.

ხელოვნური ინტელექტის (AI) გამოყენება სწრაფად იზრდება და სულ უფრო მეტად ერწყმის ჩვენს ყოველდღიურ ცხოვრებასა და მაღალი რისკის ინდუსტრიებს, როგორიცაა ჯანდაცვა, ტელეკომუნიკაციები და ენერგეტიკა. მაგრამ დიდი ძალა დიდ პასუხისმგებლობასაც გულისხმობს: AI სისტემები ზოგჯერ შეცდომებს უშვებენ ან გაურკვეველ პასუხებს იძლევიან, რამაც შეიძლება სერიოზული შედეგები გამოიწვიოს.

MIT-ის Themis AI, რომლის თანადამფუძნებელი და ხელმძღვანელი არის პროფესორი დანიელა რუსი CSAIL ლაბორატორიიდან, გვთავაზობს გარდამტეხ გადაწყვეტას. მათი ტექნოლოგია AI მოდელებს საშუალებას აძლევს, „იცოდნენ, რა არ იციან“. ეს ნიშნავს, რომ AI სისტემებს შეუძლიათ თავად მიუთითონ, როდესაც მათი პროგნოზები გაურკვეველია, რაც ხელს უშლის ზიანის მიყენებამდე შეცდომების დაშვებას.

რატომ არის ეს ასე მნიშვნელოვანი?
ბევრი AI მოდელი, თუნდაც მოწინავე, ზოგჯერ ავლენს ე.წ. „ჰალუცინაციებს“ — ისინი გასცემენ არასწორ ან დაუსაბუთებელ პასუხებს. სექტორებში, სადაც გადაწყვეტილებებს დიდი წონა აქვს, როგორიცაა სამედიცინო დიაგნოსტიკა ან ავტონომიური მართვა, ამან შეიძლება კატასტროფული შედეგები გამოიწვიოს. Themis AI-მა შექმნა Capsa, პლატფორმა, რომელიც იყენებს გაურკვევლობის კვანტიფიკაციას: ის ზომავს და აკონკრეტებს AI-ის შედეგების გაურკვევლობას დეტალური და სანდო გზით.

 როგორ მუშაობს?
მოდელებისთვის გაურკვევლობის შესახებ ცნობიერების მიტანით, მათ შეუძლიათ უზრუნველყონ შედეგები რისკის ან სანდოობის ეტიკეტით. მაგალითად: ავტონომიურმა მანქანამ შეიძლება მიუთითოს, რომ არ არის დარწმუნებული სიტუაციაში და ამიტომ გაააქტიუროს ადამიანის ჩარევა. ეს ზრდის არა მხოლოდ უსაფრთხოებას, არამედ მომხმარებელთა ნდობასაც ხელოვნური ინტელექტის სისტემების მიმართ.

ტექნიკური იმპლემენტაციის მაგალითები

  • PyTorch-თან ინტეგრაციისას მოდელის შეფუთვა ხდება capsa_torch.wrapper() როდესაც გამომავალი შედეგი მოიცავს როგორც პროგნოზს, ასევე რისკს:

Python example met capsa

TensorFlow მოდელებისთვის, Capsa იყენებს დეკორატორს:

ტენსორფლოუ

გავლენა ბიზნესსა და მომხმარებლებზე
NetCare-ისა და მისი კლიენტებისთვის ეს ტექნოლოგია უზარმაზარ წინგადადგმულ ნაბიჯს ნიშნავს. ჩვენ შეგვიძლია მივაწოდოთ ხელოვნური ინტელექტის აპლიკაციები, რომლებიც არა მხოლოდ ინტელექტუალურია, არამედ უსაფრთხო და უფრო მეტად პროგნოზირებადია, ჰალუცინაციების ნაკლები რისკით. ეს ეხმარება ორგანიზაციებს უკეთ დასაბუთებული გადაწყვეტილებების მიღებასა და რისკების შემცირებაში ხელოვნური ინტელექტის ბიზნეს-კრიტიკულ აპლიკაციებში დანერგვისას.

დასკვნა
MIT გუნდი აჩვენებს, რომ ხელოვნური ინტელექტის მომავალი არა მხოლოდ უფრო ჭკვიანი ხდება, არამედ უპირველეს ყოვლისა უფრო უსაფრთხო და სამართლიანი ფუნქციონირებაა. NetCare-ში ჩვენ გვჯერა, რომ ხელოვნური ინტელექტი ნამდვილად ღირებული ხდება მხოლოდ მაშინ, როდესაც ის გამჭვირვალეა საკუთარი შეზღუდულობების შესახებ. Capsa-ს მსგავსი მოწინავე გაურკვევლობის კვანტიფიკაციის ხელსაწყოებით, თქვენ შეგიძლიათ ეს ხედვა პრაქტიკაშიც განახორციელოთ.

გერარდი

ჟერარდი აქტიურია, როგორც ხელოვნური ინტელექტის კონსულტანტი და მენეჯერი. დიდ ორგანიზაციებთან მუშაობის მრავალწლიანი გამოცდილებით, მას შეუძლია განსაკუთრებით სწრაფად გაშიფროს პრობლემა და მიაღწიოს მის გადაწყვეტას. ეკონომიკური განათლებით კომბინირებული, ის უზრუნველყოფს ბიზნესის თვალსაზრისით გამართლებულ არჩევანს.

AIR (ხელოვნური ინტელექტის რობოტი)