Mākslīgā intelekta (AI) pielietojums strauji pieaug un arvien vairāk ieaužas mūsu ikdienas dzīvē un kritiskās nozarēs, piemēram, veselības aprūpē, telekomunikācijās un enerģētikā. Taču ar lielu spēku nāk arī liela atbildība: AI sistēmas dažkārt pieļauj kļūdas vai sniedz nenoteiktas atbildes, kam var būt nopietnas sekas.
MIT Themis AI, ko līdzdibinājis un vada profesore Daniela Rus no CSAIL laboratorijas, piedāvā revolucionāru risinājumu. Viņu tehnoloģija ļauj AI modeļiem "zināt, ko viņi nezina". Tas nozīmē, ka AI sistēmas var pašas norādīt, kad tās ir nedrošas par savām prognozēm, tādējādi novēršot kļūdas, pirms tās nodara kaitējumu.
Kāpēc tas ir tik svarīgi?
Daudzi AI modeļi, pat vismodernākie, dažkārt var izrādīt tā sauktās "halucinācijas" — tie sniedz kļūdainas vai nepamatotas atbildes. Nozarēs, kur lēmumiem ir liela nozīme, piemēram, medicīniskajā diagnostikā vai autonomā braukšanā, tam var būt katastrofālas sekas. Themis AI izstrādāja Capsa — platformu, kas pielieto nenoteiktības kvantifikāciju: tā detalizēti un uzticami mēra un kvantificē AI izvades nenoteiktību.
Kā tas darbojas?
Iegulstot modeļos nenoteiktības apzināšanos, tie var nodrošināt izvadi ar riska vai uzticamības marķējumu. Piemēram, pašbraucoša automašīna var norādīt, ka tā nav pārliecināta par situāciju, un tādēļ aktivizēt cilvēka iejaukšanos. Tas ne tikai palielina drošību, bet arī lietotāju uzticēšanos AI sistēmām.
capsa_torch.wrapper() kurā izvade sastāv gan no prognozes, gan riska:

Secinājums
MIT komanda parāda, ka AI nākotne nav saistīta tikai ar kļūšanu gudrākam, bet galvenokārt ar drošāku un godīgāku darbību. Mēs NetCare uzskatām, ka AI kļūst patiešām vērtīgs tikai tad, kad tas ir caurspīdīgs attiecībā uz saviem ierobežojumiem. Izmantojot progresīvus nenoteiktības kvantificēšanas rīkus, piemēram, Capsa, jūs varat īstenot šo vīziju praksē.