MIT veic pētījumus, lai padarītu AI gudrāku

MIT komanda māca AI modeļiem to, ko viņi vēl nezināja.

Mākslīgā intelekta (AI) pielietojums strauji pieaug un arvien vairāk ieaužas mūsu ikdienas dzīvē un kritiskās nozarēs, piemēram, veselības aprūpē, telekomunikācijās un enerģētikā. Taču ar lielu spēku nāk arī liela atbildība: AI sistēmas dažkārt pieļauj kļūdas vai sniedz nenoteiktas atbildes, kam var būt nopietnas sekas.

MIT Themis AI, ko līdzdibinājis un vada profesore Daniela Rus no CSAIL laboratorijas, piedāvā revolucionāru risinājumu. Viņu tehnoloģija ļauj AI modeļiem "zināt, ko viņi nezina". Tas nozīmē, ka AI sistēmas var pašas norādīt, kad tās ir nedrošas par savām prognozēm, tādējādi novēršot kļūdas, pirms tās nodara kaitējumu.

Kāpēc tas ir tik svarīgi?
Daudzi AI modeļi, pat vismodernākie, dažkārt var izrādīt tā sauktās "halucinācijas" — tie sniedz kļūdainas vai nepamatotas atbildes. Nozarēs, kur lēmumiem ir liela nozīme, piemēram, medicīniskajā diagnostikā vai autonomā braukšanā, tam var būt katastrofālas sekas. Themis AI izstrādāja Capsa — platformu, kas pielieto nenoteiktības kvantifikāciju: tā detalizēti un uzticami mēra un kvantificē AI izvades nenoteiktību.

 Kā tas darbojas?
Iegulstot modeļos nenoteiktības apzināšanos, tie var nodrošināt izvadi ar riska vai uzticamības marķējumu. Piemēram, pašbraucoša automašīna var norādīt, ka tā nav pārliecināta par situāciju, un tādēļ aktivizēt cilvēka iejaukšanos. Tas ne tikai palielina drošību, bet arī lietotāju uzticēšanos AI sistēmām.

Tehniskās ieviešanas piemēri

  • Integrējot ar PyTorch, modeļa iesaiņošana notiek, izmantojot capsa_torch.wrapper() kurā izvade sastāv gan no prognozes, gan riska:

Python example met capsa

TensorFlow modeļiem Capsa izmanto dekoratoru:

TensorFlow

Ietekme uz uzņēmumiem un lietotājiem
NetCare un tās klientiem šī tehnoloģija nozīmē milzīgu soli uz priekšu. Mēs varam nodrošināt mākslīgā intelekta (MI) lietojumprogrammas, kas ir ne tikai viedas, bet arī drošas un labāk prognozējamas ar mazāku halucināciju iespējamību. Tas palīdz organizācijām pieņemt labāk pamatotus lēmumus un samazināt riskus, ieviešot MI uzņēmuma kritiski svarīgās lietojumprogrammās.

Secinājums
MIT komanda parāda, ka AI nākotne nav saistīta tikai ar kļūšanu gudrākam, bet galvenokārt ar drošāku un godīgāku darbību. Mēs NetCare uzskatām, ka AI kļūst patiešām vērtīgs tikai tad, kad tas ir caurspīdīgs attiecībā uz saviem ierobežojumiem. Izmantojot progresīvus nenoteiktības kvantificēšanas rīkus, piemēram, Capsa, jūs varat īstenot šo vīziju praksē.

Gerards

Gerards aktīvi darbojas kā AI konsultants un vadītājs. Ar lielu pieredzi lielās organizācijās viņš spēj īpaši ātri atrisināt problēmu un virzīties uz risinājumu. Apvienojumā ar ekonomisko izglītību viņš nodrošina biznesa ziņā pamatotus lēmumus.

AIR (Mākslīgā Intelekta Robots)