Dirbtinio intelekto (DI) taikymas sparčiai auga ir vis labiau įpinamas į mūsų kasdienį gyvenimą bei svarbias pramonės šakas, tokias kaip sveikatos apsauga, telekomunikacijos ir energetika. Tačiau su didele galia ateina ir didelė atsakomybė: DI sistemos kartais daro klaidas arba pateikia neaiškius atsakymus, kurie gali turėti didelių pasekmių.
MIT Themis AI, kurį bendrai įkūrė ir vadovauja profesorė Daniela Rus iš CSAIL laboratorijos, siūlo novatorišką sprendimą. Jų technologija leidžia DI modeliams „žinoti, ko jie nežino“. Tai reiškia, kad DI sistemos pačios gali nurodyti, kada jos yra neapibrėžtos dėl savo prognozių, taip užkertant kelią klaidoms, kol jos nepadarė žalos.
Kodėl tai taip svarbu?
Daugelis DI modelių, net ir pažangiausių, kartais gali parodyti vadinamąsias „haliucinacijas“ – jie pateikia klaidingus ar nepagrįstus atsakymus. Sektoriuose, kur sprendimai yra labai svarbūs, pavyzdžiui, medicininėje diagnostikoje ar autonominiame vairavime, tai gali turėti pražūtingų pasekmių. Themis AI sukūrė Capsa, platformą, kuri taiko netikrumo kiekybinį įvertinimą: ji matuoja ir kiekybiškai įvertina DI išvesties netikrumą detaliu ir patikimu būdu.
Kaip tai veikia?
Suteikiant modeliams informaciją apie neapibrėžtumą, jų išvestis galima pažymėti rizikos ar patikimumo žyma. Pavyzdžiui, autonominis automobilis gali nurodyti, kad nėra tikras dėl situacijos, ir todėl suaktyvinti žmogaus įsikišimą. Tai ne tik padidina saugumą, bet ir vartotojų pasitikėjimą dirbtinio intelekto sistemomis.
capsa_torch.wrapper() kai išvestis susideda tiek iš prognozės, tiek iš rizikos:

Išvada
MIT komanda parodo, kad DI ateitis sukasi ne tik apie protingėjimą, bet visų pirma apie saugesnį ir sąžiningesnį veikimą. „NetCare“ mes tikime, kad DI tampa tikrai vertingas tik tada, kai yra skaidrus dėl savo apribojimų. Su pažangiais neapibrėžtumo kiekybės nustatymo įrankiais, tokiais kaip „Capsa“, jūs taip pat galite įgyvendinti šią viziją praktiškai.