MIT atlieka tyrimus, kad dirbtinis intelektas taptų protingesnis

MIT komanda moko dirbtinio intelekto modelius to, ko jie dar nežinojo.

Dirbtinio intelekto (DI) taikymas sparčiai auga ir vis labiau įpinamas į mūsų kasdienį gyvenimą bei svarbias pramonės šakas, tokias kaip sveikatos apsauga, telekomunikacijos ir energetika. Tačiau su didele galia ateina ir didelė atsakomybė: DI sistemos kartais daro klaidas arba pateikia neaiškius atsakymus, kurie gali turėti didelių pasekmių.

MIT Themis AI, kurį bendrai įkūrė ir vadovauja profesorė Daniela Rus iš CSAIL laboratorijos, siūlo novatorišką sprendimą. Jų technologija leidžia DI modeliams „žinoti, ko jie nežino“. Tai reiškia, kad DI sistemos pačios gali nurodyti, kada jos yra neapibrėžtos dėl savo prognozių, taip užkertant kelią klaidoms, kol jos nepadarė žalos.

Kodėl tai taip svarbu?
Daugelis DI modelių, net ir pažangiausių, kartais gali parodyti vadinamąsias „haliucinacijas“ – jie pateikia klaidingus ar nepagrįstus atsakymus. Sektoriuose, kur sprendimai yra labai svarbūs, pavyzdžiui, medicininėje diagnostikoje ar autonominiame vairavime, tai gali turėti pražūtingų pasekmių. Themis AI sukūrė Capsa, platformą, kuri taiko netikrumo kiekybinį įvertinimą: ji matuoja ir kiekybiškai įvertina DI išvesties netikrumą detaliu ir patikimu būdu.

 Kaip tai veikia?
Suteikiant modeliams informaciją apie neapibrėžtumą, jų išvestis galima pažymėti rizikos ar patikimumo žyma. Pavyzdžiui, autonominis automobilis gali nurodyti, kad nėra tikras dėl situacijos, ir todėl suaktyvinti žmogaus įsikišimą. Tai ne tik padidina saugumą, bet ir vartotojų pasitikėjimą dirbtinio intelekto sistemomis.

Techninės įgyvendinimo pavyzdžiai

  • Integruojant su „PyTorch“, modelio apvyniojimas vyksta per capsa_torch.wrapper() kai išvestis susideda tiek iš prognozės, tiek iš rizikos:

Python example met capsa

„TensorFlow“ modeliams „Capsa“ naudoja dekoratorių:

tensorflow

Poveikis įmonėms ir vartotojams
NetCare ir jos klientams ši technologija reiškia didžiulį žingsnį į priekį. Mes galime pateikti dirbtinio intelekto (DI) sprendimus, kurie yra ne tik protingi, bet ir saugūs bei labiau nuspėjami, su mažesne haliucinacijų tikimybe. Tai padeda organizacijoms priimti geriau pagrįstus sprendimus ir sumažinti riziką diegiant DI į kritiškai svarbias verslo programas.

Išvada
MIT komanda parodo, kad DI ateitis sukasi ne tik apie protingėjimą, bet visų pirma apie saugesnį ir sąžiningesnį veikimą. „NetCare“ mes tikime, kad DI tampa tikrai vertingas tik tada, kai yra skaidrus dėl savo apribojimų. Su pažangiais neapibrėžtumo kiekybės nustatymo įrankiais, tokiais kaip „Capsa“, jūs taip pat galite įgyvendinti šią viziją praktiškai.

Gerardas

Gerardas aktyviai dirba dirbtinio intelekto konsultantu ir vadybininku. Turėdamas didelę patirtį didelėse organizacijose, jis gali ypač greitai išnarplioti problemą ir siekti sprendimo. Kartu su ekonominiu išsilavinimu jis užtikrina verslo požiūriu pagrįstus pasirinkimus.

AIR (Dirbtinio Intelekto Robotas)