MIT uurib, kuidas muuta tehisintellekti targemaks

MIT-meeskond õpetab tehisintellekti mudeleid asjade kohta, mida nad veel ei teadnud.

Tehisintellekti (AI) rakendamine kasvab kiiresti ja põimub üha enam meie igapäevaelu ning kõrge riskiga tööstusharudega, nagu tervishoid, telekommunikatsioon ja energeetika. Kuid suurele väele kaasneb ka suur vastutus: tehisintellekti süsteemid teevad mõnikord vigu või annavad ebakindlaid vastuseid, millel võivad olla suured tagajärjed.

MIT-i Themis AI, mille kaasasutaja ja juht on professor Daniela Rus CSAIL-laborist, pakub läbimurdelist lahendust. Nende tehnoloogia võimaldab tehisintellekti mudelitel „teada, mida nad ei tea”. See tähendab, et tehisintellekti süsteemid saavad ise osutada, millal nad on oma ennustuste suhtes ebakindlad, võimaldades vältida vigu enne, kui need kahju tekitavad.

Miks see nii oluline on?
Paljud tehisintellekti mudelid, isegi keerukad, võivad mõnikord ilmutada nn „hallutsinatsioone—nad annavad valesid või põhjendamatuid vastuseid. Valdkondades, kus otsused on kaalukad, nagu meditsiiniline diagnoos või autonoomne sõit, võib see olla katastroofiliste tagajärgedega. Themis AI arendas välja Capsa, platvormi, mis rakendab ebakindluse kvantifitseerimist: see mõõdab ja kvantifitseerib tehisintellekti väljundi ebakindlust üksikasjalikul ja usaldusväärsel viisil.

 Kuidas see töötab?
Lisades mudelitele ebakindluse teadvustamise, saab nende väljunditele lisada riski- või usaldusväärsusmärgise. Näiteks võib isejuhtiv auto märkida, et see ei ole olukorras kindel, ja seetõttu käivitada inimsekkumise. See suurendab mitte ainult ohutust, vaid ka kasutajate usaldust tehisintellekti süsteemidesse.

Tehnilise rakendamise näited

  • PyTorchi integreerimisel käib mudeli mähkimine läbi capsa_torch.wrapper() kusjuures väljund koosneb nii ennustusest kui ka riskist:

Python example met capsa

TensorFlow mudelite jaoks kasutab Capsa dekoraatorit:

tensorflow

Mõju ettevõtetele ja kasutajatele
NetCare'i ja tema klientide jaoks tähendab see tehnoloogia tohutut edusammu. Saame pakkuda tehisintellekti rakendusi, mis pole mitte ainult intelligentsed, vaid ka ohutud ja paremini prognoositavad, väiksema hallutsinatsioonide riskiga. See aitab organisatsioonidel teha paremini põhjendatud otsuseid ja vähendada riske tehisintellekti kasutuselevõtul ärikriitilistes rakendustes.

Kokkuvõte
MIT meeskond näitab, et tehisintellekti tulevik ei seisne ainult targemaks saamises, vaid eelkõige turvalisemas ja õiglasemas toimimises. NetCare'is usume, et tehisintellekt muutub tõeliselt väärtuslikuks alles siis, kui see on oma piirangute osas läbipaistev. Täiustatud ebakindluse kvantifitseerimise tööriistadega nagu Capsa saate selle visiooni ka praktikas ellu viia.

Gerard

Gerard tegutseb tehisintellekti konsultandi ja juhina. Suurte organisatsioonidega töötamise suure kogemusega suudab ta erakordselt kiiresti probleemi lahti harutada ja lahenduse poole liikuda. Kombineerituna majandusliku taustaga tagab ta äriliselt vastutustundlikud valikud.

AIR (Kunstlik Luure Robot)