Tehisintellekti (AI) rakendamine kasvab kiiresti ja põimub üha enam meie igapäevaelu ning kõrge riskiga tööstusharudega, nagu tervishoid, telekommunikatsioon ja energeetika. Kuid suurele väele kaasneb ka suur vastutus: tehisintellekti süsteemid teevad mõnikord vigu või annavad ebakindlaid vastuseid, millel võivad olla suured tagajärjed.
MIT-i Themis AI, mille kaasasutaja ja juht on professor Daniela Rus CSAIL-laborist, pakub läbimurdelist lahendust. Nende tehnoloogia võimaldab tehisintellekti mudelitel „teada, mida nad ei tea”. See tähendab, et tehisintellekti süsteemid saavad ise osutada, millal nad on oma ennustuste suhtes ebakindlad, võimaldades vältida vigu enne, kui need kahju tekitavad.
Miks see nii oluline on?
Paljud tehisintellekti mudelid, isegi keerukad, võivad mõnikord ilmutada nn „hallutsinatsioone—nad annavad valesid või põhjendamatuid vastuseid. Valdkondades, kus otsused on kaalukad, nagu meditsiiniline diagnoos või autonoomne sõit, võib see olla katastroofiliste tagajärgedega. Themis AI arendas välja Capsa, platvormi, mis rakendab ebakindluse kvantifitseerimist: see mõõdab ja kvantifitseerib tehisintellekti väljundi ebakindlust üksikasjalikul ja usaldusväärsel viisil.
Kuidas see töötab?
Lisades mudelitele ebakindluse teadvustamise, saab nende väljunditele lisada riski- või usaldusväärsusmärgise. Näiteks võib isejuhtiv auto märkida, et see ei ole olukorras kindel, ja seetõttu käivitada inimsekkumise. See suurendab mitte ainult ohutust, vaid ka kasutajate usaldust tehisintellekti süsteemidesse.
capsa_torch.wrapper() kusjuures väljund koosneb nii ennustusest kui ka riskist:

Kokkuvõte
MIT meeskond näitab, et tehisintellekti tulevik ei seisne ainult targemaks saamises, vaid eelkõige turvalisemas ja õiglasemas toimimises. NetCare'is usume, et tehisintellekt muutub tõeliselt väärtuslikuks alles siis, kui see on oma piirangute osas läbipaistev. Täiustatud ebakindluse kvantifitseerimise tööriistadega nagu Capsa saate selle visiooni ka praktikas ellu viia.