Uporaba umetne inteligence (UI) hitro narašča in se vse bolj prepleta z našim vsakdanjim življenjem in panogami z visokimi vložki, kot so zdravstvo, telekomunikacije in energija. Vendar pa z veliko močjo prihaja tudi velika odgovornost: sistemi UI včasih delajo napake ali dajejo negotove odgovore, ki imajo lahko velike posledice.
Themis AI z MIT-ja, ki sta ga soustanovila in vodita profesorica Daniela Rus iz laboratorija CSAIL, ponuja prebojno rešitev. Njihova tehnologija omogoča modelom UI, da „zvedo, česar ne vedo“. To pomeni, da lahko sistemi UI sami označijo, kdaj so negotovi glede svojih napovedi, s čimer se prepreči napake, preden povzročijo škodo.
Zakaj je to tako pomembno?
Veliko modelov UI, tudi naprednih, včasih kaže tako imenovane „halucinacije“—dajajo napačne ali neutemeljene odgovore. V sektorjih, kjer odločitve težijo, kot sta medicinska diagnoza ali avtonomna vožnja, so lahko posledice katastrofalne. Themis AI je razvil Capsa, platformo, ki uporablja kvantifikacijo negotovosti: podrobno in zanesljivo meri in kvantificira negotovost izhodov UI.
Kako deluje?
Z vgradnjo zavesti o negotovosti v modele, lahko ti opremojo izhode z oznako tveganja ali zanesljivosti. Na primer: samovozeči avtomobil lahko signalizira, da ni prepričan glede situacije, in zato sproži človeški poseg. To ne povečuje le varnosti, temveč tudi zaupanje uporabnikov v sisteme umetne inteligence.
capsa_torch.wrapper() kjer je izhod tako napoved kot tveganje:

Zaključek
MIT ekipa kaže, da se prihodnost umetne inteligence ne vrti le okoli postajanja pametnejše, temveč predvsem okoli varnejšega in poštenejšega delovanja. Pri NetCare verjamemo, da umetna inteligenca postane resnično dragocena šele, ko je pregledna glede lastnih omejitev. Z naprednimi orodji za kvantifikacijo negotovosti, kot je Capsa, lahko to vizijo uresničite tudi v praksi.