MIT raziskuje, kako narediti AI pametnejši

MIT ekipa uči AI modele o tem, česar še niso vedeli.

Uporaba umetne inteligence (UI) hitro narašča in se vse bolj prepleta z našim vsakdanjim življenjem in panogami z visokimi vložki, kot so zdravstvo, telekomunikacije in energija. Vendar pa z veliko močjo prihaja tudi velika odgovornost: sistemi UI včasih delajo napake ali dajejo negotove odgovore, ki imajo lahko velike posledice.

Themis AI z MIT-ja, ki sta ga soustanovila in vodita profesorica Daniela Rus iz laboratorija CSAIL, ponuja prebojno rešitev. Njihova tehnologija omogoča modelom UI, da „zvedo, česar ne vedo“. To pomeni, da lahko sistemi UI sami označijo, kdaj so negotovi glede svojih napovedi, s čimer se prepreči napake, preden povzročijo škodo.

Zakaj je to tako pomembno?
Veliko modelov UI, tudi naprednih, včasih kaže tako imenovane „halucinacije“—dajajo napačne ali neutemeljene odgovore. V sektorjih, kjer odločitve težijo, kot sta medicinska diagnoza ali avtonomna vožnja, so lahko posledice katastrofalne. Themis AI je razvil Capsa, platformo, ki uporablja kvantifikacijo negotovosti: podrobno in zanesljivo meri in kvantificira negotovost izhodov UI.

 Kako deluje?
Z vgradnjo zavesti o negotovosti v modele, lahko ti opremojo izhode z oznako tveganja ali zanesljivosti. Na primer: samovozeči avtomobil lahko signalizira, da ni prepričan glede situacije, in zato sproži človeški poseg. To ne povečuje le varnosti, temveč tudi zaupanje uporabnikov v sisteme umetne inteligence.

Primeri tehnične implementacije

  • Pri integraciji s PyTorch se model ovije preko capsa_torch.wrapper() kjer je izhod tako napoved kot tveganje:

Python example met capsa

Za modele TensorFlow Capsa uporablja dekorator:

tensorflow

Vpliv za podjetja in uporabnike
Za NetCare in njene stranke ta tehnologija pomeni ogromen korak naprej. Lahko ponujamo aplikacije umetne inteligence, ki niso le inteligentne, temveč tudi varne in bolj predvidljive z manjšo verjetnostjo halucinacij. Podjetjem pomaga pri sprejemanju bolj utemeljenih odločitev in zmanjševanju tveganj pri uvajanju umetne inteligence v kritične poslovne aplikacije.

Zaključek
MIT ekipa kaže, da se prihodnost umetne inteligence ne vrti le okoli postajanja pametnejše, temveč predvsem okoli varnejšega in poštenejšega delovanja. Pri NetCare verjamemo, da umetna inteligenca postane resnično dragocena šele, ko je pregledna glede lastnih omejitev. Z naprednimi orodji za kvantifikacijo negotovosti, kot je Capsa, lahko to vizijo uresničite tudi v praksi.

Gerard

Gerard je aktiven kot AI svetovalec in menedžer. Z bogatimi izkušnjami pri velikih organizacijah lahko izjemno hitro razreši težavo in dela proti rešitvi. V kombinaciji z ekonomsko izobrazbo zagotavlja poslovno utemeljene izbire.

AIR (Umetna inteligenca Robot)