MIT provodi istraživanje kako bi AI bio pametniji

MIT tim podučava AI modele onome što još nisu znali.

Primjena umjetne inteligencije (AI) brzo raste i sve se više isprepliće s našim svakodnevnim životom i industrijama s visokim ulozima kao što su zdravstvo, telekomunikacije i energetika. Ali s velikom moći dolazi i velika odgovornost: AI sustavi ponekad griješe ili daju nesigurne odgovore koji mogu imati velike posljedice.

Themis AI s MIT-a, suosnovan i vođen od strane profesorice Daniele Rus iz CSAIL laboratorija, nudi revolucionarno rješenje. Njihova tehnologija omogućava AI modelima da ‘znaju ono što ne znaju’. To znači da AI sustavi mogu sami naznačiti kada su nesigurni u svoje prognoze, čime se mogu spriječiti pogreške prije nego što nanesu štetu.

Zašto je ovo toliko važno?
Mnogi AI modeli, čak i napredni, ponekad mogu pokazivati tzv. “haluinacije”—daju pogrešne ili neutemeljene odgovore. U sektorima gdje odluke imaju veliku težinu, poput medicinske dijagnoze ili autonomne vožnje, to može imati katastrofalne posljedice. Themis AI razvio je Capsa, platformu koja primjenjuje kvantifikaciju nesigurnosti (uncertainty quantification): mjeri i kvantificira nesigurnost AI izlaza na detaljan i pouzdan način.

 Kako to funkcionira?
Uvođavanjem svijesti o nesigurnosti u modele, oni mogu opremiti izlaze oznakom rizika ili pouzdanosti. Na primjer: samovozeći automobil može naznačiti da nije siguran u vezi sa situacijom i stoga aktivirati ljudsku intervenciju. To ne samo da povećava sigurnost, već i povjerenje korisnika u AI sustave.

Primjeri tehničke implementacije

  • Prilikom integracije s PyTorchom, model se omotava putem capsa_torch.wrapper() gdje se izlaz sastoji i od predviđanja i od rizika:

Python example met capsa

Za TensorFlow modele, Capsa koristi dekorator:

tensorflow

Utjecaj na tvrtke i korisnike
Za NetCare i njegove klijente ova tehnologija predstavlja ogroman iskorak. Možemo isporučiti AI aplikacije koje nisu samo inteligentne, već i sigurne te bolje predvidive s manjom vjerojatnošću halucinacija. Pomaže organizacijama u donošenju bolje utemeljenih odluka i smanjenju rizika pri uvođenju umjetne inteligencije u poslovno kritične aplikacije.

Zaključak
MIT tim pokazuje da budućnost umjetne inteligencije ne ovisi samo o tome da postane pametnija, već i o tome da funkcionira sigurnije i poštenije. U NetCareu vjerujemo da umjetna inteligencija postaje zaista vrijedna tek kada je transparentna u pogledu vlastitih ograničenja. S naprednim alatima za kvantifikaciju nesigurnosti poput Capsa, tu viziju možete primijeniti u praksi.

Gerard

Gerard je aktivan kao AI konzultant i menadžer. S velikim iskustvom u velikim organizacijama, on može izuzetno brzo razotkriti problem i raditi na rješenju. U kombinaciji s ekonomskom pozadinom, osigurava poslovno odgovorne izbore.

AIR (Umjetna Inteligencija Robot)