Tekoälyn (AI) käyttö kasvaa nopeasti ja kietoutuu yhä tiiviimmin jokapäiväiseen elämäämme ja korkean panoksen aloille, kuten terveydenhuoltoon, tietoliikenteeseen ja energia-alaan. Mutta suuren voiman mukana tulee suuri vastuu: tekoälyjärjestelmät tekevät joskus virheitä tai antavat epävarmoja vastauksia, joilla voi olla suuria seurauksia.
MIT:n Themis AI, jonka perustajajäseniin ja johtoon kuuluu professori Daniela Rus CSAIL-laboratoriosta, tarjoaa uraauurtavan ratkaisun. Heidän teknologiansa mahdollistaa tekoälymallien “tietää, mitä ne eivät tiedä”. Tämä tarkoittaa, että tekoälyjärjestelmät voivat itse ilmoittaa, milloin ne ovat epävarmoja ennusteistaan, mikä auttaa ehkäisemään virheitä ennen kuin ne aiheuttavat vahinkoa.
Miksi tämä on niin tärkeää?
Monet tekoälymallit, jopa kehittyneet, voivat joskus “hallusinoida” – ne antavat virheellisiä tai perusteettomia vastauksia. Aloilla, joilla päätöksillä on suuri merkitys, kuten lääketieteellisessä diagnostiikassa tai autonomisessa ajamisessa, tämä voi johtaa katastrofaalisiin seurauksiin. Themis AI kehitti Capsa-alustan, joka soveltaa epävarmuuden kvantifiointia: se mittaa ja kvantifioi tekoälyn tuottamien tulosten epävarmuutta yksityiskohtaisesti ja luotettavasti.
Miten se toimii?
Tuomalla malleihin epävarmuustietoisuutta, niiden tuloksiin voidaan liittää riski- tai luotettavuusmerkintä. Esimerkiksi itseajava auto voi ilmoittaa olevansa epävarma tilanteesta ja siksi aktivoida ihmisen väliintulon. Tämä lisää turvallisuutta ja myös käyttäjien luottamusta tekoälyjärjestelmiin.
capsa_torch.wrapper()
-funktiolla, jolloin tulos sisältää sekä ennusteen että riskin:
Yhteenveto
MIT:n tiimi osoittaa, että tekoälyn tulevaisuus ei pyöri vain älykkäämmäksi tulemisen ympärillä, vaan ennen kaikkea turvallisemmasta ja reilummasta toiminnasta. NetCarella uskomme, että tekoälystä tulee todella arvokasta vasta, kun se on läpinäkyvä omista rajoituksistaan. Kehittyneillä epävarmuuden kvantifiointityökaluilla, kuten Capsalla, voit myös toteuttaa tämän vision käytännössä.