MIT doet onderzoek om AI slimmer te maken

MIT-tiimi opettaa tekoälymalleille asioita, joita ne eivät vielä tienneet

Tekoälyn (AI) soveltaminen kasvaa nopeasti ja kietoutuu yhä tiiviimmin jokapäiväiseen elämäämme ja kriittisiin toimialoihin, kuten terveydenhuoltoon, tietoliikenteeseen ja energiaan. Mutta suuren voiman mukana tulee suuri vastuu: tekoälyjärjestelmät tekevät joskus virheitä tai antavat epävarmoja vastauksia, joilla voi olla suuria seurauksia.

MIT:n Themis AI, jonka on ollut perustamassa ja johtamassa professori Daniela Rus CSAIL-laboratoriosta, tarjoaa uraauurtavan ratkaisun. Heidän teknologiansa antaa tekoälymalleille kyvyn ”tietää, mitä ne eivät tiedä”. Tämä tarkoittaa, että tekoälyjärjestelmät voivat itse ilmoittaa, milloin ne ovat epävarmoja ennusteistaan, mikä mahdollistaa virheiden estämisen ennen kuin ne aiheuttavat vahinkoa.

Miksi tämä on niin tärkeää?
Monet tekoälymallit, jopa edistyneet, voivat joskus osoittaa niin sanottuja ”hallusinaatioita” – ne antavat virheellisiä tai perusteettomia vastauksia. Aloilla, joilla päätöksillä on suuri painoarvo, kuten lääketieteellisessä diagnostiikassa tai autonomisessa ajamisessa, tällä voi olla katastrofaalisia seurauksia. Themis AI kehitti Capsan, alustan, joka soveltaa epävarmuuden kvantifiointia (uncertainty quantification): se mittaa ja kvantifioi tekoälyn tuotoksen epävarmuuden yksityiskohtaisesti ja luotettavasti.

 Miten se toimii?
Kun malleille opetetaan epävarmuustietoisuutta, ne voivat liittää tuotoksiinsa riski- tai luotettavuusmerkinnän. Esimerkiksi itseajava auto voi ilmoittaa, ettei se ole varma tilanteesta, ja aktivoida siksi ihmisen väliintulon. Tämä ei ainoastaan lisää turvallisuutta, vaan myös käyttäjien luottamusta tekoälyjärjestelmiin.

Esimerkkejä teknisestä toteutuksesta

  • PyTorchiin integroitaessa mallin kääre capsa_torch.wrapper() jolloin tulos sisältää sekä ennusteen että riskin:

Python example met capsa

TensorFlow-malleille Capsa käyttää koristelijaa (decorator):

tensorflow

Vaikutus yrityksille ja käyttäjille
Tämä teknologia merkitsee NetCarelle ja sen asiakkaille valtavaa harppausta eteenpäin. Voimme toimittaa tekoälysovelluksia, jotka eivät ole ainoastaan älykkäitä, vaan myös turvallisia ja paremmin ennustettavia, vähentäen hallusinaatioiden riskiä. Se auttaa organisaatioita tekemään paremmin perusteltuja päätöksiä ja vähentämään riskejä ottaessaan tekoälyä käyttöön liiketoimintakriittisissä sovelluksissa.

Johtopäätös
MIT tiimi osoittaa, että tekoälyn tulevaisuus ei pyöri vain älykkäämmäksi tulemisen ympärillä, vaan ennen kaikkea turvallisemman ja oikeudenmukaisemman toiminnan ympärillä. Me NetCarella uskomme, että tekoälystä tulee todella arvokasta vasta, kun se on läpinäkyvä omien rajoitustensa suhteen. Kehittyneiden epävarmuuden kvantifiointityökalujen, kuten Capsan, avulla voit toteuttaa tämän vision käytännössä.

Gerard

Gerard toimii tekoälykonsulttina ja johtajana. Laajan kokemuksensa ansiosta suurissa organisaatioissa hän pystyy nopeasti selvittämään ongelmia ja työskentelemään ratkaisujen parissa. Yhdistettynä taloudelliseen taustaan hän varmistaa liiketoiminnallisesti kestävät valinnat.

AIR (Tekoälyrobotti)