MIT skúma, ako urobiť AI inteligentnejšou

Tím MIT učí AI modely to, čo ešte nevedeli.

Aplikácia umelej inteligencie (AI) rýchlo rastie a čoraz viac sa prelína s naším každodenným životom a kľúčovými odvetviami, ako sú zdravotníctvo, telekomunikácie a energetika. Ale s veľkou mocou prichádza aj veľká zodpovednosť: systémy AI niekedy robia chyby alebo poskytujú neisté odpovede, ktoré môžu mať vážne dôsledky.

Themis AI z MIT, spoluzaložená a vedená profesorkou Danielou Rus z laboratória CSAIL, prináša prelomové riešenie. Ich technológia umožňuje modelom AI „vedieť, čo nevedia“. To znamená, že systémy AI dokážu samy signalizovať, kedy si nie sú isté svojimi predpoveďami, čím sa predchádza chybám skôr, ako spôsobia škodu.

Prečo je to také dôležité?
Mnohé modely AI, dokonca aj tie pokročilé, môžu niekedy vykazovať tzv. „halucinácie“ – poskytujú chybné alebo nepodložené odpovede. V odvetviach, kde sú rozhodnutia kľúčové, ako napríklad pri lekárskej diagnostike alebo autonómnom riadení, to môže mať zničujúce následky. Spoločnosť Themis AI vyvinula Capsa, platformu, ktorá aplikuje kvantifikáciu neistoty (uncertainty quantification): meria a kvantifikuje neistotu výstupov AI podrobným a spoľahlivým spôsobom.

 Ako to funguje?
Týmto modelom vštepením povedomia o neistote (uncertainty awareness) je možné poskytnúť ich výstupom štítok rizika alebo spoľahlivosti. Napríklad: autonómne vozidlo môže uviesť, že si nie je isté situáciou, a preto aktivovať zásah človeka. To nielen zvyšuje bezpečnosť, ale aj dôveru používateľov v systémy umelej inteligencie.

Príklady technickej implementácie

  • Pri integrácii s PyTorch sa model zabalí prostredníctvom capsa_torch.wrapper() pričom výstup pozostáva z predpovede aj rizika:

Python example met capsa

Pre modely TensorFlow používa Capsa dekorátor:

tensorflow

Vplyv pre firmy a používateľov
Pre NetCare a jej klientov táto technológia znamená obrovský krok vpred. Dokážeme dodávať aplikácie umelej inteligencie, ktoré sú nielen inteligentné, ale aj bezpečné a lepšie predvídateľné s menšou pravdepodobnosťou halucinácií. Pomáha organizáciám robiť lepšie podložené rozhodnutia a znižovať riziká pri zavádzaní AI do kritických podnikových aplikácií.

Záver
MIT tím ukazuje, že budúcnosť umelej inteligencie sa netýka len toho, aby sa stala inteligentnejšou, ale predovšetkým bezpečnejšou a spravodlivejšou. V spoločnosti NetCare veríme, že umelá inteligencia sa stáva skutočne cennou až vtedy, keď je transparentná ohľadom svojich vlastných obmedzení. S pokročilými nástrojmi na kvantifikáciu neistoty, ako je Capsa, môžete túto víziu uviesť aj do praxe.

Gerard

Gerard pôsobí ako konzultant a manažér v oblasti AI. S bohatými skúsenosťami z veľkých organizácií dokáže mimoriadne rýchlo rozpliesť problém a pracovať na riešení. V kombinácii s ekonomickým zázemím zabezpečuje obchodne zodpovedné rozhodnutia.

AIR (Umelá Inteligencia Robot)