MIT team at work

Tým MIT učí modely umělé inteligence to, co ještě nevěděly.

Aplikace umělé inteligence (AI) rychle roste a stále více se prolíná s naším každodenním životem a vysoce rizikovými odvětvími, jako je zdravotnictví, telekomunikace a energetika. S velkou mocí však přichází i velká zodpovědnost: systémy AI se někdy dopouštějí chyb nebo poskytují nejisté odpovědi, které mohou mít vážné důsledky.

MIT’s Themis AI, spoluzaložený a vedený profesorkou Danielou Rus z laboratoře CSAIL, nabízí přelomové řešení. Jejich technologie umožňuje modelům AI „vědět, co nevědí“. To znamená, že systémy AI mohou samy signalizovat, kdy si nejsou jisté svými předpověďmi, čímž lze předejít chybám dříve, než způsobí škodu.

Proč je to tak důležité?
Mnoho modelů AI, dokonce i pokročilých, se může občas dopouštět takzvaných „halucinací“ – poskytují chybné nebo nepodložené odpovědi. V odvětvích, kde jsou rozhodnutí klíčová, jako je lékařská diagnostika nebo autonomní řízení, to může mít katastrofální následky. Themis AI vyvinula Capsa, platformu, která aplikuje kvantifikaci nejistoty: podrobně a spolehlivě měří a kvantifikuje nejistotu výstupů AI.

 Jak to funguje?
Tím, že se modely naučí vnímat nejistotu, mohou své výstupy opatřit štítkem rizika nebo spolehlivosti. Například autonomní vozidlo může signalizovat, že si není jisté situací, a proto aktivuje lidský zásah. To nejen zvyšuje bezpečnost, ale také důvěru uživatelů v systémy AI.

Příklady technické implementace

  • Při integraci s PyTorch se model obalí pomocí capsa_torch.wrapper(), přičemž výstupem je jak předpověď, tak riziko:

Příklad Python s Capsa

Pro modely TensorFlow funguje Capsa s dekorátorem:

tensorflow

Dopad pro firmy a uživatele
Pro NetCare a její klienty představuje tato technologie obrovský krok vpřed. Můžeme dodávat aplikace AI, které jsou nejen inteligentní, ale také bezpečné a lépe předvídatelné s menší pravděpodobností halucinací. Pomáhá organizacím činit lépe informovaná rozhodnutí a snižovat rizika při zavádění AI do kritických podnikových aplikací.

Závěr
Tým MIT týmu ukazuje, že budoucnost AI se netýká jen toho, aby byla chytřejší, ale především bezpečnější a spravedlivější. V NetCare věříme, že AI se stává skutečně cennou, až když je transparentní ohledně svých vlastních omezení. S pokročilými nástroji pro kvantifikaci nejistoty, jako je Capsa, můžete tuto vizi také uvést do praxe.

Gerard

Gerard působí jako AI konzultant a manažer. Díky rozsáhlým zkušenostem ve velkých organizacích dokáže mimořádně rychle odhalit problém a směřovat k řešení. V kombinaci s ekonomickým zázemím zajišťuje obchodně zodpovědná rozhodnutí.

AIR (Artificial Intelligence Robot)