Aplikace umělé inteligence (AI) rychle roste a stále více se prolíná s naším každodenním životem a vysoce rizikovými odvětvími, jako je zdravotnictví, telekomunikace a energetika. S velkou mocí však přichází i velká zodpovědnost: systémy AI se někdy dopouštějí chyb nebo poskytují nejisté odpovědi, které mohou mít vážné důsledky.
MIT’s Themis AI, spoluzaložený a vedený profesorkou Danielou Rus z laboratoře CSAIL, nabízí přelomové řešení. Jejich technologie umožňuje modelům AI „vědět, co nevědí“. To znamená, že systémy AI mohou samy signalizovat, kdy si nejsou jisté svými předpověďmi, čímž lze předejít chybám dříve, než způsobí škodu.
Proč je to tak důležité?
Mnoho modelů AI, dokonce i pokročilých, se může občas dopouštět takzvaných „halucinací“ – poskytují chybné nebo nepodložené odpovědi. V odvětvích, kde jsou rozhodnutí klíčová, jako je lékařská diagnostika nebo autonomní řízení, to může mít katastrofální následky. Themis AI vyvinula Capsa, platformu, která aplikuje kvantifikaci nejistoty: podrobně a spolehlivě měří a kvantifikuje nejistotu výstupů AI.
Jak to funguje?
Tím, že se modely naučí vnímat nejistotu, mohou své výstupy opatřit štítkem rizika nebo spolehlivosti. Například autonomní vozidlo může signalizovat, že si není jisté situací, a proto aktivuje lidský zásah. To nejen zvyšuje bezpečnost, ale také důvěru uživatelů v systémy AI.
capsa_torch.wrapper()
, přičemž výstupem je jak předpověď, tak riziko:
Závěr
Tým MIT týmu ukazuje, že budoucnost AI se netýká jen toho, aby byla chytřejší, ale především bezpečnější a spravedlivější. V NetCare věříme, že AI se stává skutečně cennou, až když je transparentní ohledně svých vlastních omezení. S pokročilými nástroji pro kvantifikaci nejistoty, jako je Capsa, můžete tuto vizi také uvést do praxe.