MIT doet onderzoek om AI slimmer te maken

Tým MIT učí AI modely to, co ještě nevěděly.

Aplikace umělé inteligence (AI) rychle roste a stále více se prolíná s naším každodenním životem a klíčovými odvětvími, jako je zdravotnictví, telekomunikace a energetika. Ale s velkou mocí přichází i velká odpovědnost: systémy AI někdy dělají chyby nebo poskytují nejisté odpovědi, které mohou mít zásadní důsledky.

Themis AI z MIT, spoluzaložená a vedená profesorkou Danielou Rus z laboratoře CSAIL, nabízí průlomové řešení. Jejich technologie umožňuje modelům AI „vědět, co nevědí“. To znamená, že systémy AI mohou samy signalizovat, kdy si nejsou jisté svými předpověďmi, čímž lze předejít chybám dříve, než způsobí škodu.

Proč je to tak důležité?
Mnoho modelů AI, i těch pokročilých, se někdy může dopouštět tzv. „halucinací“ – poskytují chybné nebo nepodložené odpovědi. V odvětvích, kde mají rozhodnutí velkou váhu, jako je lékařská diagnostika nebo autonomní řízení, to může mít katastrofální následky. Themis AI vyvinula Capsa, platformu, která aplikuje kvantifikaci nejistoty (uncertainty quantification): měří a kvantifikuje nejistotu výstupu AI podrobným a spolehlivým způsobem.

 Jak to funguje?
Tím, že se modelům vštípí povědomí o nejistotě (uncertainty awareness), mohou být jejich výstupy opatřeny štítkem rizika nebo spolehlivosti. Například samořídící auto může uvést, že si není jisté situací, a proto aktivovat lidský zásah. To nejen zvyšuje bezpečnost, ale také důvěru uživatelů v systémy AI.

Příklady technické implementace

  • Při integraci s PyTorch se model zabalí pomocí capsa_torch.wrapper() kde výstupem je jak předpověď, tak i riziko:

Python example met capsa

Pro modely TensorFlow funguje Capsa s dekorátorem:

tensorflow

Dopad pro firmy a uživatele
Pro NetCare a naše klienty představuje tato technologie obrovský krok vpřed. Můžeme dodávat aplikace AI, které jsou nejen inteligentní, ale také bezpečné a lépe předvídatelné s menší pravděpodobností halucinací. Pomáhá organizacím činit lépe podložená rozhodnutí a snižovat rizika při zavádění AI do kritických podnikových aplikací.

Závěr
MIT tým ukazuje, že budoucnost AI nespočívá jen v tom být chytřejší, ale především v tom fungovat bezpečněji a spravedlivěji. My v NetCare věříme, že AI se stává skutečně cennou teprve tehdy, když je transparentní ohledně svých vlastních omezení. S pokročilými nástroji pro kvantifikaci nejistoty, jako je Capsa, můžete tuto vizi uvést do praxe i vy.

Gerard

Gerard působí jako AI konzultant a manažer. Díky rozsáhlým zkušenostem z velkých organizací dokáže mimořádně rychle rozklíčovat problém a dospět k řešení. V kombinaci s ekonomickým zázemím zajišťuje obchodně odpovědná rozhodnutí.

AIR (Umělá inteligence Robot)