Застосування штучного інтелекту (ШІ) швидко зростає та все більше переплітається з нашим повсякденним життям і критично важливими галузями, як-от охорона здоров'я, телекомунікації та енергетика. Але з великою силою приходить і велика відповідальність: системи ШІ іноді припускаються помилок або дають невпевнені відповіді, що може мати серйозні наслідки.
Themis AI від MIT, співзасновником і керівником якої є професор Даніела Рус із лабораторії CSAIL, пропонує новаторське рішення. Їхня технологія дає змогу ШІ-моделям «знати, чого вони не знають». Це означає, що системи ШІ можуть самі вказувати, коли вони не впевнені у своїх прогнозах, запобігаючи помилкам до того, як вони завдадуть шкоди.
Чому це так важливо?
Багато ШІ-моделей, навіть передові, іноді можуть демонструвати так звані «галюцинації» — вони надають хибні або необґрунтовані відповіді. У секторах, де рішення мають велику вагу, як-от медична діагностика чи автономне водіння, це може мати катастрофічні наслідки. Themis AI розробила Capsa — платформу, яка застосовує кількісну оцінку невизначеності (uncertainty quantification): вона вимірює та кількісно визначає невизначеність результатів ШІ у детальний і надійний спосіб.
Як це працює?
Надаючи моделям обізнаність про невизначеність (uncertainty awareness), можна додавати до результатів мітку ризику чи рівня довіри. Наприклад, безпілотний автомобіль може повідомити, що він не впевнений у певній ситуації, і тому активувати втручання людини. Це не лише підвищує безпеку, але й довіру користувачів до систем ШІ.
capsa_torch.wrapper() де вихідні дані складаються як із прогнозу, так і з ризику:

Висновок
MIT команда демонструє, що майбутнє ШІ полягає не лише в тому, щоб ставати розумнішим, а й, що важливіше, у безпечнішому та чеснішому функціонуванні. У NetCare ми віримо, що ШІ стає справді цінним лише тоді, коли він прозорий щодо власних обмежень. За допомогою передових інструментів кількісної оцінки невизначеності, як-от Capsa, ви також можете втілити це бачення на практиці.