Застосування штучного інтелекту (ШІ) швидко зростає і все більше переплітається з нашим повсякденним життям та критично важливими галузями, як-от охорона здоров'я, телекомунікації та енергетика. Але з великою силою приходить і велика відповідальність: системи ШІ іноді припускаються помилок або дають невпевнені відповіді, що може мати серйозні наслідки.
Themis AI від MIT, співзасновником і керівником якої є професор Даніела Рус із лабораторії CSAIL, пропонує новаторське рішення. Їхня технологія дає змогу моделям ШІ «знати, чого вони не знають». Це означає, що системи ШІ можуть самі вказувати на свою невпевненість у прогнозах, запобігаючи помилкам до того, як вони завдадуть шкоди.
Чому це так важливо?
Багато моделей ШІ, навіть найсучасніших, іноді можуть демонструвати так звані «галюцинації» — вони надають хибні або необґрунтовані відповіді. У секторах, де рішення мають велику вагу, як-от медична діагностика чи автономне водіння, це може мати катастрофічні наслідки. Themis AI розробила Capsa — платформу, яка застосовує кількісну оцінку невизначеності (uncertainty quantification): вона вимірює та кількісно визначає невизначеність результатів роботи ШІ у детальний і надійний спосіб.
Як це працює?
Надаючи моделям обізнаність про невизначеність, можна маркувати їхні результати міткою ризику чи надійності. Наприклад, безпілотний автомобіль може вказати, що він не впевнений у певній ситуації, і тому активувати втручання людини. Це не тільки підвищує безпеку, але й довіру користувачів до систем ШІ.
capsa_torch.wrapper() де вихід складається як із прогнозу, так і з ризику:

Висновок
MIT команда показує, що майбутнє ШІ полягає не лише в тому, щоб ставати розумнішим, а й, що важливіше, у безпечнішому та справедливішому функціонуванні. У NetCare ми віримо, що ШІ стає справді цінним лише тоді, коли він прозорий щодо власних обмежень. Завдяки передовим інструментам квантифікації невизначеності, як-от Capsa, ви також можете втілити це бачення на практиці.