Застосування штучного інтелекту (ШІ) стрімко зростає, все більше переплітаючись з нашим повсякденним життям та критично важливими галузями, такими як охорона здоров’я, телекомунікації та енергетика. Але з великою силою приходить і велика відповідальність: системи ШІ іноді роблять помилки або надають невпевнені відповіді, що може мати серйозні наслідки.
Themis AI від MIT, співзасновником та керівником якої є професор Даніела Рус з лабораторії CSAIL, пропонує революційне рішення. Їхня технологія дозволяє моделям ШІ «знати, чого вони не знають». Це означає, що системи ШІ можуть самі вказувати на свою невпевненість у прогнозах, запобігаючи помилкам до того, як вони завдадуть шкоди.
Чому це так важливо?
Багато моделей ШІ, навіть найсучасніші, іноді можуть демонструвати так звані «галюцинації» — вони надають помилкові або необґрунтовані відповіді. У галузях, де рішення мають велику вагу, таких як медична діагностика або автономне водіння, це може мати катастрофічні наслідки. Themis AI розробила Capsa — платформу, яка застосовує кількісну оцінку невизначеності (uncertainty quantification): вона детально та надійно вимірює та кількісно визначає невизначеність вихідних даних ШІ.
Як це працює?
Надаючи моделям усвідомлення невизначеності, можна додавати до їхніх вихідних даних мітку ризику або впевненості. Наприклад, автомобіль з автопілотом може вказати на свою невпевненість у певній ситуації та активувати втручання людини. Це не тільки підвищує безпеку, але й зміцнює довіру користувачів до систем ШІ.
capsa_torch.wrapper()
, а вихідні дані містять як прогноз, так і ризик:
Висновок
Команда MIT демонструє, що майбутнє ШІ полягає не лише в тому, щоб стати розумнішим, але й, перш за все, у безпечнішому та справедливішому функціонуванні. У NetCare ми віримо, що ШІ стає по-справжньому цінним лише тоді, коли він прозоро повідомляє про власні обмеження. За допомогою передових інструментів кількісної оцінки невизначеності, таких як Capsa, ви також можете втілити це бачення на практиці.