MIT team at work

Команда MIT навчає ШІ-моделі тому, чого вони ще не знали.

Застосування штучного інтелекту (ШІ) стрімко зростає, все більше переплітаючись з нашим повсякденним життям та критично важливими галузями, такими як охорона здоров’я, телекомунікації та енергетика. Але з великою силою приходить і велика відповідальність: системи ШІ іноді роблять помилки або надають невпевнені відповіді, що може мати серйозні наслідки.

Themis AI від MIT, співзасновником та керівником якої є професор Даніела Рус з лабораторії CSAIL, пропонує революційне рішення. Їхня технологія дозволяє моделям ШІ «знати, чого вони не знають». Це означає, що системи ШІ можуть самі вказувати на свою невпевненість у прогнозах, запобігаючи помилкам до того, як вони завдадуть шкоди.

Чому це так важливо?
Багато моделей ШІ, навіть найсучасніші, іноді можуть демонструвати так звані «галюцинації» — вони надають помилкові або необґрунтовані відповіді. У галузях, де рішення мають велику вагу, таких як медична діагностика або автономне водіння, це може мати катастрофічні наслідки. Themis AI розробила Capsa — платформу, яка застосовує кількісну оцінку невизначеності (uncertainty quantification): вона детально та надійно вимірює та кількісно визначає невизначеність вихідних даних ШІ.

 Як це працює?
Надаючи моделям усвідомлення невизначеності, можна додавати до їхніх вихідних даних мітку ризику або впевненості. Наприклад, автомобіль з автопілотом може вказати на свою невпевненість у певній ситуації та активувати втручання людини. Це не тільки підвищує безпеку, але й зміцнює довіру користувачів до систем ШІ.

Приклади технічної реалізації

  • При інтеграції з PyTorch модель обгортається за допомогою capsa_torch.wrapper(), а вихідні дані містять як прогноз, так і ризик:

Приклад Python з capsa

Для моделей TensorFlow Capsa працює з декоратором:

tensorflow

Вплив на бізнес та користувачів
Для NetCare та її клієнтів ця технологія означає величезний крок вперед. Ми можемо надавати застосунки ШІ, які не тільки інтелектуальні, але й безпечні та краще прогнозовані, з меншою ймовірністю «галюцинацій». Це допомагає організаціям приймати більш обґрунтовані рішення та зменшувати ризики при впровадженні ШІ в критично важливі бізнес-додатки.

Висновок
Команда MIT демонструє, що майбутнє ШІ полягає не лише в тому, щоб стати розумнішим, але й, перш за все, у безпечнішому та справедливішому функціонуванні. У NetCare ми віримо, що ШІ стає по-справжньому цінним лише тоді, коли він прозоро повідомляє про власні обмеження. За допомогою передових інструментів кількісної оцінки невизначеності, таких як Capsa, ви також можете втілити це бачення на практиці.

Gerard

Джерард є активним AI-консультантом та менеджером. Маючи великий досвід роботи у великих організаціях, він може надзвичайно швидко розібратися в проблемі та знайти рішення. У поєднанні з економічною освітою він забезпечує обґрунтовані з точки зору бізнесу рішення.

AIR (Artificial Intelligence Robot)