MIT team at work

Команда MIT обучает ИИ-модели тому, чего они еще не знали.

Применение искусственного интеллекта (ИИ) стремительно растет, все больше проникая в нашу повседневную жизнь и такие важные отрасли, как здравоохранение, телекоммуникации и энергетика. Но с большой силой приходит и большая ответственность: системы ИИ иногда допускают ошибки или дают неуверенные ответы, которые могут иметь серьезные последствия.

Themis AI от MIT, соучредителем и руководителем которой является профессор Даниэла Рус из лаборатории CSAIL, предлагает революционное решение. Их технология позволяет моделям ИИ «знать, чего они не знают». Это означает, что системы ИИ могут сами указывать на свою неуверенность в прогнозах, предотвращая ошибки до того, как они нанесут ущерб.

Почему это так важно?
Многие модели ИИ, даже самые передовые, иногда могут демонстрировать так называемые «галлюцинации» — они дают ошибочные или необоснованные ответы. В отраслях, где решения имеют большой вес, таких как медицинская диагностика или автономное вождение, это может привести к катастрофическим последствиям. Themis AI разработала Capsa — платформу, применяющую количественную оценку неопределенности: она измеряет и количественно определяет неопределенность выходных данных ИИ детальным и надежным образом.

 Как это работает?
Придавая моделям осведомленность о неопределенности, можно снабжать выходные данные меткой риска или достоверности. Например, автомобиль с автопилотом может указать на неуверенность в ситуации и, следовательно, активировать вмешательство человека. Это не только повышает безопасность, но и укрепляет доверие пользователей к системам ИИ.

Примеры технической реализации

  • При интеграции с PyTorch модель оборачивается с помощью capsa_torch.wrapper(), при этом выходные данные включают как прогноз, так и риск:

Пример Python с Capsa

Для моделей TensorFlow Capsa работает с декоратором:

TensorFlow

Влияние на компании и пользователей
Для NetCare и ее клиентов эта технология означает огромный шаг вперед. Мы можем предоставлять приложения ИИ, которые не только интеллектуальны, но и безопасны, более предсказуемы и с меньшей вероятностью «галлюцинаций». Это помогает организациям принимать более обоснованные решения и снижать риски при внедрении ИИ в критически важные бизнес-приложения.

Заключение
Команда MIT демонстрирует, что будущее ИИ заключается не только в повышении интеллекта, но и, прежде всего, в более безопасном и справедливом функционировании. В NetCare мы считаем, что ИИ становится по-настоящему ценным только тогда, когда он прозрачен в отношении собственных ограничений. С помощью передовых инструментов количественной оценки неопределенности, таких как Capsa, вы также можете воплотить это видение в жизнь.

Gerard

Джерард активно работает в качестве ИИ-консультанта и менеджера. Обладая большим опытом работы в крупных организациях, он способен очень быстро выявить проблему и найти решение. В сочетании с экономическим образованием он обеспечивает принятие экономически обоснованных решений.

AIR (Artificial Intelligence Robot)