MIT doet onderzoek om AI slimmer te maken

Команда MIT обучает модели ИИ тому, чего они еще не знали.

Применение искусственного интеллекта (ИИ) стремительно растет и все глубже проникает в нашу повседневную жизнь и в критически важные отрасли, такие как здравоохранение, телекоммуникации и энергетика. Но с большой силой приходит и большая ответственность: системы ИИ иногда допускают ошибки или дают неуверенные ответы, что может иметь серьезные последствия.

Themis AI от MIT, соучредителем и руководителем которой является профессор Даниэла Рус из лаборатории CSAIL, предлагает новаторское решение. Их технология позволяет моделям ИИ «знать, чего они не знают». Это означает, что системы ИИ могут сами указывать на свою неуверенность в прогнозах, что позволяет предотвратить ошибки до того, как они нанесут ущерб.

Почему это так важно?
Многие модели ИИ, даже самые передовые, иногда могут демонстрировать так называемые «галлюцинации» — они дают ошибочные или необоснованные ответы. В отраслях, где решения имеют большой вес, таких как медицинская диагностика или автономное вождение, это может привести к катастрофическим последствиям. Themis AI разработала Capsa — платформу, которая применяет количественную оценку неопределенности (uncertainty quantification): она измеряет и количественно оценивает неопределенность вывода ИИ детальным и надежным образом.

 Как это работает?
Прививая моделям осведомленность о неопределенности, можно снабжать их выводы меткой риска или достоверности. Например, беспилотный автомобиль может указать, что он не уверен в ситуации, и активировать вмешательство человека. Это не только повышает безопасность, но и укрепляет доверие пользователей к системам ИИ.

Примеры технической реализации

  • При интеграции с PyTorch оборачивание модели осуществляется через capsa_torch.wrapper() где вывод состоит как из прогноза, так и из риска:

Python example met capsa

Для моделей TensorFlow Capsa использует декоратор:

tensorflow

Влияние на компании и пользователей
Для NetCare и ее клиентов эта технология означает огромный шаг вперед. Мы можем поставлять приложения ИИ, которые не только интеллектуальны, но и безопасны, более предсказуемы и с меньшей вероятностью галлюцинаций. Это помогает организациям принимать более обоснованные решения и снижать риски при внедрении ИИ в критически важные бизнес-приложения.

Заключение
Команда MIT команда показывает, что будущее ИИ заключается не только в том, чтобы становиться умнее, но и в том, чтобы функционировать безопаснее и справедливее. В NetCare мы верим, что ИИ становится по-настоящему ценным только тогда, когда он прозрачен в отношении собственных ограничений. С помощью передовых инструментов количественной оценки неопределенности, таких как Capsa, вы также можете воплотить это видение в жизнь.

Герард

Герард работает в качестве консультанта и менеджера по ИИ. Обладая большим опытом работы в крупных организациях, он способен исключительно быстро разобраться в проблеме и найти решение. В сочетании с экономическим образованием он обеспечивает принятие коммерчески обоснованных решений.

AIR (Робот искусственного интеллекта)