MIT doet onderzoek om AI slimmer te maken

Команда MIT обучает модели ИИ тому, чего они еще не знали

Применение искусственного интеллекта (ИИ) быстро растет и все глубже проникает в нашу повседневную жизнь и в критически важные отрасли, такие как здравоохранение, телекоммуникации и энергетика. Но с большой силой приходит и большая ответственность: системы ИИ иногда допускают ошибки или дают неуверенные ответы, которые могут иметь серьезные последствия.

Themis AI от MIT, соучредителем и руководителем которой является профессор Даниэла Рус из лаборатории CSAIL, предлагает новаторское решение. Их технология позволяет моделям ИИ «знать, чего они не знают». Это означает, что системы ИИ могут сами указывать, когда они не уверены в своих прогнозах, что позволяет предотвратить ошибки до того, как они нанесут ущерб.

Почему это так важно?
Многие модели ИИ, даже самые передовые, иногда могут демонстрировать так называемые «галлюцинации» — они дают ошибочные или необоснованные ответы. В отраслях, где решения имеют большой вес, таких как медицинская диагностика или автономное вождение, это может иметь катастрофические последствия. Themis AI разработала Capsa — платформу, которая применяет количественную оценку неопределенности (uncertainty quantification): она измеряет и количественно оценивает неопределенность вывода ИИ детальным и надежным образом.

 Как это работает?
Обучая модели осведомленности о неопределенности, можно снабжать их выводы меткой риска или достоверности. Например, беспилотный автомобиль может указать, что он не уверен в ситуации, и активировать вмешательство человека. Это не только повышает безопасность, но и укрепляет доверие пользователей к системам ИИ.

Примеры технической реализации

  • При интеграции с PyTorch оборачивание модели осуществляется через capsa_torch.wrapper() где вывод состоит как из прогноза, так и из риска:

Python example met capsa

Для моделей TensorFlow Capsa использует декоратор:

tensorflow

Влияние на компании и пользователей
Для NetCare и ее клиентов эта технология означает огромный шаг вперед. Мы можем предоставлять приложения на базе ИИ, которые не только интеллектуальны, но и безопасны, более предсказуемы и с меньшей вероятностью галлюцинаций. Это помогает организациям принимать более обоснованные решения и снижать риски при внедрении ИИ в критически важные бизнес-приложения.

Заключение
Команда MIT команда показывает, что будущее ИИ заключается не только в том, чтобы стать умнее, но и в том, чтобы функционировать безопаснее и справедливее. В NetCare мы считаем, что ИИ становится по-настоящему ценным только тогда, когда он прозрачен в отношении собственных ограничений. С помощью передовых инструментов количественной оценки неопределенности, таких как Capsa, вы также можете реализовать это видение на практике.

Герард

Герард работает в качестве консультанта и менеджера по ИИ. Обладая большим опытом работы в крупных организациях, он способен исключительно быстро разобраться в проблеме и найти решение. В сочетании с экономическим образованием он обеспечивает принятие коммерчески обоснованных решений.

AIR (Робот искусственного интеллекта)