Приложението на изкуствения интелект (AI) расте бързо и все повече се преплита в ежедневието ни и в критични индустрии като здравеопазване, телекомуникации и енергетика. Но с голяма сила идва и голяма отговорност: AI системите понякога допускат грешки или дават несигурни отговори, които могат да имат сериозни последици.
Themis AI на MIT, съоснована и ръководена от професор Даниела Рус от лабораторията CSAIL, предлага пробивна технология. Тяхната технология позволява на AI моделите да „знаят какво не знаят“. Това означава, че AI системите могат сами да посочат кога са несигурни относно своите прогнози, което помага да се предотвратят грешки, преди да нанесат вреда.
Защо това е толкова важно?
Много AI модели, дори и напредналите, понякога могат да проявяват т.нар. „халюцинации“ – те дават грешни или необосновани отговори. В сектори, където решенията са от голяма тежест, като медицинска диагностика или автономно шофиране, това може да има катастрофални последици. Themis AI разработи Capsa – платформа, която прилага количествено определяне на несигурността (uncertainty quantification): тя измерва и количествено определя несигурността на AI резултатите по детайлен и надежден начин.
Как работи?
Като вдъхват на моделите осъзнатост за несигурността, те могат да придружават резултатите с етикет за риск или надеждност. Например: самоуправляващ се автомобил може да посочи, че не е сигурен за дадена ситуация и следователно да активира човешка намеса. Това не само повишава безопасността, но и доверието на потребителите в AI системите.
capsa_torch.wrapper() като изходът съдържа както прогнозата, така и риска:

Заключение
Екипът на MIT екип показва, че бъдещето на AI не е само в това да става по-умен, но преди всичко в това да функционира по-безопасно и по-справедливо. В NetCare вярваме, че AI става наистина ценен, когато е прозрачен относно собствените си ограничения. С усъвършенствани инструменти за количествено определяне на несигурността като Capsa, вие също можете да приложите тази визия на практика.