MIT провежда изследвания за по-умен ИИ

Екип от MIT учи AI модели на неща, които те все още не знаят.

Приложението на изкуствения интелект (AI) расте бързо и все повече се преплита в ежедневието ни и в индустрии с високи залози като здравеопазване, телекомуникации и енергетика. Но с голяма сила идва и голяма отговорност: AI системите понякога допускат грешки или дават несигурни отговори, които могат да имат сериозни последици.

Themis AI на MIT, съоснована и ръководена от професор Даниела Рус от лабораторията CSAIL, предлага новаторско решение. Тяхната технология дава възможност на AI моделите да „знаят какво не знаят“. Това означава, че AI системите могат сами да посочат кога са несигурни относно своите прогнози, което позволява да се предотвратят грешки, преди да нанесат вреда.

Защо това е толкова важно?
Много AI модели, дори и напредналите, понякога могат да проявяват т.нар. „hлюцинации” – те дават грешни или необосновани отговори. В сектори, където решенията са от голяма тежест, като медицинска диагностика или автономно шофиране, това може да има катастрофални последици. Themis AI разработи Capsa, платформа, която прилага количествено определяне на несигурността (uncertainty quantification): тя измерва и количествено определя несигурността на AI резултатите по детайлен и надежден начин.

 Как работи?
Чрез внасяне на осведоменост за несигурността в моделите, те могат да предоставят своите резултати с етикет за риск или надеждност. Например: самоуправляващ се автомобил може да посочи, че не е сигурен за дадена ситуация и следователно да активира човешка намеса. Това не само повишава безопасността, но и доверието на потребителите в AI системите.

Примери за техническа имплементация

  • При интегриране с PyTorch, обвиването на модела става чрез capsa_torch.wrapper() където изходът се състои както от прогнозата, така и от риска:

Python example met capsa

За TensorFlow модели, Capsa работи с декоратор:

tensorflow

Въздействието за бизнеса и потребителите
За NetCare и нейните клиенти тази технология представлява огромна крачка напред. Ние можем да предоставим AI приложения, които са не само интелигентни, но и безопасни и по-предсказуеми с по-малък шанс за халюцинации. Това помага на организациите да вземат по-информирани решения и да намалят рисковете при внедряването на AI в критични за бизнеса приложения.

Заключение
MIT екип показва, че бъдещето на ИИ не е само в това да става по-умен, но преди всичко в това да функционира по-безопасно и по-справедливо. В NetCare вярваме, че ИИ става наистина ценен, когато е прозрачен относно собствените си ограничения. С усъвършенствани инструменти за количествено определяне на несигурността като Capsa, можете да приложите тази визия на практика.

Жерард

Жерард е активен като AI консултант и мениджър. С богат опит в големи организации, той може изключително бързо да разплете проблем и да работи за намиране на решение. В комбинация с икономически опит, той гарантира бизнес-отговорни избори.

Въздух (Изкуствен Интелект Робот)