Жасанды интеллектті (AI) қолдану қарқынды өсіп келеді және күнделікті өмірімізге, сондай-ақ денсаулық сақтау, телекоммуникация және энергетика сияқты маңызды салаларға барған сайын тереңірек еніп жатыр. Бірақ үлкен күшпен бірге үлкен жауапкершілік те келеді: AI жүйелері кейде қателеседі немесе үлкен салдарлары болуы мүмкін күмәнді жауаптар береді.
CSAIL зертханасының профессоры Даниэла Рус бірлесіп құрған және басқаратын MIT-тің Themis AI компаниясы жаңашыл шешім ұсынады. Олардың технологиясы AI модельдеріне «өздерінің не білмейтінін білуге» мүмкіндік береді. Бұл AI жүйелері өз болжамдарына күмәнданған кезде көрсете алады дегенді білдіреді, осылайша зиян келтірмес бұрын қателіктердің алдын алуға болады.
Бұл неліктен соншалықты маңызды?
Көптеген AI модельдері, тіпті жетілдірілгендері де, кейде «галлюцинацияларға» ұшырауы мүмкін – олар қате немесе негізсіз жауаптар береді. Медициналық диагностика немесе автономды жүргізу сияқты шешімдердің маңыздылығы жоғары салаларда бұл апатты салдарларға әкелуі мүмкін. Themis AI компаниясы Capsa платформасын әзірледі, ол күрделілік өлшемін қолданады: ол AI шығысының күмәнін егжей-тегжейлі және сенімді түрде өлшейді және сандық бағалайды.
Бұл қалай жұмыс істейді?
Модельдерге белгісіздікті тану қабілетін берген кезде, олар шығарылатын нәтижелерге тәуекел немесе сенімділік белгісін қоса алады. Мысалы: автономиялық көлік белгісіз жағдай туралы хабарлап, адамның араласуын іске қоса алады. Бұл қауіпсіздікті ғана емес, сонымен қатар пайдаланушылардың AI жүйелеріне деген сенімін де арттырады.
capsa_torch.wrapper() мұнда шығыс болжамды да, тәуекелді де қамтиды:

Қорытынды
MIT команда AI болашағы тек ақылды болуға ғана емес, сонымен қатар қауіпсіз және әділ жұмыс істеуге бағытталғанын көрсетеді. NetCare-те біз AI өзінің шектеулері туралы ашық болғанда ғана шынымен құнды болады деп санаймыз. Capsa сияқты озық белгісіздікті бағалау құралдары арқылы сіз бұл көзқарасты іс жүзінде қолдана аласыз.