Zastosowanie sztucznej inteligencji (AI) szybko rośnie i coraz bardziej przenika do naszego codziennego życia oraz kluczowych branż, takich jak opieka zdrowotna, telekomunikacja i energetyka. Ale z wielką mocą wiąże się wielka odpowiedzialność: systemy AI czasami popełniają błędy lub udzielają niepewnych odpowiedzi, co może mieć poważne konsekwencje.
Themis AI z MIT, współzałożona i kierowana przez profesor Danielę Rus z laboratorium CSAIL, oferuje przełomowe rozwiązanie. Ich technologia umożliwia modelom AI „świadomość tego, czego nie wiedzą”. Oznacza to, że systemy AI mogą same wskazać, kiedy są niepewne swoich prognoz, co pozwala zapobiegać błędom, zanim wyrządzą szkodę.
Dlaczego jest to tak ważne?
Wiele modeli AI, nawet tych zaawansowanych, może czasami wykazywać tak zwane „halucynacje”—udzielają błędnych lub nieuzasadnionych odpowiedzi. W sektorach, gdzie decyzje mają dużą wagę, takich jak diagnoza medyczna czy jazda autonomiczna, może to mieć katastrofalne skutki. Themis AI opracowało Capsa, platformę, która stosuje kwantyfikację niepewności (uncertainty quantification): mierzy i kwantyfikuje niepewność wyników AI w sposób szczegółowy i wiarygodny.
Jak to działa?
Wprowadzając świadomość niepewności do modeli, można opatrzyć ich wyniki etykietą ryzyka lub wiarygodności. Na przykład: autonomiczny samochód może zasygnalizować, że nie jest pewien sytuacji i w związku z tym aktywować interwencję człowieka. Zwiększa to nie tylko bezpieczeństwo, ale także zaufanie użytkowników do systemów AI.
capsa_torch.wrapper() gdzie wyjście składa się zarówno z predykcji, jak i ryzyka:

Wnioski
MIT zespół pokazuje, że przyszłość AI nie polega tylko na staniu się mądrzejszym, ale przede wszystkim na bezpieczniejszym i bardziej sprawiedliwym działaniu. W NetCare wierzymy, że AI staje się naprawdę wartościowe dopiero wtedy, gdy jest przejrzyste co do własnych ograniczeń. Dzięki zaawansowanym narzędziom do kwantyfikacji niepewności, takim jak Capsa, możesz również wdrożyć tę wizję w praktyce.