MIT team at work

Zespół MIT uczy modele AI tego, czego jeszcze nie wiedziały.

Zastosowanie sztucznej inteligencji (AI) szybko rośnie i coraz bardziej przenika do naszego codziennego życia oraz kluczowych branż, takich jak opieka zdrowotna, telekomunikacja i energetyka. Jednak z wielką mocą wiąże się wielka odpowiedzialność: systemy AI czasami popełniają błędy lub udzielają niepewnych odpowiedzi, które mogą mieć poważne konsekwencje.

Themis AI z MIT, współzałożony i kierowany przez profesor Danielę Rus z laboratorium CSAIL, oferuje przełomowe rozwiązanie. Ich technologia umożliwia modelom AI „wiedzieć, czego nie wiedzą”. Oznacza to, że systemy AI mogą same wskazać, kiedy są niepewne swoich przewidywań, co pozwala zapobiegać błędom, zanim spowodują szkody.

Dlaczego jest to tak ważne?
Wiele modeli AI, nawet tych zaawansowanych, czasami może wykazywać tzw. „halucynacje” – udzielają błędnych lub nieuzasadnionych odpowiedzi. W sektorach, gdzie decyzje mają ogromne znaczenie, takich jak diagnostyka medyczna czy jazda autonomiczna, może to prowadzić do katastrofalnych skutków. Themis AI opracowało Capsa, platformę, która stosuje kwantyfikację niepewności: mierzy i kwantyfikuje niepewność wyników AI w sposób szczegółowy i wiarygodny.

 Jak to działa?
Poprzez wpajanie modelom świadomości niepewności, można je wyposażyć w etykiety ryzyka lub pewności. Na przykład: samochód autonomiczny może wskazać, że nie jest pewien sytuacji i dlatego aktywuje interwencję człowieka. Zwiększa to nie tylko bezpieczeństwo, ale także zaufanie użytkowników do systemów AI.

Przykłady implementacji technicznej

  • Przy integracji z PyTorch, model jest opakowywany za pomocą capsa_torch.wrapper(), a wynik zawiera zarówno przewidywanie, jak i ryzyko:

Przykład Pythona z Capsa

Dla modeli TensorFlow, Capsa działa z dekoratorem:

tensorflow

Wpływ na firmy i użytkowników
Dla NetCare i jej klientów ta technologia oznacza ogromny krok naprzód. Możemy dostarczać aplikacje AI, które są nie tylko inteligentne, ale także bezpieczne i lepiej przewidywalne, z mniejszym prawdopodobieństwem halucynacji. Pomaga to organizacjom w podejmowaniu lepiej uzasadnionych decyzji i redukcji ryzyka przy wdrażaniu AI w krytycznych aplikacjach biznesowych.

Wnioski
Zespół MIT zespół pokazuje, że przyszłość AI to nie tylko stawanie się mądrzejszym, ale przede wszystkim bezpieczniejszym i bardziej uczciwym działaniem. W NetCare wierzymy, że AI staje się naprawdę wartościowe dopiero wtedy, gdy jest przejrzyste co do własnych ograniczeń. Dzięki zaawansowanym narzędziom do kwantyfikacji niepewności, takim jak Capsa, możesz również wprowadzić tę wizję w życie.

Gerard

Gerard działa jako konsultant i menedżer ds. AI. Dzięki bogatemu doświadczeniu w dużych organizacjach potrafi wyjątkowo szybko rozwikłać problem i doprowadzić do jego rozwiązania. W połączeniu z wykształceniem ekonomicznym zapewnia biznesowo uzasadnione wybory.

AIR (Artificial Intelligence Robot)