MIT doet onderzoek om AI slimmer te maken

Zespół MIT uczy modele AI tego, czego jeszcze nie wiedziały

Zastosowanie sztucznej inteligencji (AI) szybko rośnie i coraz bardziej przenika do naszego codziennego życia oraz kluczowych sektorów, takich jak opieka zdrowotna, telekomunikacja i energetyka. Jednak z wielką mocą wiąże się wielka odpowiedzialność: systemy AI popełniają czasem błędy lub udzielają niepewnych odpowiedzi, co może mieć poważne konsekwencje.

Themis AI z MIT, współzałożona i kierowana przez profesor Danielę Rus z laboratorium CSAIL, oferuje przełomowe rozwiązanie. Ich technologia umożliwia modelom AI „wiedzieć, czego nie wiedzą”. Oznacza to, że systemy AI mogą same sygnalizować, kiedy są niepewne swoich prognoz, co pozwala zapobiegać błędom, zanim wyrządzą szkodę.

Dlaczego jest to tak ważne?
Wiele modeli AI, nawet tych zaawansowanych, może czasami wykazywać tzw. „halucynacje” – udzielać błędnych lub nieuzasadnionych odpowiedzi. W sektorach, gdzie decyzje mają dużą wagę, takich jak diagnoza medyczna czy jazda autonomiczna, może to mieć katastrofalne skutki. Themis AI opracowało Capsa, platformę, która stosuje kwantyfikację niepewności (uncertainty quantification): mierzy i kwantyfikuje niepewność wyników AI w sposób szczegółowy i wiarygodny.

 Jak to działa?
Ucząc modele świadomości niepewności (uncertainty awareness), można opatrzyć ich wyniki etykietą ryzyka lub wiarygodności. Na przykład: samochód autonomiczny może zasygnalizować, że nie jest pewien sytuacji i w związku z tym aktywować interwencję człowieka. Zwiększa to nie tylko bezpieczeństwo, ale także zaufanie użytkowników do systemów AI.

Przykłady wdrożeń technicznych

  • Podczas integracji z PyTorch, opakowanie modelu odbywa się poprzez capsa_torch.wrapper() gdzie wyjście składa się zarówno z predykcji, jak i ryzyka:

Python example met capsa

Dla modeli TensorFlow Capsa używa dekoratora:

tensorflow

Wpływ na firmy i użytkowników
Dla NetCare i jej klientów ta technologia oznacza ogromny krok naprzód. Możemy dostarczać aplikacje AI, które są nie tylko inteligentne, ale także bezpieczne i bardziej przewidywalne, z mniejszym ryzykiem halucynacji. Pomaga to organizacjom w podejmowaniu lepiej ugruntowanych decyzji i ograniczaniu ryzyka przy wdrażaniu AI w aplikacjach krytycznych dla biznesu.

Podsumowanie
MIT zespół pokazuje, że przyszłość AI to nie tylko stawanie się mądrzejszym, ale przede wszystkim bezpieczniejsze i bardziej sprawiedliwe działanie. W NetCare wierzymy, że AI staje się naprawdę wartościowe dopiero wtedy, gdy jest transparentne co do własnych ograniczeń. Dzięki zaawansowanym narzędziom do kwantyfikacji niepewności, takim jak Capsa, możesz wdrożyć tę wizję w praktyce.

Gerard

Gerard aktywnie działa jako konsultant i menedżer AI. Mając bogate doświadczenie w dużych organizacjach, potrafi wyjątkowo szybko rozwikłać problem i dążyć do jego rozwiązania. W połączeniu z wykształceniem ekonomicznym zapewnia biznesowo uzasadnione wybory.

AIR (Sztuczna Inteligencja Robot)