Anvendelsen af kunstig intelligens (AI) vokser hurtigt og bliver stadig mere integreret i vores daglige liv og i kritiske industrier som sundhedspleje, telekommunikation og energi. Men med stor magt følger også stort ansvar: AI-systemer begår undertiden fejl eller giver usikre svar, der kan have store konsekvenser.
MIT’s Themis AI, medstiftet og ledet af professor Daniela Rus fra CSAIL-laboratoriet, tilbyder en banebrydende løsning. Deres teknologi gør det muligt for AI-modeller at “vide, hvad de ikke ved”. Det betyder, at AI-systemer selv kan angive, hvornår de er usikre på deres forudsigelser, hvilket kan forhindre fejl, før de forårsager skade.
Hvorfor er dette så vigtigt?
Mange AI-modeller, selv avancerede, kan undertiden udvise såkaldte “hallucinationer” – de giver forkerte eller ubegrundede svar. I sektorer, hvor beslutninger har stor vægt, såsom medicinsk diagnose eller autonom kørsel, kan dette have katastrofale konsekvenser. Themis AI har udviklet Capsa, en platform der anvender uncertainty quantification: den måler og kvantificerer usikkerheden i AI-output på en detaljeret og pålidelig måde.
Hvordan virker det?
Ved at give modellerne uncertainty awareness kan de forsyne outputs med en risiko- eller troværdighedsmærkning. For eksempel kan en selvkørende bil angive, at den er usikker på en situation og derfor aktiverer menneskelig intervention. Dette øger ikke kun sikkerheden, men også brugernes tillid til AI-systemer.
capsa_torch.wrapper()
, hvor outputtet består af både forudsigelsen og risikoen:
Konklusion
MIT teamet viser, at fremtiden for AI ikke kun handler om at blive smartere, men især også om at fungere sikrere og mere retfærdigt. Hos NetCare tror vi på, at AI først bliver virkelig værdifuld, når den er gennemsigtig omkring sine egne begrænsninger. Med avancerede uncertainty quantification-værktøjer som Capsa kan du også bringe denne vision ud i praksis.