MIT team at work

MIT-team lærer AI-modeller hva de ikke visste ennå.

Bruken av kunstig intelligens (KI) vokser raskt og blir stadig mer integrert i hverdagen vår og i kritiske bransjer som helsevesen, telekom og energi. Men med stor kraft følger også stort ansvar: KI-systemer gjør noen ganger feil eller gir usikre svar som kan ha store konsekvenser.

MITs Themis AI, medgrunnlagt og ledet av professor Daniela Rus fra CSAIL-laben, tilbyr en banebrytende løsning. Deres teknologi gjør det mulig for KI-modeller å «vite hva de ikke vet». Dette betyr at KI-systemer selv kan indikere når de er usikre på sine prediksjoner, noe som kan forhindre feil før de forårsaker skade.

Hvorfor er dette så viktig?
Mange KI-modeller, selv avanserte, kan noen ganger vise såkalte «hallusinasjoner» – de gir feilaktige eller ubegrunnede svar. I sektorer der beslutninger har stor vekt, som medisinsk diagnose eller autonom kjøring, kan dette ha katastrofale følger. Themis AI utviklet Capsa, en plattform som anvender usikkerhetskvantifisering: den måler og kvantifiserer usikkerheten i KI-utdata på en detaljert og pålitelig måte.

 Hvordan fungerer det?
Ved å gi modeller usikkerhetsbevissthet, kan de forsynes med utdata med en risiko- eller pålitelighetsmerkelapp. For eksempel kan en selvkjørende bil indikere at den er usikker på en situasjon og derfor aktivere menneskelig inngripen. Dette øker ikke bare sikkerheten, men også brukernes tillit til KI-systemer.

Eksempler på teknisk implementering

  • Ved integrasjon med PyTorch, pakkes modellen inn via capsa_torch.wrapper(), der utdata består av både prediksjonen og risikoen:

Python-eksempel med Capsa

For TensorFlow-modeller fungerer Capsa med en dekoratør:

tensorflow

Innvirkningen for bedrifter og brukere
For NetCare og våre kunder betyr denne teknologien et enormt skritt fremover. Vi kan levere KI-applikasjoner som ikke bare er intelligente, men også trygge og mer forutsigbare med mindre sjanse for hallusinasjoner. Det hjelper organisasjoner med å ta bedre informerte beslutninger og redusere risikoen ved implementering av KI i forretningskritiske applikasjoner.

Konklusjon
MIT- teamet viser at fremtiden for KI ikke bare handler om å bli smartere, men spesielt også om å fungere tryggere og mer rettferdig. Hos NetCare tror vi at KI først blir virkelig verdifull når den er transparent om sine egne begrensninger. Med avanserte usikkerhetskvantifiseringsverktøy som Capsa kan du også bringe denne visjonen ut i praksis.

Gerard

Gerard er aktiv som AI-konsulent og leder. Med mye erfaring fra store organisasjoner kan han svært raskt analysere et problem og jobbe mot en løsning. Kombinert med en økonomisk bakgrunn sikrer han forretningsmessig forsvarlige valg.

AIR (Artificial Intelligence Robot)