MIT doet onderzoek om AI slimmer te maken

MIT-team lär AI-modeller vad de ännu inte visste

Tillämpningen av artificiell intelligens (AI) växer snabbt och blir alltmer sammanflätad med våra dagliga liv och kritiska branscher som hälsovård, telekom och energi. Men med stor kraft kommer också stort ansvar: AI-system gör ibland fel eller ger osäkra svar som kan få stora konsekvenser.

MIT:s Themis AI, medgrundat och lett av professor Daniela Rus från CSAIL-labbet, erbjuder en banbrytande lösning. Deras teknik gör det möjligt för AI-modeller att ‘veta vad de inte vet’. Detta innebär att AI-system själva kan indikera när de är osäkra på sina förutsägelser, vilket kan förhindra fel innan de orsakar skada.

Varför är detta så viktigt?
Många AI-modeller, även avancerade, kan ibland uppvisa så kallade “hallucinationer” – de ger felaktiga eller ogrundade svar. Inom sektorer där beslut har stor vikt, som medicinsk diagnos eller autonom körning, kan detta få katastrofala följder. Themis AI utvecklade Capsa, en plattform som tillämpar osäkerhetskvantifiering (uncertainty quantification): den mäter och kvantifierar osäkerheten i AI-utdata på ett detaljerat och tillförlitligt sätt.

 Hur fungerar det?
Genom att ge modellerna medvetenhet om osäkerhet kan de förse utdata med en risk- eller tillförlitlighetsmärkning. Till exempel kan en självkörande bil indikera att den är osäker på en situation och därmed aktivera mänsklig inblandning. Detta ökar inte bara säkerheten utan även användarnas förtroende för AI-system.

Exempel på teknisk implementering

  • Vid integrering med PyTorch innebär inpackningen av modellen via capsa_torch.wrapper() där utdata består av både förutsägelsen och risken:

Python example met capsa

För TensorFlow-modeller använder Capsa en dekoratör:

tensorflow

Effekten för företag och användare
För NetCare och dess kunder innebär denna teknik ett enormt steg framåt. Vi kan leverera AI-applikationer som inte bara är intelligenta utan också säkra och mer förutsägbara med mindre risk för hallucinationer. Det hjälper organisationer att fatta mer välgrundade beslut och minska riskerna vid implementering av AI i affärskritiska applikationer.

Slutsats
MIT team visar att framtiden för AI inte bara handlar om att bli smartare, utan framför allt om att fungera säkrare och mer rättvist. På NetCare tror vi att AI blir genuint värdefull först när den är transparent med sina egna begränsningar. Med avancerade verktyg för osäkerhetskvantifiering som Capsa kan ni också omsätta den visionen i praktiken.

Gerard

Gerard är aktiv som AI-konsult och chef. Med stor erfarenhet från stora organisationer kan han snabbt analysera ett problem och arbeta fram en lösning. I kombination med sin ekonomiska bakgrund säkerställer han affärsmässigt sunda val.

AIR (Artificiell Intelligens Robot)