Tillämpningen av artificiell intelligens (AI) växer snabbt och blir alltmer sammanflätad med vårt dagliga liv och branscher med höga insatser, såsom hälsovård, telekom och energi. Men med stor kraft kommer också stort ansvar: AI-system gör ibland fel eller ger osäkra svar som kan få stora konsekvenser.
MIT:s Themis AI, som medgrundades och leds av professor Daniela Rus från CSAIL-labbet, erbjuder en banbrytande lösning. Deras teknologi gör det möjligt för AI-modeller att “veta vad de inte vet”. Detta innebär att AI-system själva kan ange när de är osäkra på sina förutsägelser, vilket kan förhindra fel innan de orsakar skada.
Varför är detta så viktigt?
Många AI-modeller, även avancerade, kan ibland uppvisa så kallade “hallucinationer” – de ger felaktiga eller ogrundade svar. I sektorer där beslut har stor vikt, som medicinsk diagnostik eller autonom körning, kan detta få katastrofala följder. Themis AI utvecklade Capsa, en plattform som tillämpar osäkerhetskvantifiering: den mäter och kvantifierar osäkerheten i AI-utdata på ett detaljerat och tillförlitligt sätt.
Hur fungerar det?
Genom att ge modeller osäkerhetsmedvetenhet kan de förse utdata med en risk- eller tillförlitlighetsmärkning. Till exempel kan en självkörande bil ange att den är osäker på en situation och därför aktivera mänsklig intervention. Detta ökar inte bara säkerheten, utan också användarnas förtroende för AI-system.
capsa_torch.wrapper()
där utdata består av både förutsägelsen och risken:
Slutsats
MIT:s team visar att framtiden för AI inte bara handlar om att bli smartare, utan framför allt om att fungera säkrare och mer rättvist. På NetCare tror vi att AI först blir verkligt värdefull när den är transparent med sina egna begränsningar. Med avancerade verktyg för osäkerhetskvantifiering som Capsa kan du också omsätta den visionen i praktiken.