MIT team at work

Il team MIT insegna ai modelli AI ciò che non sapevano.

L’applicazione dell’intelligenza artificiale (AI) è in rapida crescita e si intreccia sempre più con la nostra vita quotidiana e con settori ad alto rischio come la sanità, le telecomunicazioni e l’energia. Ma con grande potere arriva anche grande responsabilità: i sistemi di AI commettono talvolta errori o forniscono risposte incerte che possono avere conseguenze significative.

Themis AI del MIT, co-fondata e guidata dalla professoressa Daniela Rus del laboratorio CSAIL, offre una soluzione innovativa. La loro tecnologia consente ai modelli di AI di “sapere ciò che non sanno”. Ciò significa che i sistemi di AI possono indicare quando sono incerti riguardo alle loro previsioni, prevenendo errori prima che causino danni.

Perché è così importante?
Molti modelli di AI, anche quelli avanzati, possono talvolta presentare le cosiddette “allucinazioni”, ovvero fornire risposte errate o infondate. In settori in cui le decisioni hanno un peso elevato, come la diagnosi medica o la guida autonoma, ciò può avere conseguenze disastrose. Themis AI ha sviluppato Capsa, una piattaforma che applica la quantificazione dell’incertezza: misura e quantifica l’incertezza dell’output dell’AI in modo dettagliato e affidabile.

 Come funziona?
Insegnando ai modelli la consapevolezza dell’incertezza, è possibile corredare gli output con un’etichetta di rischio o affidabilità. Ad esempio, un’auto a guida autonoma potrebbe indicare di non essere sicura di una situazione e quindi attivare un intervento umano. Ciò non solo aumenta la sicurezza, ma anche la fiducia degli utenti nei sistemi di AI.

Esempi di implementazione tecnica

  • Nell’integrazione con PyTorch, il modello viene “wrappato” tramite capsa_torch.wrapper(), con l’output che include sia la previsione che il rischio:

Esempio Python con Capsa

Per i modelli TensorFlow, Capsa funziona con un decoratore:

tensorflow

L’impatto per aziende e utenti
Per NetCare e i suoi clienti, questa tecnologia rappresenta un enorme passo avanti. Possiamo fornire applicazioni di AI che non sono solo intelligenti, ma anche sicure e più prevedibili, con minori probabilità di allucinazioni. Aiuta le organizzazioni a prendere decisioni più informate e a ridurre i rischi nell’introduzione dell’AI in applicazioni critiche per il business.

Conclusione
Il team del MIT team dimostra che il futuro dell’AI non riguarda solo l’intelligenza, ma soprattutto il funzionamento sicuro ed equo. Noi di NetCare crediamo che l’AI diventi veramente preziosa solo quando è trasparente riguardo ai propri limiti. Con strumenti avanzati di quantificazione dell’incertezza come Capsa, potete anche voi mettere in pratica questa visione.

Gerard

Gerard opera come consulente e manager AI. Con una vasta esperienza in grandi organizzazioni, è in grado di analizzare rapidamente un problema e lavorare verso una soluzione. Combinato con un background economico, garantisce scelte commercialmente valide.

AIR (Artificial Intelligence Robot)