MIT team at work

L'équipe MIT apprend aux modèles d'IA ce qu'ils ignoraient.

L’application de l’intelligence artificielle (IA) connaît une croissance rapide et s’intègre de plus en plus dans notre vie quotidienne et dans des secteurs à enjeux élevés tels que la santé, les télécommunications et l’énergie. Mais qui dit grand pouvoir dit aussi grande responsabilité : les systèmes d’IA commettent parfois des erreurs ou fournissent des réponses incertaines qui peuvent avoir des conséquences majeures.

Themis AI du MIT, cofondé et dirigé par la professeure Daniela Rus du laboratoire CSAIL, propose une solution révolutionnaire. Leur technologie permet aux modèles d’IA de « savoir ce qu’ils ne savent pas ». Cela signifie que les systèmes d’IA peuvent eux-mêmes indiquer quand ils sont incertains de leurs prédictions, évitant ainsi les erreurs avant qu’elles ne causent des dommages.

Pourquoi est-ce si important ?
De nombreux modèles d’IA, même les plus avancés, peuvent parfois présenter des « hallucinations » – ils fournissent des réponses erronées ou non fondées. Dans les secteurs où les décisions ont un poids considérable, comme le diagnostic médical ou la conduite autonome, cela peut avoir des conséquences désastreuses. Themis AI a développé Capsa, une plateforme qui applique l’« uncertainty quantification » : elle mesure et quantifie l’incertitude des sorties de l’IA de manière détaillée et fiable.

 Comment cela fonctionne-t-il ?
En dotant les modèles d’une conscience de l’incertitude, il est possible de joindre un label de risque ou de confiance aux sorties. Par exemple : une voiture autonome pourrait indiquer qu’elle n’est pas certaine d’une situation et activer une intervention humaine. Cela augmente non seulement la sécurité, mais aussi la confiance des utilisateurs dans les systèmes d’IA.

Exemples d’implémentation technique

  • Lors de l’intégration avec PyTorch, le modèle est encapsulé via capsa_torch.wrapper(), la sortie comprenant à la fois la prédiction et le risque :

Python exemple avec capsa

Pour les modèles TensorFlow, Capsa fonctionne avec un décorateur :

tensorflow

L’impact pour les entreprises et les utilisateurs
Pour NetCare et ses clients, cette technologie représente une avancée considérable. Nous pouvons fournir des applications d’IA qui sont non seulement intelligentes, mais aussi sûres et plus prévisibles, avec moins de risques d’hallucinations. Elle aide les organisations à prendre des décisions mieux éclairées et à réduire les risques lors de l’intégration de l’IA dans des applications critiques pour l’entreprise.

Conclusion
L’équipe du MIT équipe démontre que l’avenir de l’IA ne consiste pas seulement à devenir plus intelligent, mais surtout à fonctionner de manière plus sûre et plus équitable. Chez NetCare, nous croyons que l’IA n’acquiert une réelle valeur que lorsqu’elle est transparente quant à ses propres limites. Avec des outils avancés d’« uncertainty quantification » comme Capsa, vous pouvez également mettre cette vision en pratique.

Gerard

Gerard est actif en tant que consultant et manager en IA. Fort de son expérience au sein de grandes organisations, il est capable de démêler rapidement un problème et de travailler à sa résolution. Combiné à une formation économique, il garantit des choix commercialement responsables.

AIR (Artificial Intelligence Robot)