MIT team at work

Equipe do MIT ensina modelos de IA o que eles ainda não sabiam.

A aplicação da inteligência artificial (IA) está a crescer rapidamente, tornando-se cada vez mais entrelaçada com o nosso dia a dia e com indústrias de alto risco como a saúde, telecomunicações e energia. Mas com grande poder vem grande responsabilidade: os sistemas de IA por vezes cometem erros ou fornecem respostas incertas que podem ter consequências significativas.

O Themis AI do MIT, cofundado e liderado pela professora Daniela Rus do laboratório CSAIL, oferece uma solução inovadora. A sua tecnologia permite que os modelos de IA “saibam o que não sabem”. Isto significa que os sistemas de IA podem indicar quando estão incertos sobre as suas previsões, permitindo evitar erros antes que causem danos.

Porque é isto tão importante?
Muitos modelos de IA, mesmo os avançados, podem por vezes apresentar as chamadas “alucinações” — fornecem respostas incorretas ou infundadas. Em setores onde as decisões têm um peso elevado, como o diagnóstico médico ou a condução autónoma, isto pode ter consequências desastrosas. O Themis AI desenvolveu o Capsa, uma plataforma que aplica a quantificação de incerteza: mede e quantifica a incerteza da saída da IA de forma detalhada e fiável.

 Como funciona?
Ao incutir nos modelos a consciência da incerteza, estes podem fornecer rótulos de risco ou confiança às suas saídas. Por exemplo: um carro autónomo pode indicar que não tem a certeza sobre uma situação e, por isso, ativar uma intervenção humana. Isto não só aumenta a segurança, como também a confiança dos utilizadores nos sistemas de IA.

Exemplos de implementação técnica

  • Ao integrar com PyTorch, o modelo é envolvido através de capsa_torch.wrapper(), onde a saída consiste tanto na previsão como no risco:

Exemplo Python com Capsa

Para modelos TensorFlow, o Capsa funciona com um decorador:

tensorflow

O impacto para empresas e utilizadores
Para a NetCare e os seus clientes, esta tecnologia representa um enorme passo em frente. Podemos fornecer aplicações de IA que não são apenas inteligentes, mas também seguras e mais previsíveis, com menor probabilidade de alucinações. Ajuda as organizações a tomar decisões mais bem fundamentadas e a reduzir riscos ao introduzir IA em aplicações críticas para o negócio.

Conclusão
A equipa do MIT demonstra que o futuro da IA não se trata apenas de se tornar mais inteligente, mas principalmente de funcionar de forma mais segura e justa. Na NetCare, acreditamos que a IA só se torna verdadeiramente valiosa quando é transparente sobre as suas próprias limitações. Com ferramentas avançadas de quantificação de incerteza como o Capsa, também pode colocar essa visão em prática.

Gerard

Gerard atua como consultor e gestor de IA. Com vasta experiência em grandes organizações, ele consegue desvendar rapidamente um problema e trabalhar em direção a uma solução. Combinado com uma formação económica, ele garante escolhas comercialmente responsáveis.

AIR (Artificial Intelligence Robot)