MIT doet onderzoek om AI slimmer te maken

Equipe do MIT Ensina Modelos de IA Sobre o Que Eles Ainda Não Sabiam

A aplicação da inteligência artificial (IA) está a crescer rapidamente e está cada vez mais entrelaçada com a nossa vida quotidiana e indústrias de alto risco, como saúde, telecomunicações e energia. Mas com grande poder vem também grande responsabilidade: os sistemas de IA cometem erros ou fornecem respostas incertas que podem ter grandes consequências.

O Themis AI do MIT, cofundado e liderado pela Professora Daniela Rus do laboratório CSAIL, oferece uma solução inovadora. A sua tecnologia permite que os modelos de IA “sabem o que não sabem”. Isto significa que os sistemas de IA podem indicar quando estão incertos sobre as suas previsões, prevenindo erros antes que causem danos.

Por que é que isto é tão importante?
Muitos modelos de IA, mesmo os avançados, podem ocasionalmente exibir as chamadas “haluicinações”—fornecendo respostas incorretas ou infundadas. Em setores onde as decisões são cruciais, como diagnóstico médico ou condução autónoma, isto pode ter consequências desastrosas. O Themis AI desenvolveu o Capsa, uma plataforma que aplica a quantificação de incerteza: mede e quantifica a incerteza da saída da IA de forma detalhada e fiável.

 Como funciona?
Ao dotar os modelos de consciência da incerteza, estes podem fornecer às saídas um rítulo de risco ou confiança. Por exemplo: um carro autónomo pode indicar que não está seguro sobre uma situação e, portanto, ativar uma intervenção humana. Isto não só aumenta a segurança, mas também a confiança dos utilizadores nos sistemas de IA.

Exemplos de implementação técnica

  • Ao integrar com PyTorch, o encapsulamento do modelo via capsa_torch.wrapper() onde a saída consiste tanto na previsão quanto no risco:

Python example met capsa

Para modelos TensorFlow, o Capsa utiliza um decorador:

tensorflow

O impacto para empresas e utilizadores
Para a NetCare e seus clientes, esta tecnologia representa um enorme passo em frente. Podemos fornecer aplicações de IA que não são apenas inteligentes, mas também seguras e mais previsíveis, com menor probabilidade de alucinações. Ajuda as organizações a tomar decisões mais fundamentadas e a reduzir os riscos ao implementar IA em aplicações críticas para o negócio.

Conclusão
O MIT equipa mostra que o futuro da IA não se trata apenas de se tornar mais inteligente, mas principalmente de funcionar de forma mais segura e justa. Na NetCare, acreditamos que a IA só se torna verdadeiramente valiosa quando é transparente sobre as suas próprias limitações. Com ferramentas avançadas de quantificação de incerteza como o Capsa, também pode concretizar essa visão.

Gerard

Gerard atua como consultor e gestor de IA. Com vasta experiência em grandes organizações, ele consegue desvendar problemas e trabalhar em direção a uma solução com grande rapidez. Combinado com sua formação em economia, ele garante escolhas comercialmente sólidas.

AIR (Robô Inteligência Artificial)