A aplicação da inteligência artificial (IA) está a crescer rapidamente e está cada vez mais entrelaçada com a nossa vida quotidiana e indústrias de alto risco, como saúde, telecomunicações e energia. Mas com grande poder vem também grande responsabilidade: os sistemas de IA cometem erros ou fornecem respostas incertas que podem ter grandes consequências.
O Themis AI do MIT, cofundado e liderado pela Professora Daniela Rus do laboratório CSAIL, oferece uma solução inovadora. A sua tecnologia permite que os modelos de IA “sabem o que não sabem”. Isto significa que os sistemas de IA podem indicar quando estão incertos sobre as suas previsões, prevenindo erros antes que causem danos.
Por que é que isto é tão importante?
Muitos modelos de IA, mesmo os avançados, podem ocasionalmente exibir as chamadas “haluicinações”—fornecendo respostas incorretas ou infundadas. Em setores onde as decisões são cruciais, como diagnóstico médico ou condução autónoma, isto pode ter consequências desastrosas. O Themis AI desenvolveu o Capsa, uma plataforma que aplica a quantificação de incerteza: mede e quantifica a incerteza da saída da IA de forma detalhada e fiável.
Como funciona?
Ao dotar os modelos de consciência da incerteza, estes podem fornecer às saídas um rítulo de risco ou confiança. Por exemplo: um carro autónomo pode indicar que não está seguro sobre uma situação e, portanto, ativar uma intervenção humana. Isto não só aumenta a segurança, mas também a confiança dos utilizadores nos sistemas de IA.
capsa_torch.wrapper() onde a saída consiste tanto na previsão quanto no risco:

Conclusão
O MIT equipa mostra que o futuro da IA não se trata apenas de se tornar mais inteligente, mas principalmente de funcionar de forma mais segura e justa. Na NetCare, acreditamos que a IA só se torna verdadeiramente valiosa quando é transparente sobre as suas próprias limitações. Com ferramentas avançadas de quantificação de incerteza como o Capsa, também pode concretizar essa visão.