MIT team at work

El equipo del MIT enseña a los modelos de IA lo que aún no sabían.

La aplicación de la inteligencia artificial (IA) está creciendo rápidamente y se entrelaza cada vez más con nuestra vida cotidiana y con industrias de alto riesgo como la atención médica, las telecomunicaciones y la energía. Pero con un gran poder viene una gran responsabilidad: los sistemas de IA a veces cometen errores o dan respuestas inciertas que pueden tener consecuencias importantes.

Themis AI del MIT, cofundada y dirigida por la profesora Daniela Rus del laboratorio CSAIL, ofrece una solución innovadora. Su tecnología permite a los modelos de IA “saber lo que no saben”. Esto significa que los sistemas de IA pueden indicar cuándo no están seguros de sus predicciones, lo que permite evitar errores antes de que causen daños.

¿Por qué es esto tan importante?
Muchos modelos de IA, incluso los avanzados, a veces pueden presentar las llamadas “alucinaciones”, es decir, dan respuestas erróneas o infundadas. En sectores donde las decisiones tienen un gran peso, como el diagnóstico médico o la conducción autónoma, esto puede tener consecuencias desastrosas. Themis AI desarrolló Capsa, una plataforma que aplica la cuantificación de la incertidumbre: mide y cuantifica la incertidumbre de la salida de la IA de manera detallada y confiable.

 ¿Cómo funciona?
Al enseñar a los modelos la conciencia de la incertidumbre, pueden acompañar las salidas con una etiqueta de riesgo o confianza. Por ejemplo: un coche autónomo puede indicar que no está seguro de una situación y, por lo tanto, activar una intervención humana. Esto no solo aumenta la seguridad, sino también la confianza de los usuarios en los sistemas de IA.

Ejemplos de implementación técnica

  • Al integrarse con PyTorch, el modelo se envuelve a través de capsa_torch.wrapper(), donde la salida consta tanto de la predicción como del riesgo:

Ejemplo de Python con Capsa

Para los modelos de TensorFlow, Capsa funciona con un decorador:

tensorflow

El impacto para empresas y usuarios
Para NetCare y sus clientes, esta tecnología representa un enorme paso adelante. Podemos ofrecer aplicaciones de IA que no solo son inteligentes, sino también seguras y más predecibles, con menos posibilidades de alucinaciones. Ayuda a las organizaciones a tomar decisiones mejor fundamentadas y a reducir los riesgos al implementar la IA en aplicaciones críticas para el negocio.

Conclusión
El equipo del MIT equipo demuestra que el futuro de la IA no se trata solo de ser más inteligente, sino sobre todo de funcionar de manera más segura y justa. En NetCare, creemos que la IA solo se vuelve verdaderamente valiosa cuando es transparente sobre sus propias limitaciones. Con herramientas avanzadas de cuantificación de la incertidumbre como Capsa, usted también puede poner en práctica esa visión.

Gerard

Gerard trabaja como consultor y gestor de IA. Con una gran experiencia en grandes organizaciones, es capaz de desentrañar rápidamente un problema y avanzar hacia una solución. Combinado con una formación económica, garantiza decisiones comercialmente responsables.

AIR (Artificial Intelligence Robot)