MIT team at work

MIT 团队教 AI 模型学习它们不知道的东西。

人工智能(AI)的应用正在迅速增长,并日益融入我们的日常生活以及医疗保健、电信和能源等高风险行业。然而,强大的力量伴随着巨大的责任:AI 系统有时会出错或给出不确定的答案,而这些答案可能会产生重大影响。

麻省理工学院的 Themis AI,由 CSAIL 实验室的 Daniela Rus 教授联合创立并领导,提供了一项开创性的解决方案。他们的技术使 AI 模型能够“知道自己不知道什么”。这意味着 AI 系统可以自行表明其预测的不确定性,从而在造成损害之前避免错误。

为什么这如此重要?
许多 AI 模型,即使是先进的模型,有时也会出现所谓的“幻觉”——它们会给出错误或毫无根据的答案。在决策至关重要的领域,例如医学诊断或自动驾驶,这可能会导致灾难性的后果。Themis AI 开发了 Capsa,一个应用不确定性量化的平台:它以详细且可靠的方式测量和量化 AI 输出的不确定性。

 它是如何工作的?
通过赋予模型不确定性感知能力,它们可以为输出添加风险或置信度标签。例如:一辆自动驾驶汽车可以表明它对某个情况不确定,因此需要人工干预。这不仅提高了安全性,还增强了用户对 AI 系统的信任。

技术实现示例

  • 与 PyTorch 集成时,通过 capsa_torch.wrapper() 对模型进行封装,输出包括预测和风险:

Python 示例,带 Capsa

对于 TensorFlow 模型,Capsa 使用装饰器:

TensorFlow

对企业和用户的影响
对于 NetCare 及其客户而言,这项技术意味着向前迈出了巨大的一步。我们可以提供不仅智能,而且安全、可预测性更强、幻觉更少的 AI 应用。它有助于组织做出更明智的决策,并在将 AI 引入关键业务应用程序时降低风险。

结论
麻省理工学院的 团队 表明,AI 的未来不仅在于变得更智能,更在于更安全、更公平地运行。在 NetCare,我们相信只有当 AI 对自身的局限性保持透明时,它才能真正有价值。借助 Capsa 等先进的不确定性量化工具,您也可以将这一愿景变为现实。

Gerard

Gerard 是一位活跃的 AI 顾问和经理。他在大型组织拥有丰富的经验,能够非常迅速地剖析问题并找到解决方案。结合其经济学背景,他能确保做出符合商业利益的选择。

AIR (Artificial Intelligence Robot)