MIT team at work

MITチームがAIモデルに未知のことを教える

人工知能(AI)の応用は急速に拡大しており、私たちの日常生活や、ヘルスケア、通信、エネルギーといった重要産業にますます深く浸透しています。しかし、大きな力には大きな責任が伴います。AIシステムは時に間違いを犯したり、不確かな回答を生成したりすることがあり、それが重大な結果を招く可能性があります。

MITのThemis AIは、CSAILラボのダニエラ・ラス教授が共同設立し、主導するプロジェクトであり、画期的なソリューションを提供しています。同社の技術は、AIモデルが「自分が知らないことを知る」ことを可能にします。これは、AIシステムが自身の予測に確信が持てない場合にそれを表明できることを意味し、損害が発生する前にエラーを防ぐことができます。

なぜこれが重要なのでしょうか?
高度なAIモデルでさえ、時に「幻覚」と呼ばれる現象を起こすことがあります。これは、誤った情報や根拠のない回答を生成することです。医療診断や自動運転など、意思決定が極めて重要となる分野では、これは壊滅的な結果を招く可能性があります。Themis AIは、AIの出力を詳細かつ信頼性の高い方法で測定・定量化する不確実性定量化(uncertainty quantification)を適用するプラットフォームであるCapsaを開発しました。

 どのように機能するのでしょうか?
モデルに不確実性認識(uncertainty awareness)を教えることで、出力にリスクまたは信頼性ラベルを付けることができます。例えば、自動運転車は状況に確信が持てないことを示し、人間の介入を促すことができます。これにより、安全性だけでなく、AIシステムに対するユーザーの信頼も向上します。

技術実装の例

  • PyTorchとの統合では、capsa_torch.wrapper() を介してモデルをラップし、出力は予測とリスクの両方になります。

Pythonのキャップサの例

TensorFlowモデルの場合、Capsaはデコレータで動作します。

TensorFlow

企業およびユーザーへの影響
NetCareとその顧客にとって、この技術は大きな前進を意味します。私たちは、インテリジェントであるだけでなく、幻覚の可能性を減らし、より安全で予測可能なAIアプリケーションを提供できます。これは、組織がより情報に基づいた意思決定を行い、ビジネスに不可欠なアプリケーションにAIを導入する際のリスクを軽減するのに役立ちます。

結論
MITのチームは、AIの未来は単に賢くなることだけでなく、より安全で公正に機能することにかかっていることを示しています。NetCareでは、AIが自身の限界について透明性を持つようになって初めて、真に価値あるものになると信じています。Capsaのような高度な不確実性定量化ツールを使用することで、このビジョンを実践に移すことができます。

Gerard

ジェラールはAIコンサルタント兼マネージャーとして活躍しています。大手組織での豊富な経験により、問題を非常に迅速に解き明かし、解決策へと導くことができます。経済学のバックグラウンドと相まって、ビジネスとして責任ある選択を確実にします。

AIR (Artificial Intelligence Robot)