人工知能(AI)の応用は急速に拡大しており、私たちの日常生活やヘルスケア、通信、エネルギーといった重要度の高い産業にますます深く浸透しています。しかし、大きな力には大きな責任が伴います。AIシステムは誤りを犯したり、重大な結果をもたらす可能性のある不確実な回答を出すことがあります。
CSAILラボのダニエラ・ルス教授が共同設立・指導するMITのThemis AIは、画期的なソリューションを提供しています。彼らの技術により、AIモデルは「自分が何を知らないかを知る」ことが可能になります。これは、AIシステムが予測に確信が持てない場合に自ら示すことができ、損害が発生する前に誤りを防ぐことを意味します。
なぜこれがそれほど重要なのでしょうか?
高度なモデルであっても、AIモデルは誤った、あるいは根拠のない回答を出す、いわゆる「ハルシネーション」を示すことがあります。医療診断や自動運転など、意思決定が重大な分野では、これは壊滅的な結果を招く可能性があります。Themis AIは、AIの出力の不確実性を詳細かつ信頼性の高い方法で測定・定量化するアンサーティティ・クオンティフィケーション(不確実性定量化)を適用するプラットフォーム「Capsa」を開発しました。
どのように機能するのですか?
モデルに不確実性認識を持たせることで、出力にリスクまたは信頼性のラベルを付けることができます。例えば、自動運転車は状況について確信が持てないことを示し、人間の介入を起動させることができます。これにより、安全性だけでなく、AIシステムに対するユーザーの信頼も高まります。
capsa_torch.wrapper() 出力が予測とリスクの両方で構成される場合:

結論
MIT チーム は、AIの未来は単に賢くなることだけでなく、より安全かつ公正に機能することにかかっていることを示しています。NetCareでは、AIがその限界について透明性を持つようになって初めて真に価値あるものになると信じています。Capsaのような高度な不確実性定量化ツールを使用することで、貴社もそのビジョンを実践に移すことができます。