人工知能(AI)の応用は急速に拡大しており、私たちの日常生活や、ヘルスケア、通信、エネルギーといった重要産業にますます深く浸透しています。しかし、大きな力には大きな責任が伴います。AIシステムは時に間違いを犯したり、不確かな回答を生成したりすることがあり、それが重大な結果を招く可能性があります。
MITのThemis AIは、CSAILラボのダニエラ・ラス教授が共同設立し、主導するプロジェクトであり、画期的なソリューションを提供しています。同社の技術は、AIモデルが「自分が知らないことを知る」ことを可能にします。これは、AIシステムが自身の予測に確信が持てない場合にそれを表明できることを意味し、損害が発生する前にエラーを防ぐことができます。
なぜこれが重要なのでしょうか?
高度なAIモデルでさえ、時に「幻覚」と呼ばれる現象を起こすことがあります。これは、誤った情報や根拠のない回答を生成することです。医療診断や自動運転など、意思決定が極めて重要となる分野では、これは壊滅的な結果を招く可能性があります。Themis AIは、AIの出力を詳細かつ信頼性の高い方法で測定・定量化する不確実性定量化(uncertainty quantification)を適用するプラットフォームであるCapsaを開発しました。
どのように機能するのでしょうか?
モデルに不確実性認識(uncertainty awareness)を教えることで、出力にリスクまたは信頼性ラベルを付けることができます。例えば、自動運転車は状況に確信が持てないことを示し、人間の介入を促すことができます。これにより、安全性だけでなく、AIシステムに対するユーザーの信頼も向上します。
capsa_torch.wrapper()
を介してモデルをラップし、出力は予測とリスクの両方になります。
結論
MITのチームは、AIの未来は単に賢くなることだけでなく、より安全で公正に機能することにかかっていることを示しています。NetCareでは、AIが自身の限界について透明性を持つようになって初めて、真に価値あるものになると信じています。Capsaのような高度な不確実性定量化ツールを使用することで、このビジョンを実践に移すことができます。