인공지능(AI)의 적용은 빠르게 성장하고 있으며, 헬스케어, 통신, 에너지와 같은 고위험 산업과 우리 일상생활에 점점 더 깊숙이 얽히고 있습니다. 하지만 큰 힘에는 큰 책임이 따릅니다. AI 시스템은 때때로 실수를 하거나 불확실한 답변을 제공하여 중대한 결과를 초래할 수 있습니다.
MIT의 Themis AI는 Daniela Rus 교수(CSAIL 연구소)가 공동 설립하고 이끌고 있으며, 획기적인 솔루션을 제공합니다. 이 기술은 AI 모델이 '자신이 모르는 것을 알도록' 돕습니다. 즉, AI 시스템이 예측에 대해 확신이 없을 때 스스로 이를 표시할 수 있게 하여, 피해가 발생하기 전에 오류를 방지할 수 있습니다.
이것이 왜 중요할까요?
많은 AI 모델, 심지어 최첨단 모델조차도 때때로 '환각(hallucinations)'을 보일 수 있습니다. 즉, 잘못되거나 근거 없는 답변을 제공하는 것입니다. 의료 진단이나 자율 주행과 같이 결정의 무게가 무거운 분야에서는 이것이 치명적인 결과를 초래할 수 있습니다. Themis AI는 불확실성 정량화(uncertainty quantification)를 적용하는 플랫폼인 Capsa를 개발했습니다. 이 플랫폼은 AI 출력의 불확실성을 상세하고 신뢰할 수 있는 방식으로 측정하고 정량화합니다.
어떻게 작동하나요?
모델에 불확실성 인식을 부여함으로써, 출력에 위험 또는 신뢰도 레이블을 붙일 수 있습니다. 예를 들어, 자율 주행차는 특정 상황에 대해 확신이 없음을 표시하고 인간의 개입을 활성화할 수 있습니다. 이는 안전성을 높일 뿐만 아니라 AI 시스템에 대한 사용자 신뢰도 향상으로 이어집니다.
capsa_torch.wrapper() 출력이 예측과 위험을 모두 포함하는 경우:

결론
MIT 팀 는 AI의 미래가 단순히 더 똑똑해지는 것에만 있는 것이 아니라, 더 안전하고 공정하게 작동하는 데 달려 있음을 보여줍니다. NetCare는 AI가 자체적인 한계에 대해 투명할 때 비로소 진정한 가치를 발휘한다고 믿습니다. Capsa와 같은 고급 불확실성 정량화 도구를 사용하면 귀사도 이러한 비전을 실제로 구현할 수 있습니다.