Yapay zekanın (YZ) uygulanması hızla büyüyor ve günlük yaşamımızla sağlık, telekomünikasyon ve enerji gibi kritik sektörlere giderek daha fazla iç içe geçiyor. Ancak büyük güç, büyük sorumluluk da getirir: YZ sistemleri bazen hata yapabilir veya büyük sonuçlar doğurabilecek belirsiz cevaplar verebilir.
CSAIL laboratuvarından profesör Daniela Rus'un kurucularından olduğu ve yönettiği MIT'nin Themis AI'si, çığır açan bir çözüm sunuyor. Teknolojileri, YZ modellerinin 'bilmediklerini bilmelerini' sağlıyor. Bu, YZ sistemlerinin tahminlerinden emin olmadıklarında bunu kendilerinin belirtebileceği anlamına gelir, böylece zarar vermeden önce hatalar önlenebilir.
Bu neden bu kadar önemli?
Gelişmiş olanlar bile birçok YZ modeli bazen sözde 'halüsinasyonlar' gösterebilir; hatalı veya temelsiz cevaplar verirler. Tıbbi teşhis veya otonom sürüş gibi kararların ağır bastığı sektörlerde bu, yıkıcı sonuçlar doğurabilir. Themis AI, belirsizlik ölçümünü uygulayan bir platform olan Capsa'yı geliştirdi: YZ çıktısının belirsizliğini ayrıntılı ve güvenilir bir şekilde ölçer ve nicelleştirir.
Nasıl çalışır?
Modellere belirsizlik farkındalığı kazandırılarak, çıktılar bir risk veya güvenilirlik etiketi ile sağlanabilir. Örneğin: otonom bir araç, bir durumdan emin olmadığını belirtebilir ve bu nedenle insan müdahalesini tetikleyebilir. Bu sadece güvenliği değil, aynı zamanda kullanıcıların yapay zeka sistemlerine olan güvenini de artırır.
capsa_torch.wrapper() çıktının hem tahmini hem de riski içerdiği şekilde gerçekleştirilir:

Sonuç
MIT ekip yapay zekanın geleceğinin sadece daha akıllı olmakla ilgili olmadığını, aynı zamanda daha güvenli ve daha adil çalışmakla da ilgili olduğunu gösteriyor. NetCare olarak biz, yapay zekanın kendi sınırlamaları konusunda şeffaf olduğunda gerçekten değerli olduğuna inanıyoruz. Capsa gibi gelişmiş belirsizlik ölçüm araçlarıyla bu vizyonu pratikte de uygulayabilirsiniz.