Yapay zekanın (YZ) uygulaması hızla büyüyor ve günlük yaşamımızla sağlık, telekomünikasyon ve enerji gibi yüksek riskli sektörlere giderek daha fazla entegre oluyor. Ancak büyük güçle birlikte büyük sorumluluk da gelir: YZ sistemleri bazen hata yapabilir veya büyük sonuçları olabilecek belirsiz yanıtlar verebilir.
CSAIL laboratuvarından profesör Daniela Rus tarafından kurulan ve yönetilen MIT’nin Themis AI’si, çığır açan bir çözüm sunuyor. Teknolojileri, YZ modellerinin “neyi bilmediklerini bilmelerini” sağlıyor. Bu, YZ sistemlerinin tahminleri konusunda belirsiz olduklarında bunu kendilerinin belirtebileceği anlamına gelir ve zarar vermeden önce hatalar önlenebilir.
Bu neden bu kadar önemli?
Gelişmiş olanlar dahil birçok YZ modeli bazen sözde “halüsinasyonlar” gösterebilir – hatalı veya temelsiz yanıtlar verirler. Tıbbi teşhis veya otonom sürüş gibi kararların ağır bastığı sektörlerde bu yıkıcı sonuçlara yol açabilir. Themis AI, YZ çıktısının belirsizliğini ayrıntılı ve güvenilir bir şekilde ölçen ve ölçen Capsa platformunu geliştirdi.
Nasıl çalışır?
Modellere belirsizlik farkındalığı kazandırarak, çıktıları bir risk veya güvenilirlik etiketiyle sağlayabilirler. Örneğin, otonom bir araç bir durumdan emin olmadığını ve bu nedenle insan müdahalesini tetiklediğini belirtebilir. Bu sadece güvenliği artırmakla kalmaz, aynı zamanda kullanıcıların YZ sistemlerine olan güvenini de artırır.
capsa_torch.wrapper()
ile sarılması, çıktının hem tahmini hem de riski içermesi anlamına gelir:
Sonuç
MIT ekibi, YZ’nin geleceğinin sadece daha akıllı olmakla ilgili olmadığını, aynı zamanda daha güvenli ve daha adil işlev görmeyle ilgili olduğunu gösteriyor. NetCare olarak, YZ’nin kendi sınırlamaları konusunda şeffaf olduğunda gerçekten değerli olduğuna inanıyoruz. Capsa gibi gelişmiş belirsizlik ölçüm araçlarıyla bu vizyonu da hayata geçirebilirsiniz.