MIT team at work

MIT Ekibi Yapay Zeka Modellerine Bilmedikleri Şeyleri Öğretiyor.

Yapay zekanın (YZ) uygulaması hızla büyüyor ve günlük yaşamımızla sağlık, telekomünikasyon ve enerji gibi yüksek riskli sektörlere giderek daha fazla entegre oluyor. Ancak büyük güçle birlikte büyük sorumluluk da gelir: YZ sistemleri bazen hata yapabilir veya büyük sonuçları olabilecek belirsiz yanıtlar verebilir.

CSAIL laboratuvarından profesör Daniela Rus tarafından kurulan ve yönetilen MIT’nin Themis AI’si, çığır açan bir çözüm sunuyor. Teknolojileri, YZ modellerinin “neyi bilmediklerini bilmelerini” sağlıyor. Bu, YZ sistemlerinin tahminleri konusunda belirsiz olduklarında bunu kendilerinin belirtebileceği anlamına gelir ve zarar vermeden önce hatalar önlenebilir.

Bu neden bu kadar önemli?
Gelişmiş olanlar dahil birçok YZ modeli bazen sözde “halüsinasyonlar” gösterebilir – hatalı veya temelsiz yanıtlar verirler. Tıbbi teşhis veya otonom sürüş gibi kararların ağır bastığı sektörlerde bu yıkıcı sonuçlara yol açabilir. Themis AI, YZ çıktısının belirsizliğini ayrıntılı ve güvenilir bir şekilde ölçen ve ölçen Capsa platformunu geliştirdi.

 Nasıl çalışır?
Modellere belirsizlik farkındalığı kazandırarak, çıktıları bir risk veya güvenilirlik etiketiyle sağlayabilirler. Örneğin, otonom bir araç bir durumdan emin olmadığını ve bu nedenle insan müdahalesini tetiklediğini belirtebilir. Bu sadece güvenliği artırmakla kalmaz, aynı zamanda kullanıcıların YZ sistemlerine olan güvenini de artırır.

Teknik uygulama örnekleri

  • PyTorch ile entegrasyon söz konusu olduğunda, modelin capsa_torch.wrapper() ile sarılması, çıktının hem tahmini hem de riski içermesi anlamına gelir:

Python örneği capsa ile

TensorFlow modelleri için Capsa bir dekoratör ile çalışır:

tensorflow

Şirketler ve kullanıcılar için etki
NetCare ve müşterileri için bu teknoloji ileriye doğru büyük bir adımdır. Yalnızca akıllı değil, aynı zamanda güvenli ve daha öngörülebilir, daha az halüsinasyon olasılığı olan YZ uygulamaları sunabiliriz. Kuruluşların daha iyi bilgilendirilmiş kararlar almasına ve YZ’yi iş açısından kritik uygulamalara dahil ederken riskleri azaltmasına yardımcı olur.

Sonuç
MIT ekibi, YZ’nin geleceğinin sadece daha akıllı olmakla ilgili olmadığını, aynı zamanda daha güvenli ve daha adil işlev görmeyle ilgili olduğunu gösteriyor. NetCare olarak, YZ’nin kendi sınırlamaları konusunda şeffaf olduğunda gerçekten değerli olduğuna inanıyoruz. Capsa gibi gelişmiş belirsizlik ölçüm araçlarıyla bu vizyonu da hayata geçirebilirsiniz.

Gerard

Gerard, bir yapay zeka danışmanı ve yöneticisi olarak aktif rol almaktadır. Büyük kuruluşlardaki geniş deneyimiyle sorunları son derece hızlı bir şekilde analiz edebilir ve çözüm odaklı çalışabilir. Ekonomik geçmişiyle birleştiğinde, iş açısından sorumlu kararlar alınmasını sağlar.

AIR (Artificial Intelligence Robot)