היישום של בינה מלאכותית (AI) צומח במהירות ומשתלב יותר ויותר בחיי היומיום שלנו ובתעשיות בעלות סיכון גבוה כמו בריאות, טלקום ואנרגיה. אך עם כוח גדול מגיעה גם אחריות גדולה: מערכות AI עושות לעיתים טעויות או מספקות תשובות לא ודאיות שעלולות להיות להן השלכות משמעותיות.
Themis AI של MIT, שנוסדה ומוּנהגת על ידי הפרופסורית דניאלה רוס ממעבדת CSAIL, מציעה פתרון פורץ דרך. הטכנולוגיה שלהם מאפשרת למודלי AI 'לדעת את מה שהם לא יודעים'. משמעות הדבר היא שמערכות AI יכולות להצביע בעצמן מתי הן אינן בטוחות לגבי התחזיות שלהן, ובכך למנוע טעויות לפני שהן גורמות נזק.
מדוע זה כל כך חשוב?
מודלי AI רבים, אפילו מתקדמים, עלולים לעיתים להציג 'הזיות' – הם מספקים תשובות שגויות או בלתי מבוססות. במגזרים שבהם ההחלטות כבדות משקל, כמו אבחון רפואי או נהיגה אוטונומית, הדבר עלול להיות בעל השלכות הרסניות. Themis AI פיתחה את Capsa, פלטפורמה המיישמת כימות אי-ודאות (uncertainty quantification): היא מודדת ומכמתת את אי-הוודאות של פלטי ה-AI בצורה מפורטת ואמינה.
איך זה עובד?
על ידי הקניית מודעות לאי-ודאות (uncertainty awareness) למודלים, ניתן לספק לפלטים תווית סיכון או אמינות. לדוגמה: מכונית אוטונומית יכולה לציין שהיא אינה בטוחה לגבי מצב מסוים ולכן להפעיל התערבות אנושית. זה מגביר לא רק את הבטיחות, אלא גם את אמון המשתמשים במערכות בינה מלאכותית.
capsa_torch.wrapper() כאשר הפלט מורכב הן מהחיזוי והן מהסיכון:

סיכום
MIT צוות מראה שהעתיד של הבינה המלאכותית אינו רק קשור להיותה חכמה יותר, אלא בעיקר לתפקוד בטוח והוגן יותר. ב-NetCare אנו מאמינים שבינה מלאכותית הופכת לבעלת ערך אמיתי רק כאשר היא שקופה לגבי מגבלותיה שלה. באמצעות כלי כימות אי-ודאות מתקדמים כמו Capsa, תוכלו להגשים חזון זה גם בפועל.