MIT doet onderzoek om AI slimmer te maken

MIT-ის გუნდი ასწავლის AI მოდელებს იმას, რაც მათ ჯერ არ იცოდნენ

ხელოვნური ინტელექტის (AI) გამოყენება სწრაფად იზრდება და სულ უფრო მეტად ერწყმის ჩვენს ყოველდღიურ ცხოვრებასა და მაღალი რისკის ინდუსტრიებს, როგორიცაა ჯანდაცვა, ტელეკომუნიკაციები და ენერგეტიკა. მაგრამ დიდი ძალა დიდ პასუხისმგებლობასაც გულისხმობს: AI სისტემები ზოგჯერ შეცდომებს უშვებენ ან არასაიმედო პასუხებს იძლევიან, რამაც შეიძლება სერიოზული შედეგები გამოიწვიოს.

MIT-ის Themis AI, რომელიც თანადაფუძნებულია და ხელმძღვანელობს პროფესორი დანიელა რუსის მიერ CSAIL ლაბორატორიიდან, გვთავაზობს გარდამტეხ გადაწყვეტას. მათი ტექნოლოგია AI მოდელებს საშუალებას აძლევს, „იცოდნენ, რა არ იციან“. ეს ნიშნავს, რომ AI სისტემებს შეუძლიათ თავად მიუთითონ, როდესაც მათი პროგნოზების მიმართ უნდობლობა აქვთ, რაც ხელს უშლის ზიანის მიყენებამდე შეცდომების დაშვებას.

რატომ არის ეს ასე მნიშვნელოვანი?
Veel AI-modellen, zelfs geavanceerde, kunnen soms zogenaamde ‘hallucinaties’ vertonen—ze geven foutieve of ongefundeerde antwoorden. In sectoren waar beslissingen zwaar wegen, zoals medische diagnose of autonoom rijden, kan dit desastreuze gevolgen hebben. Themis AI ontwikkelde Capsa, een platform dat *uncertainty quantification* toepast: het meet en kwantificeert de onzekerheid van AI-uitvoer op een gedetailleerde en betrouwbare manier.

 როგორ მუშაობს?
Door modellen *uncertainty awareness* bij te brengen, kunnen ze outputs voorzien van een risico- of betrouwbaarheidslabel. Bijvoorbeeld: een zelfrijdende auto kan aangeven dat het niet zeker is over een situatie en daarom een menselijke interventie activeren. Dit verhoogt niet alleen de veiligheid, maar ook het vertrouwen van gebruikers in AI-systemen.

Voorbeelden van technische implementatie

  • PyTorch-თან ინტეგრაციისას მოდელის შეფუთვა ხდება capsa_torch.wrapper() როდესაც შედეგი მოიცავს როგორც პროგნოზს, ასევე რისკს:

Python example met capsa

Voor TensorFlow-modellen werkt Capsa met een decorator:

tensorflow

De impact voor bedrijven en gebruikers
Voor NetCare en haar klanten betekent deze technologie een enorme stap vooruit. Wij kunnen AI-toepassingen leveren die niet alleen intelligent zijn, maar ook veilig en beter voorspelbaar met minder kans op hallucinaties. Het helpt organisaties bij het nemen van beter onderbouwde beslissingen en het reduceren van risico's bij het invoeren van AI in bedrijfskritische applicaties.

დასკვნა
MIT გუნდი laat zien dat de toekomst van AI niet alleen draait om slimmer worden, maar vooral ook om veiliger en eerlijker functioneren. Bij NetCare geloven we dat AI pas écht waardevol wordt als het transparant is over zijn eigen beperkingen. Met geavanceerde *uncertainty quantification*-tools zoals Capsa kunt u die visie ook in de praktijk brengen.

გერარდი

გერარდი მუშაობს როგორც AI კონსულტანტი და მენეჯერი. დიდი ორგანიზაციებში მუშაობის მრავალწლიანი გამოცდილებით, მას შეუძლია ძალიან სწრაფად გაშიფროს პრობლემა და მიაღწიოს მის გადაწყვეტას. ეკონომიკურ განათლებასთან კომბინაციით, ის უზრუნველყოფს ბიზნესის თვალსაზრისით გამართულ არჩევანს.

AIR (ხელოვნური ინტელექტის რობოტი)