Η εφαρμογή της τεχνητής νοημοσύνης (AI) αναπτύσσεται ραγδαία και ενσωματώνεται όλο και περισσότερο στην καθημερινή μας ζωή και σε κρίσιμους τομείς όπως η υγειονομική περίθαλψη, οι τηλεπικοινωνίες και η ενέργεια. Ωστόσο, με τη μεγάλη δύναμη έρχεται και μεγάλη ευθύνη: τα συστήματα τεχνητής νοημοσύνης μερικές φορές κάνουν λάθη ή δίνουν αβέβαιες απαντήσεις που μπορεί να έχουν σοβαρές συνέπειες.
Το Themis AI του MIT, συνιδρυθμένο και καθοδηγούμενο από την καθηγήτρια Daniela Rus του εργαστηρίου CSAIL, προσφέρει μια πρωτοποριακή λύση. Η τεχνολογία τους επιτρέπει στα μοντέλα τεχνητής νοημοσύνης να «γνωρίζουν τι δεν γνωρίζουν». Αυτό σημαίνει ότι τα συστήματα τεχνητής νοημοσύνης μπορούν να υποδεικνύουν πότε είναι αβέβαια για τις προβλέψεις τους, αποτρέποντας έτσι λάθη πριν προκαλέσουν ζημιά.
Γιατί είναι αυτό τόσο σημαντικό;
Πολλά μοντέλα τεχνητής νοημοσύνης, ακόμη και τα προηγμένα, μπορεί μερικές φορές να παρουσιάσουν «ψευδαισθήσεις»—να δίνουν λανθασμένες ή αβάσιμες απαντήσεις. Σε τομείς όπου οι αποφάσεις έχουν μεγάλο βάρος, όπως η ιατρική διάγνωση ή η αυτόνομη οδήγηση, αυτό μπορεί να έχει καταστροφικές συνέπειες. Η Themis AI ανέπτυξε το Capsa, μια πλατφόρμα που εφαρμόζει την ποσοτικοποίηση της αβεβαιότητας (uncertainty quantification): μετρά και ποσοτικοποιεί την αβεβαιότητα των αποτελεσμάτων της τεχνητής νοημοσύνης με λεπτομερή και αξιόπιστο τρόπο.
Πώς λειτουργεί;
Ενσταλάζοντας στα μοντέλα την επίγνωση της αβεβαιότητας, μπορούν να συνοδεύουν τα αποτελέσματα με μια ετικέτα κινδύνου ή αξιοπιστίας. Για παράδειγμα: ένα αυτόνομο όχημα μπορεί να δηλώσει ότι δεν είναι σίγουρο για μια κατάσταση και να ενεργοποιήσει την παρέμβαση ανθρώπου. Αυτό όχι μόνο αυξάνει την ασφάλεια, αλλά και την εμπιστοσύνη των χρηστών στα συστήματα τεχνητής νοημοσύνης.
capsa_torch.wrapper() όπου η έξοδος περιλαμβάνει τόσο την πρόβλεψη όσο και τον κίνδυνο:

Συμπέρασμα
Το MIT Ομάδα αποδεικνύει ότι το μέλλον της τεχνητής νοημοσύνης δεν αφορά μόνο την εξυπνότερη λειτουργία, αλλά κυρίως την ασφαλέστερη και δικαιότερη λειτουργία. Στη NetCare, πιστεύουμε ότι η τεχνητή νοημοσύνη γίνεται πραγματικά πολύτιμη μόνο όταν είναι διαφανής σχετικά με τους δικούς της περιορισμούς. Με προηγμένα εργαλεία ποσοτικοποίησης της αβεβαιότητας, όπως το Capsa, μπορείτε να εφαρμόσετε αυτό το όραμα στην πράξη.