MIT forscht, um KI intelligenter zu machen

MIT-Team bringt KI-Modellen bei, was sie noch nicht wussten.

Die Anwendung künstlicher Intelligenz (KI) wächst rasant und verwebt sich zunehmend mit unserem Alltag und kritischen Industrien wie dem Gesundheitswesen, der Telekommunikation und der Energiebranche. Doch mit großer Macht geht auch große Verantwortung einher: KI-Systeme machen manchmal Fehler oder liefern unsichere Antworten, die weitreichende Konsequenzen haben können.

Themis AI von MIT, mitbegründet und geleitet von Professorin Daniela Rus vom CSAIL-Labor, bietet eine bahnbrechende Lösung. Ihre Technologie befähigt KI-Modelle dazu, zu „issen, was sie nicht wissen“. Das bedeutet, dass KI-Systeme selbst anzeigen können, wann sie sich bei ihren Vorhersagen unsicher sind, wodurch Fehler verhindert werden können, bevor sie Schaden anrichten.

Warum ist das so wichtig?
Viele KI-Modelle, selbst hochentwickelte, können manchmal sogenannte „Halluzinationen“ aufweisen – sie liefern fehlerhafte oder unbegründete Antworten. In Sektoren, in denen Entscheidungen schwer wiegen, wie bei medizinischen Diagnosen oder dem autonomen Fahren, kann dies katastrophale Folgen haben. Themis AI entwickelte Capsa, eine Plattform, die Unsicherheitsquantifizierung anwendet: Sie misst und quantifiziert die Unsicherheit von KI-Ergebnissen auf detaillierte und zuverlässige Weise.

 Wie funktioniert das?
Indem man Modellen eine Unsicherheitswahrnehmung beibringt, können sie Ausgaben mit einem Risiko- oder Zuverlässigkeitslabel versehen. Zum Beispiel kann ein autonomes Fahrzeug angeben, dass es sich bei einer Situation unsicher ist, und deshalb ein menschliches Eingreifen auslösen. Dies erhöht nicht nur die Sicherheit, sondern auch das Vertrauen der Nutzer in KI-Systeme.

Beispiele für technische Implementierung

  • Bei der Integration mit PyTorch erfolgt das Wrappen des Modells über capsa_torch.wrapper() wobei die Ausgabe sowohl die Vorhersage als auch das Risiko umfasst:

Python example met capsa

Für TensorFlow-Modelle verwendet Capsa einen Decorator:

tensorflow

Die Auswirkungen für Unternehmen und Nutzer
Für NetCare und ihre Kunden bedeutet diese Technologie einen enormen Fortschritt. Wir können KI-Anwendungen liefern, die nicht nur intelligent, sondern auch sicher und besser vorhersagbar sind, mit geringerer Wahrscheinlichkeit von Halluzinationen. Dies hilft Organisationen dabei, fundiertere Entscheidungen zu treffen und Risiken bei der Einführung von KI in geschäftskritischen Anwendungen zu reduzieren.

Fazit
Das MIT Team zeigt, dass die Zukunft der KI nicht nur darin besteht, intelligenter zu werden, sondern vor allem auch darin, sicherer und fairer zu funktionieren. Bei NetCare glauben wir, dass KI erst dann wirklich wertvoll wird, wenn sie transparent über ihre eigenen Einschränkungen ist. Mit fortschrittlichen Tools zur Unsicherheitsquantifizierung wie Capsa können Sie diese Vision auch in die Praxis umsetzen.

Gerard

Gerard ist als KI-Berater und Manager tätig. Mit viel Erfahrung bei großen Organisationen kann er ein Problem besonders schnell entschlüsseln und auf eine Lösung hinarbeiten. Kombiniert mit einem wirtschaftlichen Hintergrund sorgt er für geschäftlich fundierte Entscheidungen.

AIR (Künstliche Intelligenz Roboter)