MIT team at work

MIT-Team bringt KI-Modellen neues Wissen bei.

Die Anwendung künstlicher Intelligenz (KI) wächst rasant und wird immer stärker in unseren Alltag und in kritische Branchen wie das Gesundheitswesen, die Telekommunikation und die Energieversorgung integriert. Doch mit großer Macht geht auch große Verantwortung einher: KI-Systeme machen manchmal Fehler oder liefern unsichere Antworten, die weitreichende Folgen haben können.

MIT’s Themis AI, mitbegründet und geleitet von Professor Daniela Rus vom CSAIL-Labor, bietet eine bahnbrechende Lösung. Ihre Technologie ermöglicht es KI-Modellen zu „wissen, was sie nicht wissen“. Das bedeutet, dass KI-Systeme selbst angeben können, wann sie sich bei ihren Vorhersagen unsicher sind, wodurch Fehler verhindert werden können, bevor sie Schaden anrichten.

Warum ist das so wichtig?
Viele KI-Modelle, selbst hochentwickelte, können manchmal sogenannte „Halluzinationen“ aufweisen – sie liefern fehlerhafte oder unbegründete Antworten. In Sektoren, in denen Entscheidungen schwerwiegende Auswirkungen haben, wie bei medizinischen Diagnosen oder autonomem Fahren, kann dies katastrophale Folgen haben. Themis AI hat Capsa entwickelt, eine Plattform, die Uncertainty Quantification anwendet: Sie misst und quantifiziert die Unsicherheit von KI-Ausgaben auf detaillierte und zuverlässige Weise.

 Wie funktioniert das?
Indem Modellen Unsicherheitsbewusstsein vermittelt wird, können sie Ausgaben mit einem Risiko- oder Vertrauenslabel versehen. Zum Beispiel kann ein selbstfahrendes Auto angeben, dass es sich in einer Situation unsicher ist und daher eine menschliche Intervention auslöst. Dies erhöht nicht nur die Sicherheit, sondern auch das Vertrauen der Nutzer in KI-Systeme.

Beispiele für technische Implementierung

  • Bei der Integration mit PyTorch erfolgt das Wrappen des Modells über capsa_torch.wrapper(), wobei die Ausgabe sowohl die Vorhersage als auch das Risiko umfasst:

Python-Beispiel mit Capsa

Für TensorFlow-Modelle arbeitet Capsa mit einem Decorator:

TensorFlow

Die Auswirkungen für Unternehmen und Nutzer
Für NetCare und seine Kunden bedeutet diese Technologie einen enormen Fortschritt. Wir können KI-Anwendungen liefern, die nicht nur intelligent, sondern auch sicher und besser vorhersagbar sind, mit geringerer Wahrscheinlichkeit von Halluzinationen. Sie hilft Organisationen dabei, fundiertere Entscheidungen zu treffen und Risiken bei der Einführung von KI in geschäftskritischen Anwendungen zu reduzieren.

Fazit
Das MIT Team zeigt, dass die Zukunft der KI nicht nur darin besteht, intelligenter zu werden, sondern vor allem auch darin, sicherer und fairer zu funktionieren. Bei NetCare glauben wir, dass KI erst dann wirklich wertvoll wird, wenn sie transparent über ihre eigenen Grenzen informiert. Mit fortschrittlichen Uncertainty Quantification-Tools wie Capsa können Sie diese Vision auch in die Praxis umsetzen.

Gerard

Gerard ist als KI-Berater und Manager tätig. Mit seiner umfassenden Erfahrung in großen Organisationen kann er Probleme besonders schnell durchdringen und auf eine Lösung hinarbeiten. In Kombination mit seinem wirtschaftswissenschaftlichen Hintergrund sorgt er für geschäftlich fundierte Entscheidungen.

AIR (Artificial Intelligence Robot)