MIT doet onderzoek om AI slimmer te maken

MIT-Team lehrt KI-Modelle, was sie noch nicht wussten

Der Einsatz künstlicher Intelligenz (KI) wächst rasant und durchdringt zunehmend unser tägliches Leben sowie kritische Branchen wie das Gesundheitswesen, die Telekommunikation und die Energieversorgung. Doch mit großer Macht geht auch große Verantwortung einher: KI-Systeme machen manchmal Fehler oder liefern unsichere Antworten, die weitreichende Konsequenzen haben können.

MITs Themis AI, mitbegründet und geleitet von Professorin Daniela Rus vom CSAIL-Labor, bietet eine bahnbrechende Lösung. Ihre Technologie ermöglicht es KI-Modellen, „zu wissen, was sie nicht wissen“. Das bedeutet, dass KI-Systeme selbst anzeigen können, wann sie sich bei ihren Vorhersagen unsicher sind, wodurch Fehler verhindert werden können, bevor sie Schaden anrichten.

Warum ist das so wichtig?
Viele KI-Modelle, selbst hochentwickelte, können manchmal sogenannte „Halluzinationen“ aufweisen – sie liefern fehlerhafte oder unbegründete Antworten. In Sektoren, in denen Entscheidungen schwerwiegend sind, wie bei medizinischen Diagnosen oder beim autonomen Fahren, kann dies katastrophale Folgen haben. Themis AI entwickelte Capsa, eine Plattform, die Uncertainty Quantification anwendet: Sie misst und quantifiziert die Unsicherheit von KI-Ausgaben auf detaillierte und zuverlässige Weise.

 Wie funktioniert das?
Indem man Modellen Unsicherheitsbewusstsein beibringt, können diese Ausgaben mit einem Risiko- oder Vertrauenslabel versehen werden. Beispielsweise könnte ein selbstfahrendes Auto angeben, dass es sich in einer Situation unsicher ist, und daraufhin eine menschliche Intervention auslösen. Dies erhöht nicht nur die Sicherheit, sondern auch das Vertrauen der Nutzer in KI-Systeme.

Beispiele für die technische Implementierung

  • Bei der Integration mit PyTorch erfolgt das Wrappen des Modells über capsa_torch.wrapper() wobei die Ausgabe sowohl die Vorhersage als auch das Risiko umfasst:

Python example met capsa

Für TensorFlow-Modelle verwendet Capsa einen Decorator:

tensorflow

Die Auswirkungen für Unternehmen und Nutzer
Für NetCare und seine Kunden bedeutet diese Technologie einen enormen Fortschritt. Wir können KI-Anwendungen liefern, die nicht nur intelligent, sondern auch sicher und besser vorhersagbar mit geringerer Wahrscheinlichkeit von Halluzinationen sind. Dies unterstützt Organisationen dabei, fundiertere Entscheidungen zu treffen und Risiken bei der Einführung von KI in geschäftskritische Anwendungen zu reduzieren.

Fazit
Das MIT Team zeigt, dass es bei der Zukunft der KI nicht nur darum geht, intelligenter zu werden, sondern vor allem auch darum, sicherer und fairer zu funktionieren. Bei NetCare glauben wir, dass KI erst dann wirklich wertvoll wird, wenn sie transparent über ihre eigenen Grenzen ist. Mit fortschrittlichen Tools zur Unsicherheitsquantifizierung wie Capsa können Sie diese Vision auch in die Praxis umsetzen.

Gerard

Gerard ist als KI-Berater und Manager tätig. Mit seiner umfangreichen Erfahrung bei großen Organisationen kann er Probleme außergewöhnlich schnell analysieren und auf eine Lösung hinarbeiten. In Kombination mit seinem wirtschaftlichen Hintergrund stellt er sicher, dass Entscheidungen geschäftlich fundiert sind.

AIR (Künstliche Intelligenz Roboter)