In der KI bezeichnet eine „Halluzination“ eine Situation, in der ein KI-Modell eine falsche oder erfundene Antwort generiert – obwohl sie sprachlich korrekt und oft überzeugend klingt. Der Begriff stammt ursprünglich aus der Medizin, meint hier aber: Die KI „erfindet“ Dinge, die faktisch nicht stimmen.
Das passiert, weil KI-Modelle wie GPT nicht wissen, was „wahr“ ist – sie berechnen lediglich wahrscheinliche Wortfolgen auf Basis statistischer Muster aus ihren Trainingsdaten. Das Ergebnis: Antworten, die vertrauenswürdig wirken, aber faktisch komplett danebenliegen können.
Was sind Halluzinationen in ChatGPT?
Auch Modelle wie ChatGPT sind anfällig für Halluzinationen – insbesondere bei komplexen, mehrdeutigen oder offenen Fragen. Sie können:
- nicht existierende Quellen zitieren,
- Personen oder Produkte erfinden,
- oder sachlich falsche Zusammenhänge darstellen.
Beispiel: Eine technische Frage zur Konfiguration eines spezifischen ERP-Systems könnte von ChatGPT mit scheinbar detaillierten, aber frei erfundenen Schritten beantwortet werden – weil kein echter Bezug zur internen Dokumentation des Unternehmens besteht.
Welche Gründe gibt es für Halluzinationen einer KI?
Es gibt mehrere typische Ursachen:
- Fehlende oder widersprüchliche Daten im Trainingsmaterial
- Statistische Textgenerierung ohne Verständnis für Wahrheit
- Unklare oder zu offene Eingaben (Prompts)
- Mangel an aktuellem oder domänenspezifischem Wissen
- Überforderung durch Kontextkomplexität
Die meisten generativen KI-Modelle arbeiten rein probabilistisch – und ohne gezielten Zugriff auf zuverlässige Quellen ist eine Halluzination quasi vorprogrammiert.
Ist das Halluzinationsproblem der KI lösbar?
Es ist zumindest stark reduzierbar – durch gezielte technische Maßnahmen. Besonders wirkungsvoll sind:
- Retrieval-Augmented Generation (RAG): Die KI greift auf externe Wissensquellen zu, statt nur auf ihr Training.
- Modellkombination: Die parallele Nutzung mehrerer spezialisierter Modelle senkt die Fehlerquote.
- Semantische Nachkontrolle: Antworten werden vor der Ausspielung geprüft und ggf. korrigiert.
- Gut strukturierte Wissensbasen (Knowledge Bases): Die Grundlage für verlässliche Antworten.
Wie octonomy Halluzinationen vermeidet
octonomy geht über klassische Modelle hinaus: Unsere Octo-Worker arbeiten nicht nur mit generativen Algorithmen, sondern mit einer durchdacht strukturierten, domänenspezifischen Wissensbasis – dem sogenannten Octo-Knowledge.
Diese Wissensbasis umfasst:
- Handbücher, Richtlinien und Produktinformationen
- technische Spezifikationen und rechtliche Dokumente
- kontextspezifische Erfahrungsdaten aus CRM, ERP & Co.
Der Unterschied: Octo-Worker generieren keine Antwort „aus dem Bauchgefühl der KI“, sondern liefern verifizierte Informationen auf Basis eures internen Know-hows.
Ergebnis: Antworten auf menschlichem Niveau – aber ohne Risiko.
Mit dieser Kombination aus strukturiertem Wissen, semantischer Intelligenz und modellübergreifender Kontrolle erreicht octonomy eine dokumentierte Antwortqualität von über 95 % – ganz ohne Halluzinationen.