In der KI bezeichnet eine „Halluzination“ eine Situation, in der ein KI-Modell eine falsche oder erfundene Antwort generiert – obwohl sie sprachlich korrekt und oft überzeugend klingt. Der Begriff stammt ursprünglich aus der Medizin, meint hier aber: Die KI „erfindet“ Dinge, die faktisch nicht stimmen.

Das passiert, weil KI-Modelle wie GPT nicht wissen, was „wahr“ ist – sie berechnen lediglich wahrscheinliche Wortfolgen auf Basis statistischer Muster aus ihren Trainingsdaten. Das Ergebnis: Antworten, die vertrauenswürdig wirken, aber faktisch komplett danebenliegen können.


Was sind Halluzinationen in ChatGPT?

Auch Modelle wie ChatGPT sind anfällig für Halluzinationen – insbesondere bei komplexen, mehrdeutigen oder offenen Fragen. Sie können:

  • nicht existierende Quellen zitieren,
  • Personen oder Produkte erfinden,
  • oder sachlich falsche Zusammenhänge darstellen.

Beispiel: Eine technische Frage zur Konfiguration eines spezifischen ERP-Systems könnte von ChatGPT mit scheinbar detaillierten, aber frei erfundenen Schritten beantwortet werden – weil kein echter Bezug zur internen Dokumentation des Unternehmens besteht.


Welche Gründe gibt es für Halluzinationen einer KI?

Es gibt mehrere typische Ursachen:

  1. Fehlende oder widersprüchliche Daten im Trainingsmaterial
  2. Statistische Textgenerierung ohne Verständnis für Wahrheit
  3. Unklare oder zu offene Eingaben (Prompts)
  4. Mangel an aktuellem oder domänenspezifischem Wissen
  5. Überforderung durch Kontextkomplexität

Die meisten generativen KI-Modelle arbeiten rein probabilistisch – und ohne gezielten Zugriff auf zuverlässige Quellen ist eine Halluzination quasi vorprogrammiert.


Ist das Halluzinationsproblem der KI lösbar?

Es ist zumindest stark reduzierbar – durch gezielte technische Maßnahmen. Besonders wirkungsvoll sind:

  • Retrieval-Augmented Generation (RAG): Die KI greift auf externe Wissensquellen zu, statt nur auf ihr Training.
  • Modellkombination: Die parallele Nutzung mehrerer spezialisierter Modelle senkt die Fehlerquote.
  • Semantische Nachkontrolle: Antworten werden vor der Ausspielung geprüft und ggf. korrigiert.
  • Gut strukturierte Wissensbasen (Knowledge Bases): Die Grundlage für verlässliche Antworten.

Wie octonomy Halluzinationen vermeidet

octonomy geht über klassische Modelle hinaus: Unsere Octo-Worker arbeiten nicht nur mit generativen Algorithmen, sondern mit einer durchdacht strukturierten, domänenspezifischen Wissensbasis – dem sogenannten Octo-Knowledge.

Diese Wissensbasis umfasst:

  • Handbücher, Richtlinien und Produktinformationen
  • technische Spezifikationen und rechtliche Dokumente
  • kontextspezifische Erfahrungsdaten aus CRM, ERP & Co.

Der Unterschied: Octo-Worker generieren keine Antwort „aus dem Bauchgefühl der KI“, sondern liefern verifizierte Informationen auf Basis eures internen Know-hows.
Ergebnis: Antworten auf menschlichem Niveau – aber ohne Risiko.

Mit dieser Kombination aus strukturiertem Wissen, semantischer Intelligenz und modellübergreifender Kontrolle erreicht octonomy eine dokumentierte Antwortqualität von über 95 % – ganz ohne Halluzinationen.