KI-Halluzination
Erfundene oder falsche Information, die eine KI als Tatsache präsentiert.
Erfundene oder falsche Information, die eine KI als Tatsache präsentiert.
Sprachmodelle erzeugen Wahrscheinlichkeiten — sie "wissen" nicht. Halluzinationen sind kein Bug, sondern Bestandteil der Architektur: Bei mehrdeutigem oder fehlendem Kontext erfindet das Modell Plausibles, weil es immer ein Token vorhersagen muss. Klassische Halluzinationsfälle in der Medizin sind erfundene Medikamente, falsche Dosierungen, ICD-Codes ohne Bezug, frei erfundene Studien-Zitate und nicht existierende Leitlinien. Die Forschung unterscheidet zwischen intrinsischen Halluzinationen (Widerspruch zum Eingabetext) und extrinsischen (frei erfundene Tatsachen). Reduziert werden Halluzinationen durch Retrieval-Augmented Generation (RAG), enge Quellenbindung, Konfidenz-Anzeigen, kleinere und auf das Fachgebiet trainierte Modelle, und durch das Vier-Augen-Prinzip. In sicherheitskritischen Bereichen wie Medizin sind Halluzinationen das zentrale Risiko von Sprachmodellen. Der EU AI Act verlangt deshalb explizit menschliche Aufsicht.
Im Arztbrief lebensgefährlich: erfundene Medikamente, falsche Dosen, ICD-Codes ohne Bezug. Schutz: Vier-Augen-Prinzip, Konfidenz-Anzeige, lokale Verarbeitung mit klarer Quellenbindung an die echten Patientendaten. Eine pragmatische Routine: Brief nie ohne vollständige Lese-Kontrolle freigeben, bei niedriger Konfidenz aktiv hinterfragen. Frei erzeugte Texte ohne Quelle sollten in der Praxis grundsätzlich nicht direkt übernommen werden. Anbieter sollten transparent erklären, wie ihr System Halluzinationen reduziert (RAG, Quellenbindung, kleine Spezialmodelle). Eine interne Sammlung beobachteter Halluzinations-Fälle hilft beim Training des Teams und bei Anbieter-Feedback.
Hinweis: Dieser Lexikon-Eintrag dient der Orientierung und ersetzt keine rechtliche oder medizinische Beratung im Einzelfall.
14 Tage testen, vortrainiert auf GOÄ und ICD-10. Hardware in Ihrer Praxis.