Was sind „Halluzinationen“ bei KI – und warum sind sie im Recht gefährlich?

KI-Modelle wie ChatGPT wirken oft beeindruckend. Doch sie haben eine Schwäche: Halluzinationen.
Das bedeutet: Die KI erfindet Fakten, Gesetze oder Urteile – klingt aber absolut überzeugt.
Warum ist das im Recht ein grosses Problem?
1. Falsche Rechtsgrundlagen
Die KI zitiert Paragrafen, die es nicht gibt oder die nicht zum Fall passen.
2. Teure Fehlentscheidungen
HR-Manager oder KMU-Chefs können aufgrund falscher Antworten Kündigungen, Verträge oder Löhne falsch beurteilen.
3. Haftungsrisiken
Wer Entscheidungen auf Basis erfundener Informationen trifft, riskiert Rechtsstreitigkeiten.
4. Verbot durch Anbieter
ChatGPT & Co. verbieten die Nutzung für rechtliche Anwendungen – gerade wegen dieser Fehler.
Fazit:
Im Recht braucht es 0 % Halluzinationen und 100 % geprüfte Fakten.
Darum arbeiten sichere Legal-Bots mit Schweizer Anwälten, festen Regeln und verifizierten Daten – nicht mit improvisierten KI-Antworten.
