Warum generische KI-Modelle scheitern – und warum das im Recht besonders gefährlich ist (Watson.ch)

Basierend auf einer aktuellen Schweizer Analyse (watson.ch)
https://www.watson.ch/!669651522
Eine neue Analyse aus der Schweiz zeigt deutlich: Viele KI-Modelle beziehen ihr Wissen aus undurchsichtigen, teilweise fragwürdigen Quellen. Nutzer erfahren nicht, woher bestimmte Aussagen stammen – und ob diese überhaupt korrekt sind. Die Untersuchung deckt mehrere Kernprobleme auf, die für juristische Anwendungen besonders relevant sind:
1. KI erfindet Quellen oder nutzt unzuverlässige Daten
Die getesteten Modelle lieferten Antworten, die auf falschen, erfundenen oder schlecht nachvollziehbaren Quellen basierten.
👉 In der Rechtswelt wäre das fatal: Eine falsche Quelle = eine falsche Rechtsauskunft = potenzieller Schadenfall.
2. Modelle widersprechen sich selbst
Je nach Fragestellung oder Formulierung gaben die KI-Systeme unterschiedliche, widersprüchliche Antworten.
👉 Im Recht führt das zu völliger Unsicherheit – ein Urteil oder Gesetz ändert sich nicht je nach Satzbau.
3. Fehlende Transparenz: Nutzer wissen nicht, was stimmt
Die Analyse zeigt: Nutzer haben keine Chance, die Herkunft oder Qualität der Antwort zu überprüfen.
👉 Genau hier liegt das größte Risiko: Ohne klare Referenzen kann niemand beurteilen, ob die Auskunft rechtlich haltbar ist.
4. Bei komplexeren Fragen «halluziniert» die KI
Sobald die Fragen etwas komplexer wurden, begannen die Modelle, Fakten zu erfinden oder stark zu vereinfachen.
👉 Im Recht sind aber gerade die komplexen Fälle entscheidend – eine erfundene Antwort kann zu teuren Fehlentscheidungen führen.
Was bedeutet das für juristische Arbeit?
Diese Analyse zeigt exemplarisch, warum “General Purpose AI” für juristische Fragestellungen ungeeignet ist:
❌ Keine verlässlichen Quellen
❌ Keine Garantie für Aktualität
❌ Keine Transparenz
❌ Hohe Fehler- und Halluzinationsrate
Im Recht reicht „ungefähr richtig“ nicht. Es muss richtig sein.
Warum Lawise / Jurilo anders ist
Lawise wurde genau für dieses Problem gebaut:
✓ Rechtlich verifizierte Antworten mit Schweizer Quellen (Gesetze, Kommentare, Bundesgerichtsurteile)
✓ 0% Halluzinationen – jede Antwort basiert auf echten Rechtsquellen
✓ Transparente Referenzen – immer nachvollziehbar, immer überprüfbar
✓ Spezialisiertes Modell statt Black-Box-Chatbot
Während generische KI-Modelle oft unterhaltsame Antworten liefern, liefert Lawise korrekte Antworten – und nur das zählt im Recht.
Fazit
Die Schweizer Analyse zeigt: Selbst bei einfachen Alltagsfragen liefern KI-Modelle fehlerhafte oder unklare Informationen.
In der juristischen Praxis wäre das unverantwortlich.
👉 Deshalb braucht es spezialisierte, verifizierte Legal-AI – wie Lawise – die auf echten Rechtsquellen basiert und maximale Sicherheit bietet.
Watson Artikel:
Wenn wir ChatGPT fragen, erklärt die KI uns auch komplexe Themen der Schweizer Politik. Breit abgestützt oder ausgewogen ist die Recherche nicht immer.
bild: KI-generiert/ChatGPT/bev
