10 Gründe: Warum ChatGPT & Claude rechtliche Fragen nicht zuverlässig beantworten können

ChaGPT und Claude oder andere Foundation Modelle für sich alleine werden niemals in der Lage sein Ihre rechtlichen Fragen zuverlässig zu beantworten.

Gründe dafür sind:

  1. Keine juristische Verifizierung
    Die Antworten sind nicht von Anwälten geprüft und können fachlich falsch oder irreführend sein.
  2. Kein Zugriff auf aktuelle Gesetzestexte  & Urteile
    Modelle arbeiten mit Trainingsdaten, nicht mit ständig aktualisierten offiziellen Quellen wie dem OR, ZGB oder Bundesgerichtsurteilen.
  3. Fehlende Kontextkenntnis des Schweizer Rechts
    Rechtssysteme sind lokal. Foundation-Modelle sind oft auf US- oder globales Recht ausgerichtet – nicht auf Schweizer Besonderheiten.
  4. Halluzinationen (= falsche Antworten)
    Modelle "erfinden" Antworten, wenn sie sich nicht sicher sind – das ist im juristischen Bereich hochriskant.
  5. Keine Haftung oder Nachvollziehbarkeit
    Es gibt keine rechtliche Verantwortung oder Dokumentation dafür, wie eine Antwort zustande kam.
  6. Nicht immer aktuell
    Die Modelle kennen keine Gesetzesänderungen oder neue Urteile nach ihrem Trainingsstand (z. B. ChatGPT mit Stand Ende 2023).
  7. Datenschutzproblematisch bei sensiblen  Fällen
    Bei vertraulichen juristischen Fragen darf kein Text einfach in ein generisches KI-Modell eingegeben werden.
  8. Fehlende Detailtiefe und Nuancen
    Rechtliche Antworten brauchen oft differenzierte Auslegungen – Modelle geben meist oberflächliche Standardtexte aus.
  9. Keine Quellenangabe oder Rechtsgrundlage
    Foundation-Modelle liefern keine direkten Gesetzesartikel, Paragraphen oder Gerichtsurteile mit – man weiß nicht, worauf sie sich stützen.

10. Kein Ersatz für Rechtsberatung
In rechtlichen Kontexten zählt: Verlässlichkeit, Nachvollziehbarkeit und gerichtliche Verwendbarkeit. Foundation-Modelle bieten das nicht.