ChatGPT und Claude oder andere Foundation-Modelle werden niemals in der Lage sein, Ihre rechtlichen Fragen zuverlässig zu beantworten.
Keine rechtliche Verifizierung
Die Antworten werden nicht von Anwälten überprüft und können sachlich falsch oder irreführend sein.
Kein Zugang zu aktuellen Rechtstexten & Urteilen
Modelle arbeiten mit Trainingsdaten, nicht mit ständig aktualisierten offiziellen Quellen wie dem OR, ZGB oder Bundesgerichtsurteilen.
Fehlendes Kontextwissen über Schweizer Recht
Rechtssysteme sind lokal. Foundation-Modelle orientieren sich oft an US- oder globalem Recht – nicht an Schweizer Besonderheiten.
Halluzinationen (= falsche Antworten)
Modelle „erfinden“ Antworten, wenn sie sich unsicher sind – dies ist im rechtlichen Bereich äußerst risikoreich.
Keine Haftung oder Rückverfolgbarkeit
Es gibt keine rechtliche Verantwortung oder Dokumentation darüber, wie eine Antwort generiert wurde.
Nicht immer aktuell
Die Modelle kennen keine Gesetzesänderungen oder neuen Urteile nach ihrem Trainingsdatum (z.B. ChatGPT mit Datenstand Ende 2023).
Datenschutzprobleme bei sensiblen Fällen
Bei vertraulichen Rechtsfragen sollten Texte nicht einfach in ein generisches KI-Modell eingegeben werden.
Fehlende Tiefe und Nuancen
Rechtliche Antworten erfordern oft differenzierte Interpretationen – Modelle produzieren in der Regel oberflächliche Standardtexte.
Keine Quellenangaben oder Rechtsgrundlagen
Foundation-Modelle liefern keine direkten Rechtsartikel, Paragraphen oder Gerichtsurteile – Sie wissen nicht, worauf sie basieren.
10. Kein Ersatz für rechtliche Beratung
In rechtlichen Kontexten zählen: Zuverlässigkeit, Rückverfolgbarkeit und Zulässigkeit vor Gericht. Foundation-Modelle bieten dies nicht.