KI-Modelle wie ChatGPT wirken oft beeindruckend. Doch sie haben eine Schwachstelle: Halluzinationen.
Das bedeutet: Die KI erfindet Fakten, Gesetze oder Urteile – klingt dabei jedoch absolut überzeugt.
Warum ist das ein großes Problem im Recht?
1. Falsche Rechtsgrundlagen
Die KI zitiert Paragraphen, die nicht existieren oder nicht auf den Fall anwendbar sind.
2. Kostspielige Fehlentscheidungen
HR-Manager oder Chefs von KMU können Kündigungen, Verträge oder Löhne auf Grundlage falscher Antworten falsch einschätzen.
3. Haftungsrisiken
Wer Entscheidungen auf erfundenen Informationen basiert, riskiert Rechtsstreitigkeiten.
4. Verbot durch Anbieter
ChatGPT & Co. verbieten die Nutzung für juristische Anwendungen – genau wegen dieser Fehler.
Fazit:
Im Recht benötigen Sie 0 % Halluzinationen und 100 % verifizierte Fakten.
Deshalb arbeiten sichere Rechtsbots mit Schweizer Rechtsanwälten, festen Regeln und verifizierten Daten – nicht mit improvisierten KI-Antworten.