Basierend auf einer aktuellen Schweizer Analyse (watson.ch)
https://www.watson.ch/!669651522
Eine neue Analyse aus der Schweiz zeigt deutlich: Viele KI-Modelle beziehen ihr Wissen aus undurchsichtigen, teils fragwürdigen Quellen. Nutzer erfahren nicht, woher bestimmte Aussagen stammen – und ob sie überhaupt korrekt sind. Die Untersuchung offenbart mehrere Kernprobleme, die insbesondere für juristische Anwendungen relevant sind:
1. KI erfindet Quellen oder verwendet unzuverlässige Daten
Die getesteten Modelle lieferten Antworten basierend auf falschen, erfundenen oder schlecht nachvollziehbaren Quellen.
👉 In der juristischen Welt wäre das fatal: Eine falsche Quelle = falsche Rechtsberatung = potenzieller Schadensfall.
2. Modelle widersprechen sich selbst
Je nach Frage oder Formulierung gaben die KI-Systeme unterschiedliche, widersprüchliche Antworten.
👉 Im Recht führt dies zu völliger Unsicherheit – ein Urteil oder Gesetz ändert sich nicht je nach Satzstruktur.
3. Fehlende Transparenz: Nutzer wissen nicht, was genau ist
Die Analyse zeigt: Nutzer haben keine Chance, die Herkunft oder Qualität der Antwort zu überprüfen.
👉 Genau hier liegt das größte Risiko: Ohne klare Referenzen kann niemand beurteilen, ob die Informationen juristisch fundiert sind.
4. Bei komplexeren Fragen "halluziniert" die KI
Sobald die Fragen etwas komplexer wurden, begannen die Modelle, Fakten zu erfinden oder stark zu vereinfachen.
👉 Im Recht sind es jedoch genau die komplexen Fälle, die entscheidend sind – eine erfundene Antwort kann zu kostspieligen Fehlentscheidungen führen.
Was bedeutet das für die juristische Arbeit?
Diese Analyse zeigt exemplarisch, warum "Allzweck-KI" für juristische Fragen ungeeignet ist:
❌ Keine verlässlichen Quellen
❌ Keine Gewährleistung der Aktualität
❌ Keine Transparenz
❌ Hohe Fehler- und Halluzinationsrate
In der Juristerei reicht "ungefähr richtig" nicht aus. Es muss korrekt sein.
Warum Lawise / Jurilo anders ist
Lawise wurde genau für dieses Problem entwickelt:
✓ Juristisch verifizierte Antworten mit Schweizer Quellen (Gesetze, Kommentare, Bundesgerichtsentscheide)
✓ 0 % Halluzinationen – jede Antwort basiert auf realen juristischen Quellen
✓ Transparente Referenzen – immer nachvollziehbar, immer überprüfbar
✓ Spezielles Modell statt Black-Box-Chatbot
Während generische KI-Modelle oft unterhaltsame Antworten liefern, liefert Lawise korrekte Antworten – und nur das zählt im Recht.
Fazit
Die Schweizer Analyse zeigt: Selbst bei einfachen Alltagsfragen liefern KI-Modelle fehlerhafte oder unklare Informationen.
In der juristischen Praxis wäre dies unverantwortlich.
👉 Daher ist spezialisierte, verifizierte Legal AI notwendig – wie Lawise –, die auf realen juristischen Quellen basiert und maximale Sicherheit bietet.
Watson-Artikel:
Wenn wir ChatGPT fragen, erklärt uns die KI selbst komplexe Themen der Schweizer Politik. Die Recherche ist nicht immer breit abgestützt oder ausgewogen.
Bild: KI-generiert/ChatGPT/bev