Ein grundlegender Wandel zeichnet sich derzeit in der KI-Branche ab. Einer der einflussreichsten Vordenker im Bereich der künstlichen Intelligenz, Yann LeCun, hat kürzlich angekündigt, dass er seinen Fokus von klassischen Large Language Models (LLMs) hin zu sogenannten World Models verlagert – als Teil seiner Vision für Advanced Machine Intelligence (AMI). Seine zentrale These: Sprachmodelle sind ein technologischer Irrweg, wenn es um echtes Verständnis, zuverlässige Begründung und robuste Entscheidungsfindung geht.
Diese Entwicklung ist von zentraler Bedeutung für Legal Tech.
LLMs sind hervorragend darin, sprachliche Muster zu erkennen und flüssige Texte zu generieren – genau dafür wurden sie trainiert. Was sie jedoch nicht können, ist kausale, genaue Modelle der Realität aufzubauen oder zuverlässige Schlüssen unter Unsicherheit zu ziehen. Für Chatbots oder Textentwürfe kann dies ausreichend sein. Für Compliance-Entscheidungen, Vertragsinterpretationen oder arbeitsrechtliche Beurteilungen ist dies jedoch hochriskant. Dort ist Korrektheit keine Option, sondern eine Voraussetzung.
LeCuns World Model-Ansatz verfolgt ein anderes Ziel: Systeme zu entwickeln, die die Strukturen, Ursachen und Wirkungen der realen Welt verstehen und vorhersagen können – nicht nur Wörter neu kombinieren.
Was World Models können, was LLMs nicht können
Während Sprachmodelle statistische Korrelationen in Texten widerspiegeln, lernen World Models Darstellungen von Ursache, Wirkung und Dynamik. Sie sind darauf ausgelegt, Szenarien zu bewerten, Konsequenzen abzuleiten und Wissen über die Zeit hinweg konsistent zu bewahren – Fähigkeiten, die LLMs auch bei enormer Skalierung strukturell fehlen.
Für Legal AI hat diese Unterscheidung weitreichende Implikationen:
Genauigkeit über Beredsamkeit
Im Recht geht es nicht darum, wie überzeugend etwas klingt, sondern ob es juristisch korrekt ist.
Kausales Denken statt Textreproduktion
Recht ist normativ und konditional: Wenn X passiert, folgen Y und Z. World Model-Architekturen sind weit besser geeignet, solche Strukturen darzustellen.
Vertrauen, Rückverfolgbarkeit und Quellverweise
Juristische Entscheidungen erfordern Erklärbarkeit und saubere Verweise, keine Black-Box-Antworten mit scheinbarer Präzision.
LeCuns Kritik an einer rein LLM-zentrierten KI macht daher eines deutlich: Metriken wie Sprachflüssigkeit oder menschenähnliche Texte sind kein Ersatz für juristisches Verständnis.
Eine klare Lektion für Rechtsabteilungen, HR und KMU
Dass viele Organisationen heute auf LLM-basierte Tools setzen, ist verständlich: Sie sind leicht zugänglich, schreiben Texte in Sekunden und wirken intelligent. Doch LeCuns Kurswechsel zeigt, wohin die nächste Welle produktiver KI geht: hin zu Systemen, die verstehen können, argumentieren und Konsequenzen bewerten – basierend auf strukturiertem Wissen, nicht nur auf Tokens.
Genau das ist der Bedarf, den wir bei Lawise jeden Tag sehen:
Die Nutzer wollen keine wohlklingenden Absätze, sondern Antworten, auf deren Grundlage sie Entscheidungen treffen können – rechtlich sicher und nachvollziehbar.
Was dies für die Einführung von Legal AI bedeutet
Mit dem Übergang von Experimenten zum produktiven Einsatz verschieben sich die Anforderungen:
Laien verwenden Legal AI für erste juristische Einordnungen
Kosten- und Risikodruck begünstigen Systeme, die Fehler vermeiden, anstatt nur Texte zu automatisieren
Juristische Genauigkeit und Quellentransparenz werden zu zentralen Auswahlkriterien
Datensouveränität und kontrollierte Entscheidungslogik werden wichtiger als generische Black-Box-Modelle
Legal AI darf nicht nur ein sprachliches Kunststück bleiben. Es muss ein Motor für rechtliche Entscheidungsfindung und Begründung werden – genau in die Richtung, die LeCun auf der Forschungsebene fordert.
Die nächste Phase
Künstliche Intelligenz entwickelt sich über die reine Textgenerierung hinaus. Für Rechtsabteilungen, HR-Manager und KMU sind das gute Nachrichten: Die Zukunft von Legal AI liegt weniger in eloquenter Formulierung und mehr im korrekten Denken.
Mit dem Übergang zu Modellen, die reale Beziehungen darstellen und kausales Denken für Entscheidungen bieten können, werden Lösungen wie Jurilo nicht nur mit der nächsten KI-Generation kompatibel sein – sie werden aktiv dazu beitragen, diese zu gestalten.
Die Phase der experimentellen Legal AI nähert sich dem Ende.
Die Ära der praktischen, vertrauenswürdigen und rechtskonformen KI beginnt – nicht auf Grundlage schöner Sätze, sondern auf begründetem Verständnis.
[1]: https://www.ft.com/content/e3c4c2f6-4ea7-4adf-b945-e58495f836c2?utm_source=chatgpt.com "Computerwissenschaftler Yann LeCun: 'Intelligenz besteht wirklich im Lernen'"
[2]: https://bdtechtalks.substack.com/p/what-we-know-about-yann-lecun-vision?utm_source=chatgpt.com "Was wir über Yann LeCuns Vision für die Zukunft der KI wissen"