Warum wir AiLexLux gebaut haben: Juristische KI braucht bessere Retrieval-Systeme, nicht kleinere Modelle

llm business law

Juristische KI hat ein Glaubwürdigkeitsproblem.
Nicht, weil die Modelle zu schwach wären.
Sondern weil die juristische Infrastruktur um diese Modelle herum meist zu schwach ist.

Juristinnen, Juristen, Kanzleien und Rechtsabteilungen brauchen keine KI, die nur intelligent klingt. Sie brauchen eine KI, die auf das tatsächliche Recht, die tatsächliche Rechtsprechung, den richtigen Artikel, die richtige Fassung und die offizielle Quelle hinter jedem Zitat zugreifen kann.

Genau deshalb haben wir AiLexLux gebaut.

Das eigentliche Problem juristischer Recherche heute

Juristische Recherche ist bis heute zu oft zersplittert, manuell und fehleranfällig.

Viel zu viel Zeit geht verloren mit:

  • der Suche in getrennten Datenbanken für Gesetze und Rechtsprechung,
  • der Prüfung, ob wirklich die richtige Fassung gefunden wurde,
  • dem manuellen Nachvollziehen von Änderungen, Verweisen und Normbeziehungen,
  • dem Übertragen von Zitaten in interne Dokumente,
  • dem erneuten Öffnen offizieller Quellen, nur um bereits Gelesenes noch einmal zu verifizieren.

Diese Reibung ist kein Randproblem. Sie ist Teil des juristischen Alltags.

Und sie wird noch größer, sobald ein Sachverhalt mehrere Rechtsquellen, mehrere Jurisdiktionen oder mehrere Autoritätsebenen berührt.

Die Rechtswelt hat das lange hingenommen, weil es keine überzeugende Alternative gab.

Dann kam KI.

Und statt das Problem sauber zu lösen, haben viele Tools vor allem ein anderes Problem sichtbar gemacht.

Ein „nacktes“ LLM ist beeindruckend. Für juristische Arbeit reicht das nicht.

Ein großes Sprachmodell kann hervorragend formulieren, zusammenfassen, strukturieren und aus rohen Gedanken in Sekunden einen sauberen Text machen.

Das ist beeindruckend. Aber noch nicht juristisch verlässlich.

Ein LLM ohne belastbare juristische Retrieval-Schicht kann weiterhin:

  • den falschen Artikel zitieren,
  • verschiedene Fassungen eines Gesetzes vermischen,
  • eine Entscheidung erfinden, die täuschend echt klingt,
  • mehrere Rechtsbegriffe in einer plausiblen, aber falschen Aussage zusammenziehen,
  • mit großer Sicherheit etwas behaupten, das nicht sauber in einer autoritativen Quelle verankert ist.

Das ist das Halluzinationsproblem juristischer KI.

Und im Recht ist eine Halluzination kein Schönheitsfehler. Sie ist ein Vertrauensbruch.

Juristische Arbeit wird nicht nach sprachlicher Plausibilität bewertet, sondern nach inhaltlicher Präzision.

Die falsche Antwort: kleine „Legal LLMs“ bauen

Viele Legal-Tech-Anbieter haben darauf aus unserer Sicht mit der falschen Strategie reagiert.

Sie wollten eigene „juristische LLMs“ bauen.

Das klingt in einer Produktpräsentation attraktiv. In der Praxis stößt es schnell an Grenzen.

Warum? Weil die meisten Anbieter im Rechtsmarkt ChatGPT oder Claude in den entscheidenden Punkten nicht schlagen werden:

  • Qualität des Denkens,
  • Befolgung komplexer Instruktionen,
  • sprachliche Stärke,
  • Verarbeitung langer Kontexte,
  • Mehrsprachigkeit,
  • Tool-Nutzung,
  • Robustheit im praktischen Einsatz.

Die führenden Modelle profitieren von Investitionen, Trainings- und Optimierungsschleifen in einer Größenordnung, die spezialisierte Nischenanbieter realistischerweise nicht nachbauen können.

Ein kleineres „juristisches“ Modell mag spezialisierter wirken. Das heißt aber noch lange nicht, dass es besser denkt, besser schreibt oder sich besser an reale juristische Arbeitsabläufe anpasst.

Juristinnen und Juristen brauchen nämlich nicht nur Retrieval. Sie brauchen Analyse, Synthese, Strukturierung, Argumentenvergleich und belastbare Textproduktion.

Genau dort sind Frontier-Modelle besonders stark.

Die richtige Frage ist also nicht:

Wie ersetzen wir ChatGPT oder Claude durch ein kleineres juristisches Modell?

Die richtige Frage lautet:

Wie geben wir den besten Modellen den bestmöglichen Zugang zum Recht?

Daraus ist AiLexLux entstanden.

Was AiLexLux anders macht

AiLexLux folgt einem einfachen Grundsatz:

Das Modell soll denken. Das juristische System soll das Recht finden und strukturieren.

Wir trennen diese Rollen bewusst.

Das LLM übernimmt das, worin es besonders stark ist:

  • Denken,
  • Schreiben,
  • Verdichten,
  • Issue Spotting,
  • das Strukturieren komplexer Sachverhalte.

AiLexLux übernimmt das, was juristische Infrastruktur leisten muss:

  • autoritative juristische Recherche,
  • Zitationsauflösung,
  • exakten Zugriff auf Artikel und Passagen,
  • versions- und zeitbezogene Recherche,
  • Ermittlung des an einem bestimmten Datum geltenden Rechts,
  • Navigation durch Normbeziehungen,
  • Provenienz und Nachvollziehbarkeit,
  • Organisation juristischer Arbeitsprodukte in einer klar getrennten Workspace-Struktur.

Diese Trennung ist entscheidend.

Denn sobald das Modell nicht mehr bloß „wahrscheinlich Recht erinnert“, sondern mit dem tatsächlichen Recht arbeitet, verändert sich die Qualität des Ergebnisses grundlegend.

Wie AiLexLux Halluzinationen reduziert

Wir lösen das Halluzinationsproblem nicht dadurch, dass wir so tun, als würden Modelle nie halluzinieren.

Wir reduzieren es, indem wir die Grundlage ändern, auf der das Modell arbeitet.

AiLexLux gibt dem LLM Zugriff auf den vollständigen echten Gesetzestext, die tatsächlichen relevanten Passagen, die juristische Struktur und den offiziellen Quellenpfad hinter der Antwort.

Und für Nutzerinnen und Nutzer heißt das vor allem:

Jede ernsthafte juristische Zitierung kann direkt auf die autoritative Quelle zurückgeführt werden.

Das ist zentral.

Denn gute juristische KI darf den Menschen nicht in einem generierten Text einsperren. Sie muss ihn zurück zur Autorität führen.

Mit AiLexLux muss niemand einem sauber formulierten Absatz blind vertrauen. Man kann die Quelle öffnen, den Artikel prüfen, den Kontext nachvollziehen und das Zitat bis zur offiziellen Herkunft zurückverfolgen.

Erst so wird juristische KI im echten Berufsalltag belastbar.

Warum das für Kanzleien und Rechtsabteilungen so wichtig ist

Juristinnen und Juristen brauchen nicht noch mehr generierten Text.

Sie brauchen:

  • das richtige Gesetz,
  • die richtige Rechtsprechung,
  • die richtige Fassung,
  • die richtige Zitierung,
  • den richtigen Link zur Quelle,
  • und einen Drafting-Workflow, der in autoritativen Materialien verankert bleibt.

Rechtsabteilungen brauchen darüber hinaus:

  • Konsistenz,
  • Nachvollziehbarkeit,
  • Kontrolle über das Deployment,
  • saubere interne Workflows,
  • und die Gewissheit, dass KI Prozesse beschleunigt, ohne juristische Sorgfalt zu unterlaufen.

AiLexLux ist genau für diese Realität gebaut.

Eine modulare Architektur statt eines Ein-Quellen-Tools

Ein weiterer Grundpfeiler ist die modulare Architektur von AiLexLux.

Juristische Arbeit spielt sich nicht in einem einzigen Korpus ab. Sie bewegt sich zwischen Jurisdiktionen, Institutionen und unterschiedlichen Quellenfamilien.

Deshalb basiert AiLexLux nicht auf einer monolithischen Einheitsdatenbank, sondern auf juristischen Modulen, die jeweils an ihre autoritativen Ursprungssysteme angebunden sind und zugleich in einer gemeinsamen Architektur für Retrieval, Grounding und Drafting zusammenlaufen.

Das erlaubt zum Beispiel Module für:

  • luxemburgisches Recht, mit Legilux als autoritativer Quelle,
  • luxemburgische Rechtsprechung, mit den Gerichtsrepositorien als Autorität,
  • EU-Recht, mit EUR-Lex als Autorität,
  • französisches Recht, mit Légifrance als Autorität,
  • und weitere Module, die folgen werden.

Diese Architektur ist deshalb so wichtig, weil sie zwei Arbeitsweisen zugleich ermöglicht:

  • präzise Recherche innerhalb eines Moduls,
  • und übergreifende Recherche über alle abonnierten Module hinweg.

Liegt ein Fall vollständig in einer einzigen Rechtsordnung, bleibt die Recherche quellenrein und präzise.

Berührt ein Mandat dagegen luxemburgisches Recht, EU-Recht und französisches Recht gleichzeitig, muss niemand zwischen Werkzeugen, Suchlogiken und Datenwelten springen.

AiLexLux ist für die Realität juristischer Arbeit gebaut — nicht für eine künstlich vereinfachte Demo.

Cloud oder lokal: diese Entscheidung muss beim Kunden liegen

Wir sind außerdem überzeugt: Juristische Teams sollten sich nicht zwischen Leistungsfähigkeit und Kontrolle entscheiden müssen.

Manche wollen mit den besten Cloud-Modellen arbeiten. Andere brauchen lokale Modelle aus Vertraulichkeits-, Souveränitäts- oder Compliance-Gründen.

AiLexLux ist für beides gebaut:

  • führende Cloud-LLMs für maximale Leistungsfähigkeit,
  • lokale LLMs für kontrollierte Umgebungen,
  • hybride Setups, wenn je nach Mandat unterschiedliche Anforderungen gelten.

Diese Flexibilität ist kein nettes Extra. Für den Rechtsmarkt ist sie Infrastruktur.

Worum es eigentlich geht

Die Zukunft juristischer KI gehört nicht dem Anbieter mit dem hübschesten Legal Chatbot.

Sie gehört dem Anbieter mit der richtigen Architektur.

Das heißt:

  • Spitzenmodelle für Denken und Formulieren,
  • autoritative Recherche über Gesetz und Rechtsprechung,
  • exakten Zugriff auf Artikel und Fassungen,
  • klare Provenienz,
  • direkte Links zur Quelle,
  • modulare juristische Abdeckung,
  • modulübergreifende Recherche,
  • und einen Workflow, dem Juristinnen und Juristen tatsächlich vertrauen können.

Genau daran arbeiten wir mit AiLexLux.

Nicht an juristischer KI, die nur oberflächlich beeindruckt.

Sondern an juristischer KI, die fundiert, überprüfbar und wirklich brauchbar ist.

Warum wir AiLexLux gebaut haben

Wir haben AiLexLux gebaut, weil der Rechtsmarkt keine kleineren und schwächeren „Legal LLMs“ braucht.

Er braucht eine bessere juristische Schicht rund um die besten Modelle der Welt.

Er braucht ein System, das diesen Modellen gibt:

  • vollständigen Zugang zum Recht,
  • vollständigen Zugang zur Rechtsprechung,
  • exakte Zitierungen,
  • direkte Links zu autoritativen Quellen,
  • und einen sauberen Weg von der Recherche zum juristischen Arbeitsprodukt.

Darin liegt die eigentliche Chance.

Und daran sollte juristische KI unserer Meinung nach gemessen werden.

Nach oben scrollen