Die Entwicklung KĂŒnstlicher Intelligenz (KI) im Rechtsbereich verlĂ€uft nicht in gemĂ€chlichen Schritten, sondern in SprĂŒngen. Noch vor wenigen Jahren sprachen alle ĂŒber Large Language Models (LLMs) wie ChatGPT, Gemini oder Claude. Heute steigern diese Systeme ihre LeistungsfĂ€higkeit so schnell, dass Fachleute von einer âKapazitĂ€tsverdopplung pro Quartalâ sprechen. Mit den sogenannten Large Concept Models (LCMs) beginnt nun eine neue Phase: WĂ€hrend LLMs Wörter und Satzteile wie Perlen an einer Kette aneinanderreihen, arbeiten LCMs mit ganzen Bedeutungsblöcken. Semantische Einheiten, die wie fertige Gedankenpakete daherkommen. Das verĂ€ndert die Spielregeln: Stellen Sie sich vor, Sie lesen den Entwurf einer EU-Verordnung. Noch bevor Sie den Text ganz durchgearbeitet haben, meldet Ihr System: âAchtung! Der neue âSorgfaltspflichtâ-Tatbestand kollidiert mit Ihren internen Lieferketten-Regelungen.â Dabei taucht das Wort âLieferketteâ im Gesetz gar nicht auf. Ein LCM erkennt den inhaltlichen Zusammenhang trotzdem. Ein LLM könnte das nicht. FĂŒr die Compliance-Praxis ist das auch kein theoretischer Luxus. Es geht vielmehr um die FĂ€higkeit, Rechtsgedanken zu erkennen, zu vergleichen und in Beziehung zu setzen, statt sich allein auf sprachliche Muster zu verlassen.
Weiterlesen