In Vorstandssitzungen taucht sicher gelegentlich die Frage auf: „Was bringt uns Legal AI konkret?" Und in einigen Rechtsabteilungen gibt es darauf noch keine ehrliche Antwort. Einerseits weil mehrere Tools im Einsatz sind, aber auch, weil niemand systematisch misst, ob sie wirken. Genau an diesem Punkt stecken die meisten Rechtsabteilungen heute. Nicht aus Gleichgültigkeit, sondern weil der Markt schneller wächst als die Fähigkeit, ihn zu beurteilen. Die Zahlen sind beeindruckend: Innerhalb eines einzigen Jahres hat sich die Nutzung generativer KI in Unternehmensrechtsabteilungen von 23 % auf 52 % mehr als verdoppelt – in einer Befragung von 657 Legal-Teams aus 30 Ländern (ACC/Everlaw 2025). Das Legal-Tech-Funding überschritt 2025 erstmals die 6-Milliarden-Dollar-Marke.
Nicht alles, was 2026 als Legal-AI-Trend verkauft wird, hält einer nüchternen Prüfung stand. Einige Entwicklungen sind allerdings keine Versprechen mehr, sondern operative Tatsachen – mit unmittelbaren Konsequenzen für die tägliche Arbeit einer Rechtsabteilung.
Seit Februar 2025 sind in der EU bestimmte KI-Anwendungen verboten, und alle Unternehmen, die KI einsetzen, müssen sicherstellen, dass ihre Mitarbeitenden wissen, was sie tun – und was nicht. Seit August 2025 sind auch Anbieter großer KI-Basismodelle reguliert; wer dagegen verstößt, riskiert Strafen bis zu 35 Millionen Euro oder 7% des globalen Jahresumsatzes. Ab August 2026 folgen die schärfsten Regeln: für KI-Systeme, die in sensiblen Bereichen wie Personalentscheidungen oder kritischer Infrastruktur eingesetzt werden. Dazu hat die EU das neue KI-Gesetz mit dem bestehenden Datenschutzrecht und den Cybersicherheitspflichten verknüpft – die Regelwerke greifen ineinander und verstärken sich gegenseitig.
Für Rechtsabteilungen bedeutet das eine Doppelverantwortung: die eigene KI-Nutzung absichern und gleichzeitig das gesamte Unternehmen durch dieses Regelwerk führen. Wer beides noch nicht als Daueraufgabe eingepreist hat, ist bereits im Rückstand.
Das neue europäische KI-Gesetz verpflichtet alle Unternehmen, die KI einsetzen, dafür zu sorgen, dass ihre Mitarbeitenden ein ausreichendes Verständnis davon haben. Verstöße können als Sorgfaltspflichtverletzung gewertet werden. Die Realität: 53% der Kanzleien haben keine klaren Regeln für den KI-Einsatz oder wissen nicht einmal, ob es solche gibt (Clio Legal Trends Report 2025).
Für die Rechtsabteilung liegt darin eine ungewohnte, aber strategisch wertvolle Rolle. Sie ist oft die einzige Stelle im Unternehmen, die diese Pflicht gegenüber IT, HR und operativen Bereichen glaubwürdig durchsetzen kann. Das ist ein Einfluss, der aktiv genutzt werden sollte.
Im ABA Legal Industry Report 2025 nennen 43% der Befragten die Einbindung in bestehende Arbeitsprozesse als wichtigstes Kaufkriterium – weit vor Features oder Modellqualität. Alle großen Anbieter bauen ihre Produkte heute so, dass sie direkt in bestehende Software integriert sind, statt als eigenständige Programme zu funktionieren.
Die entscheidende Frage lautet deshalb nicht mehr „Was kann das System in der Demo?", sondern: „Ist es eingebettet in den Vertragsprozess, das Vertragsmanagement, die Compliance-Arbeit?". Wer das noch nicht als Anforderung formuliert hat, kauft an dem vorbei, was den Unterschied macht.
Soweit die guten Nachrichten. Zwei der lautesten Versprechen der Branche verdienen allerdings deutlich mehr Skepsis.
Das ist das freundliche Narrativ eines Marktes, der gerade das Gegenteil tut. Das Unternehmen Clio übernahm den Rechtsdatenbank-Anbieter vLex für 1 Milliarde Dollar. Harvey – einer der bekanntesten Legal-AI-Anbieter – sammelte 760 Millionen Dollar in einem Jahr ein. 2024 gab es über 47 große Übernahmen im Legal-Tech-Sektor – mehr als doppelt so viele wie drei Jahre zuvor (LegalTech Management Group). Was als offenes Ökosystem vermarktet wird, sind in der Praxis oft Plattformen mit wachsenden Abhängigkeiten.
Die Konsequenz ist konkret: Jeder Vertrag mit einem Legal-AI-Anbieter sollte von Beginn an Regelungen dazu enthalten, wie eigene Daten exportiert und bei einem Anbieterwechsel mitgenommen werden können. Wer das heute versäumt, verhandelt in drei Jahren aus einer schwachen Position.
Thomson Reuters berichtet, dass über 50% der Organisationen mit KI-Strategie einen ROI sehen. Eine von Forrester im Auftrag von LexisNexis erstellte Studie errechnet 284% Rendite über drei Jahre. Solche Studien sind jedoch ausnahmslos von den jeweiligen Anbietern beauftragt. Die unabhängige Realität sieht anders aus: Nur 20% der Kanzleien prüfen systematisch, ob ihre KI-Investitionen Wert schaffen (Bloomberg Law 2025). Gartner prognostiziert zudem, dass über 40% aller Projekte mit sogenannten „agentischen" KI-Systemen – also solchen, die eigenständig Aufgaben übernehmen – bis Ende 2027 eingestellt werden. Für die nächste Budgetrunde bedeutet das: Wer KI-Ausgaben verteidigt, braucht Zahlen, die nicht vom Anbieter stammen. Wer heute keine eigene Messmethodik hat, steht in zwölf Monaten unter Druck.
Es gibt vier Entwicklungen, die in den meisten Trend-Berichten völlig fehlen und die für Rechtsabteilungen operativ am folgenreichsten sind. Sie reichen von handfesten Haftungsrisiken bis zu einer stillen Verschiebung in der Nachwuchsfrage. Sie hängen enger zusammen, als es auf den ersten Blick erscheinen mag.
KI-Systeme erfinden manchmal Quellen, Urteile oder Fakten, die nicht existieren. Das ist bekannt. Weniger bekannt ist das Ausmaß: Eine Datenbank der Wirtschaftshochschule HEC Paris dokumentiert weltweit 486 solcher Fälle vor Gerichten, davon 324 allein in den USA. Die Gerichte reagieren: Im Juli 2025 erklärte ein US-Bundesgericht, dass Geldstrafen allein „sich als unwirksam erweisen" (Johnson v. Dunn). Ein kalifornisches Berufungsgericht deutete zudem an, dass Anwälte künftig verpflichtet sein könnten, KI-generierte Fehler der Gegenseite aktiv aufzudecken und zu melden.
Für Rechtsabteilungen bedeutet das: Eine menschliche Prüfung aller KI-Ergebnisse ist kein optionaler Prozessschritt – sie ist eine Berufspflicht, die verbindlich im Team verankert sein muss. Klare Regeln dazu, wer KI-Outputs prüft und wie eskaliert wird, gehören in jede interne KI-Richtlinie.
Richter Rakoff entschied in den USA v. Heppner (S.D.N.Y.), dass mit Generativer KI erstellte Dokumente keinen Schutz durch das Anwaltsprivileg geniessen, wenn die verwendeten Tools keine vertraglichen Vertraulichkeitsgarantien bieten. Die Begründung ist einfach. Generative KI ist kein Anwalt, und viele Anbieter behalten sich das Recht vor, eingegebene Daten für das Training ihrer Modelle zu verwenden. Wer vertrauliche Informationen eingibt, hat damit keine berechtigte Erwartung, dass sie es auch bleiben (Arnold & Porter, 2026).
Das ist kein rein amerikanisches Problem: Wer sensible Vertrags-, Transaktions- oder Personaldaten in Generative KI eingibt, die vertraglich nicht zur Vertraulichkeit verpflichtet ist, riskiert nach europäischem Datenschutzrecht eine Pflichtverletzung. Spezialisierte Legal-AI-Lösungen, die garantieren, Daten weder zu speichern noch für Modelltraining zu verwenden, und die auf Servern in Europa betrieben werden, sind für eine Rechtsabteilung deshalb Pflicht.
Kanzleien investieren massiv in KI. Günstiger werden sie dadurch nicht. Im ersten Halbjahr 2025 stiegen ihre Betriebskosten um 8,6%, die Stundensätze um 9,2%. Die hundert grössten US-Kanzleien überschritten erstmals die 1.000-Dollar-Marke pro Stunde. Die Effizienzgewinne durch KI werden nicht an die Mandanten weitergegeben, sondern finanzieren den eigenen Technologieaufbau. Dass 39% der Kanzleien für 2024 flexible Honorarmodelle ankündigten, aber nur 9% sie tatsächlich einführten, spricht eine deutliche Sprache (Bloomberg Law 2025). Wer als Rechtsabteilung auf günstigere externe Beratung durch KI wartet, wartet vergeblich.
Was das bedeutet: Man wird noch eine Weile höhere Kanzleirechnungen sehen, während die versprochenen Einsparungen auf sich warten lassen. Das ist kein Argument gegen KI – aber es ist ein starkes Argument dafür, heute in eigene interne Kapazitäten zu investieren statt darauf zu warten, dass externe Effizienz irgendwann weitergegeben wird.
Goldman Sachs schätzt, dass 44% juristischer Tätigkeiten automatisierbar sind. Eine Studie des US-amerikanischen National Bureau of Economic Research aus 2025 zeigt allerdings, dass KI-Tools bislang kaum messbare Auswirkungen auf Arbeitszeiten oder Einkommen hatten – die durchschnittliche Zeitersparnis von 3% wird durch Fehlerkorrekturen größtenteils aufgezehrt. Das eigentliche Problem liegt woanders: Berufseinsteiger:innen, die Routineaufgaben wie Vertragsanalyse oder Recherche nie selbst durchgearbeitet haben, entwickeln weniger juristische Basiskompetenzen. Einige der größten US-Kanzleien haben die KI-Nutzung für Junioranwält:innen deshalb bereits eingeschränkt, um deren Fähigkeiten zunächst zu schulen, bevor Aufgaben delegiert werden.
Für Rechtsabteilungen stellt sich damit die Frage, wie das juristische Urteilsvermögen der nächsten Generation geschult wird, wenn die Aufgaben wegfallen, auf denen es aufbaut.
Diese vier blinden Flecken spielen sich nicht im Vakuum ab. Ihre Relevanz hängt auch davon ab, wo eine Rechtsabteilung tätig ist – und die regionale Dynamik ist überraschender als die meisten Berichte zeigen.
Europa gilt als regulierungsgebremst. Die Zahlen sagen jedoch was Anderes. Europäische In-house-Jurist:innen weisen mit 61% die weltweit höchste KI-Adoptionsrate auf – mehr als ihre US-Kollegen (ACC/Everlaw 2025). Der paradoxe Treiber ist das neue KI-Gesetz selbst. Es schafft Klarheit darüber, was erlaubt ist, und gibt Rechtsabteilungen eine strukturierte Begründung für Investitionen, die ohne regulatorischen Rückenwind intern schwerer durchzusetzen wären. Die Kehrseite: Die Tiefe der Nutzung ist noch gering. 56% der europäischen Rechtsabteilungen verwenden allgemeine Tools wie ChatGPT, aber nur 14% haben spezialisierte Legal-AI-Lösungen eingeführt (Wolters Kluwer/Legisway 2025). Adoptiert wird zwar schnell, aber flach. Das ist eine reale Chance für alle, die jetzt in echte Prozessintegration investieren wollen.
Die Schweiz verfolgt dabei bewusst einen eigenständigen Weg. Der Bundesrat hat eine risikobasierte KI-Strategie beschlossen, ohne das europäische KI-Gesetz direkt zu übernehmen. Das revidierte Datenschutzgesetz gilt seit September 2023 auch für KI-Anwendungen. Für Schweizer Rechtsabteilungen mit Geschäft in der EU entsteht daraus ein Doppel-Regime. Wer in die EU verkauft oder dort Mitarbeitende hat, muss auch das europäische KI-Recht kennen. Der Markt reagiert auf diesen Kontext: Swiss-Noxtua, ein auf Schweizer Servern betriebenes Legal-AI-System, wurde mit 80,7 Millionen Euro finanziert. Datensouveränität – also die Kontrolle darüber, wo und wie eigene Rechtsdaten verarbeitet werden – ist keine Ideologie mehr, sondern eine eigenständige Produktkategorie mit wachsender Nachfrage.
Die schnelle KI-Adoption in Europa zeigt, dass Europa zwar fix war damit, Generative KI einzuführen. Aber eher langsam oder noch in einem Lernprozess steckt, wenn es um die Einführung von Legal AI-Lösungen geht mit Fokus auf juristische Präzision und Datensicherheit. Zudem sind die Rechtsabteilungen noch nicht bereit, systematisch Effizienz- oder Produktivitätsgewinne zu messen.
Die nächste Phase wird nicht von neuer Technologie geprägt, sondern von ihrer strukturellen Wirkung auf das Verhältnis zwischen Rechtsabteilung, Kanzlei und Unternehmensführung. Drei Verschiebungen zeichnen sich ab – und alle drei begünstigen Rechtsabteilungen, die heute die richtigen Grundlagen legen.
Die folgenreichste Verschiebung aufgrund von KI-Nutzungn betrifft das Verhältnis zu externen Kanzleien. 78% der In-house-Teams planen, Vertragsgestaltung intern zu verlagern. 71% wollen das Vertragsmanagement selbst übernehmen.
64% aller In-house-Teams erwarten, dass ihre Abhängigkeit von externen Kanzleien sinkt (ACC/Everlaw 2025). Der Chef von Clio, einem der größten Anbieter von Kanzleisoftware, erklärt das klassische Stundenhonorar-Modell für strukturell unvereinbar mit den Produktivitätsgewinnen durch KI – und er hat recht.
Die Machtverschiebung zugunsten der Rechtsabteilung, die seit Jahren diskutiert wird, könnte damit ihren tatsächlichen Kipppunkt erreichen. Nicht durch einen großen Moment, sondern durch hundert kleine Entscheidungen, dass man diese und jene Aufgabe intern behält und dieses oder jenes Mandat nicht mehr vergibt.
Parallel dazu verliert Generische KI an strategischer Relevanz. Dafür wird spezialisierter, unternehmenseigener Kontext zum Wettbewerbsvorteil. Die National Law Review prognostiziert hochspezialisierte KI-Produkte bis Ende 2026 für beispielsweise Unternehmenstransaktionen, Patentanmeldungen sowie Arbeitsrecht.
Damit werden unternehmenseigene Vertragsvorlagen, Präzedenzfälle und Klauselsammlungen zum strategischen Kapital, das die Qualität der KI-Ergebnisse bestimmt. Rechtsabteilungen, die heute ihre Vertragsdaten strukturieren und zugänglich machen, bauen den Vorsprung auf, den andere erst noch aufzuholen versuchen.
Die dritte Verschiebung betrifft die Rolle der Rechtsabteilung selbst. Bloomberg Law beschreibt sie als Transformation zur „Architektin KI-gestützter Rechtsfunktionen", einer Einheit, die nicht mehr nur Rechtsberatung liefert, sondern die Infrastruktur gestaltet, mit der das Unternehmen rechtliche Entscheidungen trifft. Bjarne Tellmann, Autor von Law in the Era of AI, fasst es präzise zusammen:
„KI wird mehr Routinearbeit absorbieren. Aber das vermindert nicht die Bedeutung der Rechtsabteilung, es erhöht sie."
Was keine KI replizieren kann, bleibt exakt das, was den Unterschied macht: Urteilsvermögen in unklaren Situationen, strategische Einschätzung in politisch aufgeladenen Momenten, aufbauen von Vertrauen in die Unternehmensführung.
Für 2026 bedeutet das, dass sich nicht jedes Versprechen des letzten Jahres erfüllen wird. Aber die strukturellen Verschiebungen, mehr Aufgaben intern, tiefere Spezialisierung, eine stärkere Stellung der Rechtsabteilung, sind real und beschleunigen sich. Die Frage ist nur, wer sie aktiv gestaltet.
78% der Rechtsabteilungen weltweit planen, Vertragsgestaltung und Vertragsmanagement intern zu übernehmen. KI macht das realistisch. Weniger extern vergeben, mehr selbst steuern.
Generische KI kennt unser Unternehmen nicht. Spezialisierte Legal-AI-Lösungen, die mit unseren eigenen Vertragsvorlagen, Präzedenzfällen und internen Richtlinien arbeiten, liefern deutlich bessere Ergebnisse. Wer heute sein juristisches Wissen strukturiert und zugänglich macht, baut einen Vorsprung auf, den andere nicht einfach einkaufen können.
Wir dürfen nur Lösungen einsetzen, die vertraglich garantieren, unsere Daten nicht weiterzugeben. Ein US-Gericht hat im Februar 2026 entschieden, dass generative KI ohne diese Garantie die Vertraulichkeit rechtlicher Arbeit gefährdet. Dazu brauchen wir klare interne Regeln: Welche Tools, mit welchen Daten, von wem geprüft.
Seit Februar 2025 ist das gesetzliche Pflicht. Gemeint ist die Fähigkeit des gesamten Teams, KI-Ergebnisse kritisch zu beurteilen und zu wissen, wann eine menschliche Prüfung nicht ersetzt werden kann. Wer diese Kompetenz heute aufbaut, kann morgen anspruchsvollere KI-Systeme einsetzen, die Aufgaben selbstständig übernehmen. Rechtsabteilungen ohne diese Grundlage werden diese nächste Stufe nicht sicher nutzen können.
Die meisten Rechtsabteilungen haben die erste KI-Welle hinter sich. Sie haben Generische KI getestet, Bedenken diskutiert und erste Erfahrungen gesammelt. Allerdings ist Generische KI, die das Unternehmen nicht kennt, erst der Anfan. Sie ist kein echter Unternehmensvorteil. Dieser entsteht dort, wo spezialisierte KI-Lösungen auf das eigene juristische Wissen treffen. Auf Vertragsvorlagen, die über Jahre verfeinert wurden, auf Klauseln, die sich bewährt haben, auf interne Richtlinien, die die Geschichte des Unternehmens tragen. Dieses Wissen ist nicht kopierbar. Und es ist die einzige Grundlage, auf der Legal AI wirklich besser wird als die der Konkurrenz.
Wer sein Team heute in KI-Kompetenzen schult, bereitet sich auf die nächste Entwicklung vor: KI-Systeme, die Aufgaben selbstständig übernehmen. Die Rechtsabteilungen, die sie souverän einsetzen werden, sind heute damit beschäftigt, das Fundament zu legen. Nicht in Technologie, sondern in Menschen, die wissen, was KI kann und was sie nicht kann.