Immer mehr Unternehmen experimentieren mit generativer KI – insbesondere mit ChatGPT, um Verträge schneller einzuschätzen.
Dieser Leitfaden zeigt:
Ein Vertrag wird in ChatGPT hochgeladen oder direkt in das Chatfenster von ChatGPT hineinkopiert. Der Anwendende möchte, dass ChatGPT Risiken markiert, Klauseln erklärt oder Empfehlungen ausspricht.
Der Gedanke dahinter ist nachvollziehbar. Man erhofft sich dadurch:
ChatGPT macht es einem einfach, weshalb eine Ersteinschätzung eines Vertrags mit ChatGPT verlockend ist. Doch die juristische Tragfähigkeit bleibt unklar, insbesondere vor dem Hintergrund, dass Large Language Modelle nach wie vor Halluzinieren oder intransparent sind in Bezug auf die Quellen ihrer Antworten. Es stellt sich eine zentrale Frage: Kann ein generatives Sprachmodell wie ChatGPT Verträge tatsächlich prüfen – verlässlich, strukturiert und juristisch belastbar?
ChatGPT kann komplexe Texte erklären und umformulieren. Doch Vertragsprüfung ist kein sprachliches Problem – sondern ein juristisches Struktur-, Risiko- und Konsistenzthema.
Um die praktischen Grenzen besser einzuordnen, lohnt sich ein Blick auf die wichtigsten Schwachstellen.
ChatGPT arbeitet nicht mit einem klaren Modell, wie ein Vertrag aufgebaut sein muss. Es weiss nicht, welche Bestandteile zwingend vorgesehen sind – z. B.:
Ungewöhnlich formulierte oder untypisch strukturierte Abschnitte können übersehen werden. Die Analyse entsteht aus statistischen Textmustern, nicht aus juristischer Strukturlogik.
👉 Juristische Strukturprüfung ist etwas anderes als statistische Textanalyse.
Neben der fehlenden Struktur fällt besonders ins Gewicht, dass generative KI ohne juristische Bewertungsgrundlage arbeitet.
Generative KI verfügt über kein juristisch kuratiertes Playbook. Es fehlen:
ChatGPT erzeugt generische Beschreibungen basierend auf Trainingsmustern. Es weiss nicht, wie eine gute oder vollständige Klausel aussehen müsste – und kann keine Qualitätsstandards anwenden.
Ein weiterer zentraler Unterschied betrifft die Bewertung der gefundenen Punkte. Juristische Risikobewertungen hängen immer vom Kontext ab:
Ein Sprachmodell kennt diese Faktoren nicht. Daher kann ChatGPT:
Es beschreibt mögliche Schwachstellen, bewertet aber nicht, wie relevant sie sind.
Noch gravierender ist jedoch, dass ChatGPT keine Aussage darüber treffen kann, ob in einem Vertrag etwas fehlt.
ChatGPT kann nur den Text beurteilen, der ihm vorliegt. Es kann nicht erkennen:
Generative KI arbeitet beschreibend – nicht prüfend.
Sie kann sagen, was da ist, aber nicht, was zwingend da sein müsste.
Hinzu kommt ein strukturelles Problem: Die Ergebnisse lassen sich kaum transparent nachvollziehen. ChatGPT kann nicht erklären, warum etwas riskant ist. Es liefert:
Die Antworten basieren auf statistischen Wahrscheinlichkeiten, nicht auf juristischen Regeln. Das Ergebnis klingt oft plausibel – ist aber nicht prüfbar.
Ein weiterer zentraler Aspekt betrifft den Umgang mit vertraulichen Daten. Wenn Verträge in generische KI-Tools hochgeladen oder hineinkopiert werden, passiert damit Folgendes:
Selbst wenn Anbieter versprechen, Eingaben nicht fürs Training zu verwenden, bleiben Fragen offen:
Für vertrauliche Vertragsinhalte wie etwa Kundendaten, Mitarbeiterdaten, IP-relevante Informationen oder strategische Vereinbarungen bedeutet das:
Der Kontrollverlust über den Datenfluss ist real und nur begrenzt transparent.
Spezialisierte Legal-AI-Lösungen wie Legartis setzen genau hier an: Vertragsdaten werden in klar definierten Umgebungen verarbeitet, Hosting und Datenschutz sind vertraglich und technisch abgesichert, und es findet keine Nutzung der Inhalte zur allgemeinen Modellverbesserung statt.
Die beschriebenen Einschränkungen von ChatGPT sind nicht nur Einzelfälle, sondern ergeben sich aus der grundlegenden Funktionsweise generativer Sprachmodelle. Diese Modelle sind darauf ausgelegt, Texte vorherzusagen, nicht Verträge nach festen rechtlichen Kriterien zu prüfen.
Legal AI hingegen basiert auf definierten juristischen Prüfregeln, strukturierten Contract Playbooks und reproduzierbaren Verfahren. Dadurch arbeitet sie fundamental anders: Sie folgt klaren Standards, bewertet Risiken nachvollziehbar und erkennt systematisch fehlende oder widersprüchliche Elemente.
Im direkten Vergleich zeigt sich daher ein grundlegender methodischer Unterschied: Generative KI formuliert wahrscheinlich gut klingende Antworten – Legal AI führt eine normativ definierte Vertragsprüfung durch.
Trotz der bekannten Einschränkungen kann ChatGPT in bestimmten Situationen eine sinnvolle Ergänzung sein. Es ist sicherlich geeignet für:
Nicht geeignet für:
Unternehmen setzen für die Vertragsprüfung zunehmend auf spezialisierte KI-Lösungen, weil sie eine durchgängig strukturierte und nachvollziehbare Analyse ermöglichen. Solche Systeme identifizieren fehlende oder unklare Punkte, priorisieren Risiken nach juristischer Relevanz und liefern klare, umsetzbare Empfehlungen.
Gleichzeitig arbeiten sie reproduzierbar und konsistent – unabhängig von Zeitpunkt, Person oder Belastungssituation. Sie lassen sich leicht in bestehende Teamprozesse integrieren, unterstützen kollaboratives Arbeiten und stellen sicher, dass alle Prüfungen datenschutzkonform und nach klar definierten Standards erfolgen.
ChatGPT ist ein leistungsfähiges Sprachmodell und kann bei der Formulierung oder beim Verständnis von Vertragstexten durchaus helfen. Doch eine verlässliche Vertragsprüfung erfordert mehr als Sprachkompetenz: Sie basiert auf juristischen Mindeststandards, klaren Strukturvorgaben, nachvollziehbarer Risikopriorisierung und der Fähigkeit, fehlende Klauseln zu erkennen. Hinzu kommen dokumentierte Prüfprozesse und datenschutzkonforme Verarbeitung – alles Anforderungen, die ein generatives Sprachmodell nicht erfüllen kann.
Legal AI wie Legartis schliesst genau diese Lücke: Sie kombiniert juristische Expertise mit technologischer Präzision und ermöglicht Unternehmen eine strukturierte, reproduzierbare und rechtssichere Vertragsprüfung.