Immer mehr Unternehmen experimentieren mit generativer KI – insbesondere mit ChatGPT, um Verträge schneller einzuschätzen.
Dieser Leitfaden zeigt:
- wie ChatGPT bei Vertragsanalysen arbeitet
- wo technische, juristische und prozessuale Grenzen liegen
- welche Risiken entstehen
- wie sich Legal AI davon unterscheidet
Vertragsprüfung mit ChatGPT - eine gute Idee?
Ein Vertrag wird in ChatGPT hochgeladen oder direkt in das Chatfenster von ChatGPT hineinkopiert. Der Anwendende möchte, dass ChatGPT Risiken markiert, Klauseln erklärt oder Empfehlungen ausspricht.
Der Gedanke dahinter ist nachvollziehbar. Man erhofft sich dadurch:
- weniger manuellen Aufwand
- eine schnelle Ersteinschätzung
- kein Warten auf interne oder externe Juristen
- einfache Nutzung ohne Setup
ChatGPT macht es einem einfach, weshalb eine Ersteinschätzung eines Vertrags mit ChatGPT verlockend ist. Doch die juristische Tragfähigkeit bleibt unklar, insbesondere vor dem Hintergrund, dass Large Language Modelle nach wie vor Halluzinieren oder intransparent sind in Bezug auf die Quellen ihrer Antworten. Es stellt sich eine zentrale Frage: Kann ein generatives Sprachmodell wie ChatGPT Verträge tatsächlich prüfen – verlässlich, strukturiert und juristisch belastbar?
Checkliste: Wie ChatGPT Verträge prüft
ChatGPT kann komplexe Texte erklären und umformulieren. Doch Vertragsprüfung ist kein sprachliches Problem – sondern ein juristisches Struktur-, Risiko- und Konsistenzthema.
Um die praktischen Grenzen besser einzuordnen, lohnt sich ein Blick auf die wichtigsten Schwachstellen.
1. Vertragsstruktur
ChatGPT arbeitet nicht mit einem klaren Modell, wie ein Vertrag aufgebaut sein muss. Es weiss nicht, welche Bestandteile zwingend vorgesehen sind – z. B.:
- Definitionen
- Zweckbindung
- Rechte und Pflichten
- Vertraulichkeit
- Haftungsregeln
- Laufzeiten
- Regelungen zur Beendigung oder Rückgabe von Daten
Ungewöhnlich formulierte oder untypisch strukturierte Abschnitte können übersehen werden. Die Analyse entsteht aus statistischen Textmustern, nicht aus juristischer Strukturlogik.
👉 Juristische Strukturprüfung ist etwas anderes als statistische Textanalyse.
2. Fehlende Best Practice-Regeln
Neben der fehlenden Struktur fällt besonders ins Gewicht, dass generative KI ohne juristische Bewertungsgrundlage arbeitet.
Generative KI verfügt über kein juristisch kuratiertes Playbook. Es fehlen:
- allgemein verbindliche Mindeststandards
- validierte Prüfregeln
- normative juristische Bewertungen
- systematische Modelle des Vertragsrechts
- risikoorientierte Entscheidungslogik („Wenn X fehlt, dann ist Y riskant“)
ChatGPT erzeugt generische Beschreibungen basierend auf Trainingsmustern. Es weiss nicht, wie eine gute oder vollständige Klausel aussehen müsste – und kann keine Qualitätsstandards anwenden.
Testen Sie Legartis kostenlos - mit dem NDA Best Practice Playbook !
3. Keine Risiken-Niveaus
Ein weiterer zentraler Unterschied betrifft die Bewertung der gefundenen Punkte. Juristische Risikobewertungen hängen immer vom Kontext ab:
- Rechtsordnung
- Unternehmensrichtlinien
- Erfahrung
- Verhandlungssituation
- operativen Anforderungen
- Risikoappetit
Ein Sprachmodell kennt diese Faktoren nicht. Daher kann ChatGPT:
- Risiken nicht gewichten
- keine Prioritäten setzen
- nicht zwischen juristischem und operativem Risiko unterscheiden
- keine Mindestanforderungen definieren
Es beschreibt mögliche Schwachstellen, bewertet aber nicht, wie relevant sie sind.
4. Keine Vollständigkeitsprüfung
Noch gravierender ist jedoch, dass ChatGPT keine Aussage darüber treffen kann, ob in einem Vertrag etwas fehlt.
ChatGPT kann nur den Text beurteilen, der ihm vorliegt. Es kann nicht erkennen:
- ob zwingende Klauseln fehlen
- ob ein Vertrag vollständig ist
- ob essenzielle Angaben ausgelassen wurden
- ob Fristen, Definitionen oder Zweckabschnitte fehlen
Generative KI arbeitet beschreibend – nicht prüfend.
Sie kann sagen, was da ist, aber nicht, was zwingend da sein müsste.
5. Fehlende Nachvollziehbarkeit
Hinzu kommt ein strukturelles Problem: Die Ergebnisse lassen sich kaum transparent nachvollziehen. ChatGPT kann nicht erklären, warum etwas riskant ist. Es liefert:
- keine juristischen Fundstellen
- keine dokumentierten Prüfprozesse
- keine standardisierte Logik
- keine nachvollziehbare Begründung
Die Antworten basieren auf statistischen Wahrscheinlichkeiten, nicht auf juristischen Regeln. Das Ergebnis klingt oft plausibel – ist aber nicht prüfbar.
6. Datenschutz und Vertraulichkeit
Ein weiterer zentraler Aspekt betrifft den Umgang mit vertraulichen Daten. Wenn Verträge in generische KI-Tools hochgeladen oder hineinkopiert werden, passiert damit Folgendes:
- die Inhalte werden an Server des Anbieters übertragen und dort verarbeitet
- je nach Produkt und Einstellung landen Eingaben in Log-Dateien
- bei manchen Konfigurationen dürfen Daten/Chat-Inhalte zur Verbesserung von Modellen oder Services verwendet werden
- der Speicherort der Daten liegt ausserhalb der eigenen Infrastruktur, meist in den USA; bedeutet: keine DSGVO-konforme Verarbeitung der Daten garantiert
Selbst wenn Anbieter versprechen, Eingaben nicht fürs Training zu verwenden, bleiben Fragen offen:
- Wie lange werden Daten gespeichert?
- Wer hat intern Zugriff?
- Wie werden Logs technisch geschützt?
- Lassen sich alle Daten auf Anfrage tatsächlich löschen?
Für vertrauliche Vertragsinhalte wie etwa Kundendaten, Mitarbeiterdaten, IP-relevante Informationen oder strategische Vereinbarungen bedeutet das:
Der Kontrollverlust über den Datenfluss ist real und nur begrenzt transparent.
Spezialisierte Legal-AI-Lösungen wie Legartis setzen genau hier an: Vertragsdaten werden in klar definierten Umgebungen verarbeitet, Hosting und Datenschutz sind vertraglich und technisch abgesichert, und es findet keine Nutzung der Inhalte zur allgemeinen Modellverbesserung statt.
Risiken bei der Vertragsprüfung mit ChatGPT
Legal AI vs. ChatGPT: Fundamentale Unterschiede
Die beschriebenen Einschränkungen von ChatGPT sind nicht nur Einzelfälle, sondern ergeben sich aus der grundlegenden Funktionsweise generativer Sprachmodelle. Diese Modelle sind darauf ausgelegt, Texte vorherzusagen, nicht Verträge nach festen rechtlichen Kriterien zu prüfen.
Legal AI hingegen basiert auf definierten juristischen Prüfregeln, strukturierten Contract Playbooks und reproduzierbaren Verfahren. Dadurch arbeitet sie fundamental anders: Sie folgt klaren Standards, bewertet Risiken nachvollziehbar und erkennt systematisch fehlende oder widersprüchliche Elemente.
Im direkten Vergleich zeigt sich daher ein grundlegender methodischer Unterschied: Generative KI formuliert wahrscheinlich gut klingende Antworten – Legal AI führt eine normativ definierte Vertragsprüfung durch.
Vergleich: Generische LLMs vs. spezialisierte Legal AI wie Legartis 
Wann ChatGPT trotzdem nützlich sein kann
Trotz der bekannten Einschränkungen kann ChatGPT in bestimmten Situationen eine sinnvolle Ergänzung sein. Es ist sicherlich geeignet für:
- Erklärungen einzelner Klauseln
- Zusammenfassungen
- Übersetzungen
- stilistische Optimierungen
- Formulierungsvarianten
Nicht geeignet für:
- Risikoanalyse
- verbindliche Bewertung
- Vollständigkeitsprüfung
- Priorisierung
- verlässliche Freigabeentscheidungen
Unternehmen setzen auf Legal AI
Unternehmen setzen für die Vertragsprüfung zunehmend auf spezialisierte KI-Lösungen, weil sie eine durchgängig strukturierte und nachvollziehbare Analyse ermöglichen. Solche Systeme identifizieren fehlende oder unklare Punkte, priorisieren Risiken nach juristischer Relevanz und liefern klare, umsetzbare Empfehlungen.
Gleichzeitig arbeiten sie reproduzierbar und konsistent – unabhängig von Zeitpunkt, Person oder Belastungssituation. Sie lassen sich leicht in bestehende Teamprozesse integrieren, unterstützen kollaboratives Arbeiten und stellen sicher, dass alle Prüfungen datenschutzkonform und nach klar definierten Standards erfolgen.
Erleben Sie den Unterschied! Kostenlose NDA-Prüfungen mit Legartis.
Fazit: ChatGPT ist ein Erklär-Assistent, aber kein Vertragsprüfungstool
ChatGPT ist ein leistungsfähiges Sprachmodell und kann bei der Formulierung oder beim Verständnis von Vertragstexten durchaus helfen. Doch eine verlässliche Vertragsprüfung erfordert mehr als Sprachkompetenz: Sie basiert auf juristischen Mindeststandards, klaren Strukturvorgaben, nachvollziehbarer Risikopriorisierung und der Fähigkeit, fehlende Klauseln zu erkennen. Hinzu kommen dokumentierte Prüfprozesse und datenschutzkonforme Verarbeitung – alles Anforderungen, die ein generatives Sprachmodell nicht erfüllen kann.
Legal AI wie Legartis schliesst genau diese Lücke: Sie kombiniert juristische Expertise mit technologischer Präzision und ermöglicht Unternehmen eine strukturierte, reproduzierbare und rechtssichere Vertragsprüfung.
Empfohlene Artikel
NDAs prüfen in Unternehmen: Warum Standard-Vorlagen riskant sind
Geheimhaltungsvereinbarungen (Non-Disclosure Agreements, kurz NDAs) gehören zu den meistgenutzten Verträgen in Unternehmen. Sie werden täglich unterschrieben – zwischen Sales..
Agentic Legal AI: Wenn KI vom Assistenten zum Akteur wird
Die Zeiten, in denen KI in der Rechtsbranche nicht viel mehr als ein glorifizierter Rechtschreibprüfer war, sind vorbei. Was vor wenigen Jahren noch nach Science-Fiction..



