Legal AI Talk: Neueste Large Language Model Trends

25.2.2025
  • 
xy
 Min Read
By 
Nicole Schnetzer

4 Experten diskutieren die neuesten LLM-Trends, Chancen und Risiken.

Large Language Models (LLMs) revolutionieren die Rechtsbranche und unterstützen die Vertragsanalyse, Dokumentenautomatisierung und auch den Research-Bereich mit einer immer grösseren KI-Genauigkeit. Herausforderungen wie Transparenz, Voreingenommenheit (Bias) und Ethik müssen jedoch angegangen werden, um eine verantwortungsvolle und effektive Integration in die Rechtspraxis zu gewährleisten. 
 

Im „Legal-AI-Talk“ über die neuesten Trends bei LLMs, der am 22. Januar 2025 stattfand, diskutieren die Experten Dr. Maria Börner, Head AI Competence Center bei Westernacher Solutions, Dr. Nils Feuerhelm, Legal Engineer & Legal AI Consultant, Gordian Berger, CTO von Legartis, und David Alain Bloch, CEO & Co-Founder von Legartis über die Entwicklung und Trends der großen Sprachmodelle (LLMs) und deren Implikationen für die Rechtsbranche.

Was sind die neuesten Entwicklungstrends in Sachen LLMs?

Gordian: Im Jahr 2024 verbesserten sich die KI-Basismodelle allmählich, aber es gab keine großen Durchbrüche im Vergleich zu den Vorjahren. Während die Benutzer einige Verbesserungen bei Modellen wie ChatGPT bemerkten, war die bedeutendste Änderung die Möglichkeit, mit weniger Rechenressourcen die gleichen Benchmark-Ergebnisse zu erzielen. Dieser Trend führte zu niedrigeren Kosten und tragfähigeren Geschäftsanwendungen. Obwohl KI-Modelle effizienter wurden, zeichnete sich ein widersprüchlicher Trend ab, bei dem hoch ressourcen-intensive Modelle wie das kostenlose Modell von OpenAI eine deutlich bessere Leistung zeigten. Aufgrund der hohen Kosten sind diese Modelle jedoch noch nicht für den breiten Einsatz geeignet, weisen aber auf das Potenzial für zukünftige Fortschritte hin.

Der europäische Sektor hat mit der Entwicklung eigener KI-Modelle wie Open GPT-X begonnen. Mit zunehmender Sorge um die Datensouveränität wächst die Nachfrage nach europäischen Alternativen zu dominierenden KI-Systemen in den USA. Während sich die Basismodelle nicht drastisch verändert haben, lernten Lösungsanbieter, wie sie ihre Nutzung optimieren können, was zu praktischeren Anwendungen führt. Im Jahr 2024 hat die KI-Akzeptanz zugenommen - zusammen mit dem Erscheinen der ersten wirklich profitablen KI-unterstützten Business-Use-Cases.

Einer der größten Trends im Jahr 2024 - und einer der Hauptschwerpunkte für 2025 - sind KI-Agenten (AI Agents). Im Gegensatz zu einfachen Chatbots können KI-Agenten mit APIs interagieren, Daten abrufen, auf E-Mails zugreifen, Suchanfragen durchführen und sogar mit anderen KI-Modellen kommunizieren. Dies eröffnet neue Möglichkeiten, insbesondere für Legal Tech-Anbieter. KI als echter Legal Assistant? Das wird in naher Zukunft möglich jetzt. KI-Agenten verfügen jetzt über die Fähigkeit für sogenannte Long-Term-Memories, das heisst, dass sie sich an Benutzerinteraktionen erinnern und historische Daten speichern können. Dies verbessert ihre Fähigkeit, personalisierte Antworten bereitzustellen und sich durch autonomes Lernen und Korrekturen kontinuierlich zu verbessern. Die Entwicklungen des Jahres 2024 haben die Grundlage für anspruchsvollere KI-Anwendungen gelegt, die KI effizienter, zugänglicher und branchenübergreifender machen, auch und insbesondere für den Rechtsbereich.

Legal AI Talk 2024-11-27

Maria: Ein bedeutender Trend ist der zunehmende Einsatz von ChatGPT im persönlichen Umfeld. „Freunde und Kollegen“ nutzen es für Aufgaben wie „Rezepte erstellen“, „Briefe schreiben“ und sogar für „kleine rechtliche Angelegenheiten“. Während große rechtliche Problem- und Fragestellungen noch immer von "echten" Anwälten behandelt werden müssen, wenden sich Menschen bei kleineren rechtlichen Anfragen an KI. Darüber hinaus wird ChatGPT vor allem in der „Weihnachtszeit“ für „emotionale Verbindungen“ genutzt, wo Menschen als „Chatbot-Freund“ mit ihm interagieren. Einige nutzen die KI sogar, um mithilfe von Daten von Plattformen wie „WhatsApp“ die Stimmen und Bilder verstorbener Angehöriger „nachzubilden“.

KI hat sich zu einem "Gamechanger" im Marketing entwickelt. Auf einerMarketing-Konferenzwurde gezeigt, wieKI-generierte Inhaltedie Branche umgestalten. „Adidas hat ein ganzes Marketing-Video mit KI produziert“, heißt es in dem Bericht. KI sei auch in der Lage, „Podcasts mit KI-generierten Diskussionenzu erzeugen, die völlig real klingen, sowiePräsentationen und Business-Pitches zu erstellen“. Derstarke Einsatz von großen Sprachmodellen im Marketinglieferebeeindruckende und vernünftige Ergebnisseund mache KI zu einem unverzichtbaren Werkzeug für die Erstellung von Inhalten.

Im juristischen Bereich wird KI vor allem durch „ChatGPT-basierte Anwendungsfälle“ eingesetzt. Anwälte nutzen KI für Aufgaben wie „Ausarbeitung und Überprüfung von Verträgen“, „Informationsextraktion“ und „Kunden-Onboarding“. KI erleichtert auch die „E-Mail-Kommunikation“ und verbessert „Kundeninteraktionen“. Diese KI-unterstützten Lösungen rationalisieren juristische Workflows und machen Prozesse effizienter.

Nils: „ChatGPT ist mittlerweile bei fast jedem Anwalt angekommen“ und „jeder experimentiert damit“. Die Technologie sei mittlerweile im Rechtsbereich weit verbreitet und bedeute eine deutliche Verschiebung bei der Einführung von KI. Es habe einen Anstieg der „Investitionen in Legal Tech und Legal Startups“ gegeben. Legal KI sei nicht mehr „vom Radar der VCs“, was die Innovation in diesem Bereich beschleunige. „Vor fünf bis zehn Jahren galt Legal Tech noch nicht als attraktiv, aber mit KI hat sich das geändert“, so der Experte.“

Ein weiterer aufkommender Trend ist die Fokussierung auf „domänenspezifische KI-Modelle“. In Deutschland arbeiten Legal KI-Anbieter in verschiedenen Rechtsordnungen an „spezifischen rechtlichen KI-Modellen“, die auf regionale rechtliche Rahmenbedingungen zugeschnitten sind. Es gebe nun „weniger Fokus auf die technische Entwicklung“ und „mehr Betonung auf Benchmarks“. Das „0.1-Preview-Modell“ sei zwar erschienen, habe aber „keinen großen Hype“ ausgelöst. „GPT-3 ist zwar zu erwarten“, es sei aber „super teuer“, weshalb die Rechtsbranche „echte Anwendungsfälle vor neuen Modellen“ priorisiert. Die Rechtsbranche setzt nun auf „bessere Argumentationsfähigkeiten“, insbesondere für „echte rechtliche Anwendungsfälle“. Ziel ist es, „echten Nutzen in rechtlichen Instrumenten zu finden“, um KI in der Branche praktischer und nützlicher zu machen.

Die tatsächlichen Anwendungsfälle im Rechtsraum

  • Zwei Hauptrichtungen: sich wiederholende Aufgaben (Steigerung der Produktivität durch Vertragsmanagement-Tools) und Massenschadensszenarien.
  • Erste Instanz der vertikalen Spezialisierung, die LLMs mit juristischem Fachwissen auf hohem Niveau kombiniert.
  • Traditionelle Legal Tech erforderte eine manuelle Programmierung, aber Legal AI hilft jetzt bei kleineren Ansprüchen und Mandantenmandaten.
  • Neue digitale Vorschriften wie DSA (Digital Services Act) und DAU schaffen KI-getriebene Compliance-Chancen.
  • Viele Legal Tech Anbieter integrieren KI mit deterministischen Technologien.
  • Document Management Systeme (DMS) beinhalten jetzt KI-Funktionen, ob notwendig oder nicht.KI-Einführung getrieben von Markttrends, wobei nur die effektivsten Lösungen erhalten bleiben dürften.
  • Die Automatisierung sich wiederholender Aufgaben und KI-gesteuerte Compliance-Lösungen sind wichtige Trends, die die rechtliche KI prägen. 

Lernen Sie Legartis kennen, die führende KI für Vertragsanalysen: 

New call-to-action

Welche Herausforderungen im Bereich LLM kommen auf uns zu?

Maria: KI-Modelle schneiden in Englisch außergewöhnlich gut ab, aber ihre Leistung in Sprachen wie Französisch, Spanisch und anderen europäischen Sprachen ist nach wie vor eine erhebliche Herausforderung. Dies ist insbesondere in Europa relevant, wo mehrsprachige Fähigkeiten von entscheidender Bedeutung sind. Eine wichtige Entwicklung in diesem Bereich ist OpenGPTX, ein europäisches KI-Modell, das nur auf 50% englischen Daten trainiert ist, verglichen mit dem LLaMA von Meta, das auf 89% englischen Daten trainiert wurde. OpenGPTX enthält einen höheren Anteil an deutschen, französischen und spanischen Daten und eignet sich daher besser für mehrsprachige Anwendungen und rechtliche Kontexte in ganz Europa.

Ein weiteres großes Problem ist die KI-Regulierung und der Datenschutz. Viele Anwender verlassen sich auf ChatGPT, ohne die Auswirkungen der Datennutzung vollständig zu berücksichtigen. Bei der Verwendung der offenen Version können Daten für weitere KI-Schulungen verwendet werden, was insbesondere für Unternehmen und Rechtsanwälte, die mit sensiblen Informationen umgehen, Risiken birgt. Um dies zu mildern, ist es wichtig, Unternehmensversionen von Legal AI-Tools zu verwenden und sich der Art der eingegebenen Daten bewusst zu sein. Dies ist insbesondere für Rechtsanwälte relevant, die in einigen Fällen unwissentlich Geschäftsgeheimnisse oder vertrauliche rechtliche Informationen in KI-Systeme eingegeben haben und dadurch möglicherweise sensible Daten preisgeben.

In der Rechtsbranche wird KI zunehmend als Wissensbasis genutzt. Allerdings sind KI-generierte Rechtsreferenzen nicht immer genau, und es gab Fälle, in denen Anwälte unwissentlich erfundene oder falsche Rechtsentscheidungen in offiziellen Dokumenten zitierten. Trotz des Bewusstseins für dieses Thema kommt es immer wieder zu solchen Vorfällen, die die Notwendigkeit einer Überprüfung durch externe Quellen wie Google oder Rechtsdatenbanken unterstreichen. Aufklärung und Bewusstsein für die Grenzen der KI sind entscheidend, um ihren verantwortungsvollen Einsatz in rechtlichen Rahmenbedingungen zu gewährleisten.

Gerichte und Richter sind bei der Einführung von KI in erster Linie aufgrund der erforderlichen erheblichen Rechenressourcen nur zögerlich vorgegangen. Die meisten KI-Systeme verlassen sich auf Cloud-Dienste wie Azure oder AWS, aber aufgrund des U.S. Cloud Act könnten Daten, die auf diesen Plattformen gespeichert sind, möglicherweise von US-Behörden abgerufen werden. Dies macht solche Cloud-Lösungen für Gerichtsanwendungen ungeeignet, da Gerichte eine hochsichere und lokale Datenspeicherung benötigen. Infolgedessen wächst das Interesse an der Entwicklung kleinerer KI-Modelle, die auf lokalen Cloud-Anbietern laufen können, wodurch die Abhängigkeit von großen, ausländischen Cloud-Infrastrukturen verringert wird.

Der Wechsel zu kleineren KI-Modellen ist nicht nur vorteilhaft für Sicherheit und Kosteneffizienz, sondern auch für die Nachhaltigkeit. Kleinere Modelle benötigen weniger Ressourcen, verbrauchen weniger Energie und sind umweltfreundlicher. Da sich KI weiter entwickelt, geht der Trend zu effizienteren und spezialisierteren Modellen, die Leistung, Sicherheit und Umweltbelastung in Einklang bringen.

David: "Und ein kleineres Modell bedeutet ja nicht zwingend weniger oder schlechtere Ergebnisse. Es kann definitiv sogar bedeuten, dass Sie bessere Ergebnisse für genau das, was Sie tatsächlich brauchen.“

Wie sieht die wirtschaftliche Situation in Bezug auf KI in Europa aus?

Gordian: Viele Unternehmen, darunter auch Konzerne und Anwaltskanzleien, entwickeln zunehmend eigene Proof-of-Concept-Lösungen (POCs) und KI-Lösungen. Dies spiegelt zwar ein wachsendes Interesse an KI wider, bringt aber sowohl Vorteile als auch Herausforderungen mit sich. Positiv ist, dass Unternehmen mit vorhandenen Frameworks schnell einfache KI-Tools erstellen und so experimentieren können, ohne auf externe Anbieter angewiesen zu sein.

Die eigenständige Entwicklung einer KI-Lösung birgt jedoch auch Risiken. Viele Unternehmen unterschätzen die erforderlichen Investitionen, was zu Skaleneffekten und unerwarteten Kosten führt. Während Lösungsanbieter umfangreiche Ressourcen in die KI-Entwicklung stecken, müssen sich Unternehmen, die ihre eigenen POCs aufbauen, auch auf laufende Wartung und Benchmarking verpflichten, um die Qualität zu gewährleisten.

Darüber hinaus entwickelt sich die KI-Landschaft ständig weiter, was bedeutet, dass heute entwickelte Lösungen innerhalb weniger Monate veraltet sein können, wenn sie nicht regelmäßig aktualisiert werden. Unternehmen müssen langfristige Wartung, Einhaltung von Vorschriften wie dem KI-Gesetz und allgemeine Anpassungsfähigkeit berücksichtigen, um mit dem technologischen Fortschritt Schritt zu halten. Diese Herausforderungen unterstreichen die Notwendigkeit einer sorgfältigen Planung bei der Integration von KI in Unternehmens- und Rechtsumgebungen.

Was sind die Risiken und Chancen für Anwender von KI?

Risiken für KI-Anwender

Maria: KI wird immer einfacher zu bedienen, viele Menschen verlassen sich für verschiedene Aufgaben auf Tools wie ChatGPT. Ein großes Risiko liegt jedoch im Datenschutz, da Nutzer oft Fotos, persönliche Daten und sogar Gespräche hochladen, ohne zu bedenken, dass diese Informationen für KI-Schulungen genutzt oder sogar missbraucht werden können. In einigen Ländern teilen Menschen ihre Daten bereitwillig mit Cloud-Anbietern, oft ohne zu wissen, wie ihre Informationen gespeichert oder verarbeitet werden.

In Europa sorgen strenge Vorschriften wie der AI Act, der Data Act und der Cloud Act dafür, dass der Datenschutz durch Design stärker in den Fokus rückt. Das bedeutet, dass in Europa entwickelte KI-Lösungen von Anfang an darauf ausgelegt sind, Daten sicher zu halten und sicherzustellen, dass Informationen auf den Geräten der Nutzer verbleiben oder nur bei zugelassenen Cloud-Anbietern gespeichert werden. Dies erhöht zwar die Sicherheit der Nutzer, führt aber auch zu Herausforderungen - einige große KI-Unternehmen meiden derzeit den europäischen Markt aufgrund regulatorischer Bedenken. So hat sich beispielsweise Meta entschieden, eine aktualisierte Version von LLaMA in der EU aufgrund von Urheberrechtsproblemen und Compliance-Befürchtungen nicht zu veröffentlichen.

Ein weiteres kritisches Thema sind die Umweltauswirkungen von KI. Die CO2-Bilanz der GPT-3-Ausbildung entspricht dem Betrieb von fünf benzinbetriebenen Autos während des gesamten Produktionsprozesses. Die tägliche Nutzung von KI verursacht sogar mehr Emissionen als das anfängliche Training, was den Verbrauch von KI zu einem bedeutenden Umweltproblem macht. Eine einzelne ChatGPT-Abfrage erzeugt den zehnfachen CO2-Fußabdruck einer Google-Suche, dennoch nutzen viele Menschen ChatGPT zur Wissensgewinnung, obwohl Google zuverlässigere Informationen mit einer geringeren Umweltbelastung liefert.

Die Aufklärung der Nutzer über Datensicherheit und den ökologischen Fußabdruck der KI ist von entscheidender Bedeutung. KI bietet zwar viele Vorteile, hat aber auch ihren Preis, und das Bewusstsein für diese Auswirkungen wird in Zukunft immer wichtiger werden.

Chancen für KI-Anwender

Maria: Vorschriften, insbesondere im Bereich des Datenschutzes, sind nicht nur Einschränkungen, sondern auch Innovationsmotoren. Ein Beispiel ist das Federated Learning (FL), mit dem KI-Modelle direkt auf dem Gerät eines Nutzers trainiert werden können, ohne dass Rohdaten mit der Cloud geteilt werden. Stattdessen wird nur das trainierte Modell übermittelt, was eine größere Datensicherheit gewährleistet und dennoch Fortschritte bei der KI ermöglicht. Anstatt die europäischen Vorschriften als Hindernis zu sehen, können sie eine Quelle des technologischen Fortschritts sein. Europas Fokus auf sichere KI-Lösungen fördert die Entwicklung von Innovationen, bei denen der Schutz der Privatsphäre im Vordergrund steht. So kann Europa im globalen Wettbewerb bestehen und gleichzeitig hohe Standards für Datenschutz und KI-Effizienz aufrechterhalten.

Nils: KI bietet erhebliche Effizienzgewinne für Juristen, da sich wiederholende Aufgaben wie die Überprüfung von Dokumenten und juristische Recherchen reduziert werden. Dadurch können sich Anwälte und Richter auf komplexe Rechtsangelegenheiten konzentrieren, anstatt Zeit mit der Suche nach Informationen zu verbringen. Über die Effizienz hinaus ermöglicht die KI auch neue Geschäftsmodelle im Rechtssektor. Durch die Senkung der Kosten und die Verbesserung des Zugangs zum Recht können KI-gestützte Dienste den Rechtsbeistand erschwinglicher und zugänglicher machen. Ein gutes Beispiel dafür sind Flugentschädigungsdienste, die den Prozess der Rückerstattung durch Automatisierung rationalisiert haben. Ähnliche KI-unterstützte Rechtsdienstleistungen könnten auch in anderen Bereichen entstehen und die Rechtsberatung kostengünstiger und leichter zugänglich machen.

KI verbessert auch den Kundenservice: Chatbots und automatisierte Tools für die juristische Ausbildung helfen den Nutzern bei der Navigation durch juristische Prozesse, z. B. bei der Unterstützung bei der Steuererklärung. Davon profitieren sowohl Nicht-Juristen, die Rat suchen, als auch Juristen, die Unterstützung bei ihrer Arbeit benötigen.

Eine zentrale Herausforderung ist die Frage, wie sich die juristische Ausbildung mit KI weiterentwickeln wird. Da KI jetzt Verträge entwerfen und Rechtsdokumente sofort erstellen kann, müssen Juristen ihren Schwerpunkt auf die Überprüfung von KI-generierten Inhalten verlagern, anstatt sie von Grund auf neu zu erstellen. Allerdings müssen die Universitäten KI noch effektiv in ihre Lehrpläne integrieren, so dass unklar ist, wie sich die juristische Ausbildung in Zukunft anpassen wird. 

Wie können Anbieter von KI-Lösungen ein Gleichgewicht zwischen Flexibilität, Compliance und Automatisierung im Bereich Legal Tech herstellen?

Gordian: Anbieter von KI-Lösungen müssen sich aufgrund der sich ständig verbessernden KI-Technologie und der sich ändernden Compliance-Vorschriften an flexible Modelle anpassen. Wenn ein Modell eingeschränkt wird, müssen die Anbieter darauf vorbereitet sein, das Modell zu wechseln, ohne die Qualität zu beeinträchtigen. Diese Flexibilität erstreckt sich auch auf aufgabenspezifische Modelle, da verschiedene Modelle bei der Identifizierung rechtlicher Themen oder der Umformulierung von Klauseln auf der Grundlage individueller Anforderungen besser abschneiden.

Ein weiterer wichtiger Trend ist der Bedarf an On-Premise-KI-Lösungen, insbesondere im Rechtsbereich, wo streng vertrauliche Verträge nicht mit Anbietern geteilt werden dürfen. Daher müssen Anbieter kleinere Modelle unterstützen und herstellerunabhängige Plattformen anbieten, die es den Kunden ermöglichen, KI in ihrer eigenen Infrastruktur zu hosten. Glücklicherweise wird die Qualität kleinerer KI-Modelle immer besser, so dass die Einführung von KI vor Ort leichter möglich ist. Transparenz und Nachvollziehbarkeit werden zu erwarteten Merkmalen von KI-Lösungen. Die Nutzer wollen verstehen, wie KI zu Entscheidungen kommt, um Missverständnisse durch falsch interpretierte Eingabeaufforderungen oder fehlenden Kontext zu vermeiden. Die Bereitstellung klarer Erklärungen in KI-Tools hilft den Nutzern, ihre Eingaben zu verfeinern und bessere Ergebnisse zu erzielen.

Eine wichtige Veränderung im Jahr 2025 wird die Automatisierung durch KI-Agenten sein. Bisher mussten die Nutzer manuell Eingabeaufforderungen eingeben, um von der KI generierte Ergebnisse zu erhalten. Mit KI-Agenten kann das System selbst Prompts generieren, wodurch der Bedarf an Prompt-Ingenieuren sinkt und die KI mit minimaler Überwachung durch Experten autarker wird. Dieser Trend wird für Anbieter von KI-Lösungen zu mehr Automatisierung und Effizienz führen.

Welche LLM-Trends können wir im Jahr 2025 erwarten?

Nils: Es wird erwartet, dass KI-Agenten der nächste große Trend sein werden, der die Automatisierung von Arbeitsabläufen, komplexen Aufgaben und mehrstufigen Prozessen vorantreibt. Im Gegensatz zu einfachen benutzerdefinierten GPTs werden echte KI-Agenten mehrere LLMs integrieren, um fortgeschrittene juristische Aufgaben zu erledigen, wie z. B. die Erstellung von Verträgen und die Bearbeitung von Forderungen. Juristische Prozesse umfassen Recherchen, das Sammeln von Kundeninformationen und eine iterative Kommunikation, was sie für eine einzelne KI-Eingabeaufforderung zu komplex macht. Stattdessen werden die Automatisierung von Aufgaben und die KI-gesteuerte Neugestaltung von Prozessen in diesem Jahr die wichtigsten Herausforderungen und Entwicklungen sein. Ein weiterer wichtiger Trend ist die Kombination von juristischem Fachwissen mit Anbietern von KI-Tools, wie das Beispiel von DORA zeigt, wo Anwaltskanzleien mit KI-Entwicklern zusammenarbeiten, um hochwertige, spezialisierte KI-Lösungen zu entwickeln. 

Maria: Ein wichtiger positiver Trend für das kommende Jahr ist die Kombination von generativer KI mit einer Wissensbasis, die es den Nutzern ermöglicht, Quellen zu überprüfen und den von der KI generierten Informationen zu vertrauen. Dieser Fokus auf erklärbare KI wird von entscheidender Bedeutung sein, um Transparenz bei der KI-Entscheidungsfindung zu gewährleisten, nicht nur bei der Texterstellung, sondern auch in Bereichen wie der Bilderkennung im rechtlichen Kontext. Ein signifikanter negativer Trend ist jedoch die Zunahme von Deepfakes, insbesondere in Wahlperioden. KI-generierte Inhalte sind inzwischen so weit fortgeschritten, dass es schwierig ist, zwischen echten und gefälschten Inhalten zu unterscheiden. Die EU-Verordnungen schreiben zwar die Kennzeichnung von Deepfakes vor, doch dies verhindert nicht den kriminellen Missbrauch, der immer mehr Anlass zur Sorge gibt.

Ein weiteres wichtiges Thema sind die Kosten für KI-Modelle. Die Modelle werden zwar immer kleiner und billiger, aber große Anbieter wie OpenAI und Microsoft müssen ihre Investitionen erst noch wieder einspielen. Es bleibt ungewiss, ob KI-Dienste wie ChatGPT und Copilot aufgrund der hohen Ressourcen- und Schulungskosten in Zukunft Preiserhöhungen erfahren werden. Die KI-Preise werden sich wahrscheinlich ändern, wenn neue Modelle eingeführt werden, wobei OpenAI seine Modelle ständig aktualisiert.

Ein Hauptproblem ist die mit der Zeit abnehmende Effizienz von KI-Modellen. Da die KI immer mehr Texte und Bilder generiert, werden künftige Modelle eher aus KI-generierten Inhalten als aus realen Daten lernen, was die Qualität beeinträchtigen kann. 

Gordian: Die Einführung von KI-Tools ist noch im Gange, wobei große Technologieunternehmen KI in ihre Ökosysteme integrieren. Google Workspace hat Gemini für alle Nutzer aktiviert, und auch Apple und Microsoft integrieren KI in ihre Plattformen. Der Erfolg dieser Integrationen wird von der Zufriedenheit der Nutzer und der Rentabilität abhängen.

Ein wichtiger Trend für das Jahr 2025 sind KI-Agenten, die jedoch Sicherheitsrisiken mit sich bringen, insbesondere Prompt Injections. Autonome Agenten mit E-Mail-Zugang könnten von externen Akteuren manipuliert werden, wodurch sensible Daten wie Passwörter offengelegt werden könnten. Dies unterstreicht die Notwendigkeit eines sorgfältigen KI-Einsatzes und von Maßnahmen zur Datensicherheit. Startups arbeiten bereits an Lösungen, aber Bewusstsein und Risikomanagement bleiben entscheidend.

David: Vielen Dank an Nils, Maria und Gordian für Ihre Teilnahme am heutigen Legal AI Talk. Und ein großes Dankeschön an unser Publikum!

(Webinar-Recording)


Entdecke weitere Insights

Weitere relevante Inhalte zu diesem Thema

Know-How

Trends 2025 bei KI- Vertragsanalyse

Read now
Learn more
Know-How

15 LLM-Trends und ihr Einfluss auf Legal AI

Read now
Learn more
Know-How

Agentic Legal AI: Wenn KI vom Assistenten zum Akteur wird

Read now
Learn more

Starte heutemit Legartis!

Talk to us about your business case or test Legartis right away!

Demo buchen
Jetzt testen
DSGVO-konform
Servers in Switzerland and Europe
ISO 27001-certified