Häufige Fragen

KI-bezogene Fragen

 

F: Welche Art von Daten benötigt die KI zum Trainieren / Kalibrieren?

Das hängt von den verwendeten Funktionen ab:

  • Smart Check: Es werden keine Daten benötigt.

  • Playbooks: Fragen und kleinere Antwortkonfigurationen. Anweisungen (bestimmte zu berücksichtigende Aspekte) für bessere Ergebnisse.

  • Formale Prüfung: Klauseln und Bewertungen

Bitte siehe auch die Antwort auf: „Kann ich das Modell mit meinem Feedback weiter trainieren?“

 

F: Kann ich das Modell mit meinem Feedback zu den Ergebnissen weiter trainieren?

Mit jeder Bewertung liefern Sie dem System wertvolle Informationen – unabhängig von der verwendeten Funktion.
Wenn Sie eine KI-Antwort übernehmen oder im Playbook selbst antworten, wenn Sie bei Smart Check auf „Daumen hoch“ oder „Daumen runter“ klicken oder bei der Klauselprüfung einen Text akzeptieren bzw. ablehnen – all diese Bewertungen werden gespeichert, weiterverarbeitet und stehen (oder werden künftig bereitgestellt) für zukünftige Auswertungen innerhalb Ihres Mandanten zur Verfügung.

 

F: Wie hoch ist die durchschnittliche Halluzinationsrate?

Das ist eine Frage ohne einfache Antwort, da die Anwendung verschiedene „KI-Funktionen“ bietet und jedes Modul sie unterschiedlich nutzt.

Smart Check und Playbook Check verwenden LLM-Technologie zur Analyse der Inhalte hochgeladener Dokumente – dabei besteht ein geringes Risiko für Halluzinationen:

  • Beim Beantworten der Fragen in einem Playbook

  • Beim Erstellen eines „Anpassungsvorschlags“ in einem Smart Check

 

F: Warum erhalte ich unterschiedliche Ergebnisse im [Smart Check | Playbook Check]?

Große Sprachmodelle arbeiten probabilistisch, d. h. sie sagen Text basierend auf Wahrscheinlichkeiten voraus. Selbst bei demselben Dokument kann das Ergebnis daher variieren.
Einstellungen wie die Sprache können dazu führen, dass unterschiedlich viele Probleme erkannt werden.

Diese Variabilität ist ein grundlegendes Merkmal großer Sprachmodelle und ein bekanntes Phänomen solcher KI-Systeme. Wir arbeiten laufend daran, die Parameter weiter zu verfeinern, um eine höhere Konsistenz zu erreichen. Trotz dieser Bemühungen ist eine gewisse Variation ein natürlicher Bestandteil des Modells – das stellt eine bleibende Herausforderung bei der Anwendung solcher Modelle in Bereichen wie der juristischen Analyse dar.

 

F: Welches LLM wird von Contract Insights verwendet?

Wir verwenden Anthropic Titan V3 (bei AWS) zur Erstellung von Embeddings.

Für die Ausführung von Prompts nutzen wir OpenAI GPT-4o (bei Microsoft Azure).

Aktuell in der Evaluierung: Anthropic Claude sowie Mistral.

 

F: Kann ich mein eigenes LLM verwenden?

Diese Funktion befindet sich derzeit in der Entwicklung.

 

 


 

 

Nutzungsbezogene Fragen

F: Smart Check – Wie kann ich angeben (oder erkennt das System es selbst), ob wir auf der Käufer- oder Verkäuferseite stehen (z. B. bei einer M&A-Transaktion), da die Risikobewertung davon abhängt?

Wenn Sie einen Smart Check hochladen, analysiert das System vorab die erste Seite des Dokuments und versucht, die beiden Parteien zu identifizieren.
Das Ergebnis sehen Sie in den Feldern „Eigene Partei“ und „Andere Parteien“ – Sie können diese manuell anpassen oder neu eingeben.

Die Smart-Check-Funktion bewertet bevorzugt aus Sicht der „eigenen Partei“ und identifiziert Risiken insbesondere aus dieser Perspektive.

Falls die automatische Analyse fehlerhaft ist oder die erste Seite keine relevanten Informationen enthält, tragen Sie bitte die bevorzugte Partei manuell im Feld „Eigene Partei“ ein.