Python SDK: Integrationsreferenz | API: Evaluierungsendpunkt
Das Problem, das es löst
Ohne Middleware bedeutet das Hinzufügen von verantwortungsbewussten KI-Überprüfungen zu jedem LLM-Aufruf, dass Sie Evaluierungscode an jedem Ort schreiben müssen, an dem Sie das LLM aufrufen, was zu doppelter Logik, Risiken von Abdeckungsproblemen und einer Unordnung in Ihrem Anwendungscode führt:Wie es funktioniert
Wenn Sie eine Methode auf dem RAIL-Wrapper aufrufen, passieren drei Dinge transparent:- Ihre Nachrichten werden als normaler API-Aufruf an die zugrunde liegende LLM-API weitergeleitet.
- Die LLM-Antwort wird im von Ihnen konfigurierten Modus an den RAIL-Evaluierungsendpunkt übermittelt.
- Ein umschlossenes Antwortobjekt wird zurückgegeben, das den ursprünglichen Inhalt, den RAIL-Score, die Scores pro Dimension und einen
threshold_met-Boolean enthält, alles in einem Rückgabewert.
Unterstützte Anbieter
| Wrapper | Wraps | Python | JavaScript |
|---|---|---|---|
RAILOpenAI | OpenAI-Chat-Vervollständigungen | Ja | Ja |
RAILGemini | Google Gemini | Ja | Ja |
RAILAnthropic | Anthropic Claude | Ja | Ja |
RAILLangChain | Jedes LangChain LLM | Ja | — |
| Benutzerdefinierter Wrapper | Jedes HTTP-basiertes LLM | Ja | Ja |
Beobachtungsmodus vs. Durchsetzungsmodus
- Nur beobachten
- Schwellenwert durchsetzen
- Automatisch regenerieren
Bewerten Sie jede Antwort, blockieren Sie niemals. Verwenden Sie dies, um die Qualität zu messen, ohne den Antwortfluss zu unterbrechen.
Schreiben von benutzerdefinierter Middleware
Wenn Sie einen LLM-Anbieter ohne integrierten Wrapper verwenden, erstellen Sie Ihre eigene Middleware mit dem Kernaufrufeval():
Was kommt als Nächstes
Konzepte: Policy Engine
Deklarative Regeln, um auf Scores über eine Sitzung zu reagieren.
Python: Integrationen
Vollständige Dokumentation und Optionen für Anbieter-Wrapper.
JavaScript: Anbieter
TypeScript-Wrapper für OpenAI, Gemini, Anthropic.
Python: Middleware SDK
RAILMiddleware - umschließen Sie jede LLM-Funktion.