SDK Python : Référence des intégrations | API : Endpoint d’évaluation
Le problème que ça résout
Sans middleware, ajouter des vérifications d’IA responsable à chaque appel LLM implique d’écrire du code d’évaluation partout où vous appelez le LLM, de dupliquer la logique, de risquer des lacunes de couverture et d’encombrer votre code applicatif :Comment ça fonctionne
Lorsque vous appelez une méthode sur le wrapper RAIL, trois choses se passent de manière transparente :- Vos messages sont transmis à l’API LLM sous-jacente comme un appel API normal.
- La réponse du LLM est soumise à l’endpoint d’évaluation RAIL dans le mode que vous avez configuré.
- Un objet de réponse enrichi est retourné, contenant le contenu original, le score RAIL, les scores par dimension et un booléen
threshold_met, le tout en une seule valeur de retour.
Fournisseurs pris en charge
| Wrapper | Encapsule | Python | JavaScript |
|---|---|---|---|
RAILOpenAI | OpenAI chat completions | Oui | Oui |
RAILGemini | Google Gemini | Oui | Oui |
RAILAnthropic | Anthropic Claude | Oui | Oui |
RAILLangChain | Tout LLM LangChain | Oui | — |
| Wrapper personnalisé | Tout LLM basé sur HTTP | Oui | Oui |
Mode observation vs mode application
- Observation seule
- Application du seuil
- Régénération automatique
Évaluez chaque réponse, sans jamais bloquer. Utilisez ce mode pour mesurer la qualité sans interrompre le flux de réponses.
Écrire un middleware personnalisé
Si vous utilisez un fournisseur LLM sans wrapper intégré, construisez votre propre middleware en utilisant l’appeleval() de base :
Et ensuite
Concepts : Moteur de politiques
Des règles déclaratives pour agir sur les scores au sein d’une session.
Python : Intégrations
Documentation complète des wrappers de fournisseurs et options.
JavaScript : Fournisseurs
Wrappers TypeScript pour OpenAI, Gemini, Anthropic.
Python : SDK Middleware
RAILMiddleware - encapsulez n’importe quelle fonction LLM.