Enveloppes de fournisseurs LLM
Enveloppes prêtes à l’emploi qui ajoutent un score RAIL automatique à vos appels LLM existants. Toutes les enveloppes retournent{ response, content, railScore, evaluation }.
OpenAI
Anthropic
Google Gemini
Observabilité
Langfuse
Gestionnaire Guardrail
Gestion des erreurs
| Erreur | Statut | Quand |
|---|---|---|
AuthenticationError | 401 | Clé API invalide ou manquante |
InsufficientCreditsError | 402 | Pas assez de crédits |
InsufficientTierError | 403 | La fonctionnalité nécessite un plan supérieur |
ValidationError | 400 | Paramètres invalides |
ContentTooLongError | 400 | Le contenu dépasse la longueur maximale |
SessionExpiredError | 410 | Session de régénération sécurisée expirée |
ContentTooHarmfulError | 422 | Score moyen du contenu en dessous de 3.0 |
RateLimitError | 429 | Limite de taux dépassée |
RAILBlockedError | — | Contenu bloqué par le moteur de politique |
Fonctions utilitaires
Types TypeScript
Quelles sont les prochaines étapes
Référence de l'API d'évaluation
Paramètres HTTP complets et schéma de réponse.
API de conformité
RGPD, HIPAA, Loi sur l’IA de l’UE et plus encore.
Crédits et Tarification
Coûts des crédits par point de terminaison et mode.
Aperçu des intégrations
Tous les fournisseurs LLM et outils d’observabilité pris en charge.