LLM provider wrappers
Drop-in wrappers जो आपके existing LLM calls में automatic RAIL scoring add कर देते हैं। सभी wrappers{ response, content, railScore, evaluation } return करते हैं।
OpenAI
Anthropic
Google Gemini
Observability
Langfuse
Guardrail handler
Error handling
| Error | Status | कब होता है |
|---|---|---|
AuthenticationError | 401 | Invalid या missing API key |
InsufficientCreditsError | 402 | Credits कम हैं |
InsufficientTierError | 403 | Feature के लिए higher plan चाहिए |
ValidationError | 400 | Invalid parameters |
ContentTooLongError | 400 | Content max length से ज़्यादा है |
SessionExpiredError | 410 | Safe-regenerate session expire हो गया |
ContentTooHarmfulError | 422 | Content का avg score 3.0 से नीचे है |
RateLimitError | 429 | Rate limit exceed हो गया |
RAILBlockedError | — | Policy engine ने content block किया |
Utility functions
TypeScript types
आगे क्या देखें
Evaluation API Reference
Full HTTP parameters और response schema।
Compliance API
GDPR, HIPAA, EU AI Act और बाकी।
Credits and Pricing
Per endpoint और mode credit costs।
Integrations Overview
सभी supported LLM providers और observability tools।