Wrapper für LLM-Anbieter
Drop-in-Wrapper, die automatisch RAIL-Bewertungen zu Ihren bestehenden LLM-Aufrufen hinzufügen. Alle Wrapper geben{ response, content, railScore, evaluation } zurück.
OpenAI
Anthropic
Google Gemini
Beobachtbarkeit
Langfuse
Guardrail-Handler
Fehlerbehandlung
| Fehler | Status | Wann |
|---|---|---|
AuthenticationError | 401 | Ungültiger oder fehlender API-Schlüssel |
InsufficientCreditsError | 402 | Nicht genügend Credits |
InsufficientTierError | 403 | Funktion erfordert höheren Plan |
ValidationError | 400 | Ungültige Parameter |
ContentTooLongError | 400 | Inhalt überschreitet maximale Länge |
SessionExpiredError | 410 | Sichere Regenerationssitzung abgelaufen |
ContentTooHarmfulError | 422 | Durchschnittliche Inhaltsbewertung unter 3.0 |
RateLimitError | 429 | Rate limit überschritten |
RAILBlockedError | — | Inhalt durch Richtlinien-Engine blockiert |
Hilfsfunktionen
TypeScript-Typen
Was kommt als Nächstes
API-Referenz zur Bewertung
Vollständige HTTP-Parameter und Antwortschema.
Compliance-API
GDPR, HIPAA, EU AI Act und mehr.
Credits und Preise
Kreditkosten pro Endpunkt und Modus.
Integrationsübersicht
Alle unterstützten LLM-Anbieter und Beobachtungswerkzeuge.