Passer au contenu principal

Installation

pip install "rail-score-sdk[litellm]" litellm

Utilisation en tant que garde-fou

from rail_score_sdk.integrations import RAILGuardrail
import litellm

# Enregistrer RAIL comme un garde-fou
rail_guardrail = RAILGuardrail(
    api_key="YOUR_RAIL_API_KEY",
    threshold=7.0,
    mode="basic",
    action="block",  # "block" | "warn" | "regenerate"
)

litellm.callbacks = [rail_guardrail]

# Maintenant, tous les appels LiteLLM sont automatiquement notés
response = await litellm.acompletion(
    model="gpt-4o",
    messages=[{"role": "user", "content": "Expliquez l'informatique quantique."}],
)

# Accéder aux données RAIL à partir des métadonnées de la réponse
print(response._hidden_params["rail_score"])
print(response._hidden_params["rail_threshold_met"])

Utilisation directe

from rail_score_sdk.integrations import RAILGuardrail

guardrail = RAILGuardrail(
    api_key="YOUR_RAIL_API_KEY",
    threshold=7.0,
)

result = await guardrail.async_post_call_success_hook(
    data={"messages": [...]},
    response=llm_response,
)
RAILGuardrail implémente l’interface CustomLogger de LiteLLM, donc il fonctionne avec n’importe quel modèle pris en charge par LiteLLM, y compris les modèles locaux via Ollama.