const result = await client.safeRegenerate({ content: "Bei der Überprüfung von Lebensläufen sollten Kandidaten von Spitzenuniversitäten priorisiert werden. Kandidaten von weniger bekannten Institutionen haben typischerweise nicht die rigorose Ausbildung, die erforderlich ist.", mode: "basic", maxRegenerations: 3, thresholds: { overall: { score: 8.0, confidence: 0.5 } }, domain: "general"});console.log(result.status); // "passed" | "max_iterations_reached"console.log(result.best_content); // Verbesserter Inhaltconsole.log(result.best_iteration); // Welche Iteration war die besteconsole.log(result.best_scores.rail_score.score);console.log(result.credits_consumed);result.iteration_history?.forEach(iter => { console.log(`Iteration ${iter.iteration}: ${iter.scores.rail_score.score} (passed: ${iter.thresholds_met})`);});
Verwenden Sie Ihr eigenes LLM zur Regeneration. Die API gibt einen RAIL-geführten Prompt und eine Sitzungs-ID zurück; Sie regenerieren dann und reichen das Ergebnis über safeRegenerateContinue() ein.
// Schritt 1: Sitzung starten — API bewertet und gibt einen geführten Prompt zurückconst initial = await client.safeRegenerate({ content: "Inhalt, der verbessert werden muss...", maxRegenerations: 3, thresholds: { overall: { score: 8.0 } }});if (initial.status === "awaiting_regeneration" && initial.rail_prompt) { const { system_prompt, user_prompt } = initial.rail_prompt; // Mit Ihrem Modell regenerieren const completion = await openai.chat.completions.create({ model: "gpt-4o", messages: [ { role: "system", content: system_prompt }, { role: "user", content: user_prompt } ] }); // Schritt 2: Regenerierten Inhalt zur Neubewertung einreichen const continued = await client.safeRegenerateContinue({ sessionId: initial.session_id, regeneratedContent: completion.choices[0].message.content }); console.log(continued.status); // "passed" oder "awaiting_regeneration" console.log(continued.best_content); // Bester Inhalt bis jetzt}
Sitzungen laufen nach 15 Minuten ab. Abgelaufene Sitzungen werfen einen SessionExpiredError.