È un server proxy locale per LLM con funzionalità di caching e comportamento compatibile con i maggiori provider.
Permette di simulare timeout, errori HTTP personalizzati (429, 500, 400) e ritardi di risposta configurabili.
Supporta OpenAI, Anthropic, Azure OpenAI, AWS Bedrock e Google Vertex AI con compatibilità perfetta delle richieste.
Offre filtraggio IP, limitazione della velocità, logging in tempo reale e metriche integrate.
Include dashboard web reattiva, autenticazione JWT e isolamento dei proxy per utente.
Get notified when new stories are published for "Hacker News 🇮🇹 Italiano"