
otoroshi-llm-extension
Ensemble de plugins Otoroshi pour interagir avec LLMS
3 years
Works with Finder
9
Github Watches
0
Github Forks
9
Github Stars
Cloud APIM - Otoroshi LLM Extension
Connect, setup, secure and seamlessly manage LLM models using an Universal/OpenAI compatible API
- Unified interface: Simplify interactions and minimize integration hassles
- Use multiple providers: 10+ LLM providers supported right now, a lot more coming
- Load balancing: Ensure optimal performance by distributing workloads across multiple providers
- Fallbacks: Automatically switch LLMs during failures to deliver uninterrupted & accurate performance
- Automatic retries: LLM APIs often have inexplicable failures. You can rescue a substantial number of your requests with our in-built automatic retries feature.
- Semantic cache: Speed up repeated queries, enhance response times, and reduce costs
- Custom quotas: Manage LLM tokens quotas per consumer and optimise costs
- Key vault: securely store your LLM API keys in Otoroshi vault or any other secret vault supported by Otoroshi.
- Observability and reporting: every LLM request is audited with details about the consumer, the LLM provider and usage. All those audit events are exportable using multiple methods for further reporting
- Fine grained authorizations: Use Otoroshi advanced fine grained authorizations capabilities to constrains model usage based on whatever you want: user identity, apikey, consumer metadata, request details, etc
- Prompt Fences: Validate your prompts and prompts responses to avoid sensitive or personal informations leakage, irrelevant or unhelpful responses, gibberish content, etc
- Prompt engineering: enhance your experience by providing contextual information to your prompts, storing them in a library for reusability, and using prompt templates for increased efficiency
Otoroshi LLM Extension is set of Otoroshi plugins and resources to interact with LLMs. To know more about it, go to documentation
Supported LLM providers
All supported providers are available here
- Anthropic
- Azure OpenAI
- Azure AI Foundry
- Cloudflare
- Cohere
- Gemini
- Groq
- Huggingface 🇫🇷 🇪🇺
- Mistral 🇫🇷 🇪🇺
- Ollama (Local Models)
- OpenAI
- OVH AI Endpoints 🇫🇷 🇪🇺
- Scaleway 🇫🇷 🇪🇺
- X.ai
- Deepseek
Requirements
Run it on JDK17+
相关推荐
🧑🚀 全世界最好的 LLM 资料总结 (数据处理、模型训练、模型部署、 O1 模型、 MCP 、小语言模型、视觉语言模型) | Résumé des meilleures ressources LLM du monde.
🔥 1Panel fournit une interface Web intuitive et un serveur MCP pour gérer des sites Web, des fichiers, des conteneurs, des bases de données et des LLM sur un serveur Linux.
⛓️RULEGO est un cadre de moteur de règle d'orchestration des composants de nouvelle génération légère, intégrée, intégrée et de nouvelle génération pour GO.
PDF Traduction de papier scientifique avec formats conservés - 基于 AI 完整保留排版的 PDF 文档全文双语翻译 , 支持 Google / Deepl / Olllama / Openai 等服务 , 提供 CLI / GUI / MCP / DOCKER / ZOTERO
Exécuter des serveurs STDIO de contexte de modèle existant (MCP) dans les fonctions AWS Lambda
Une passerelle basée sur un plugin qui orchestre d'autres MCP et permet aux développeurs de s'appuyer sur des agents de qualité d'entreprise informatiques.
Créez facilement des outils et des agents LLM à l'aide de fonctions Plain Bash / JavaScript / Python.
😎简单易用、🧩丰富生态 - 大模型原生即时通信机器人平台 | 适配 QQ / 微信 (企业微信、个人微信) / 飞书 / 钉钉 / Discord / Telegram / Slack 等平台 | 支持 Chatgpt 、 Deepseek 、 Dify 、 Claude 、 GEMINI 、 XAI 、 PPIO 、 OLLAMA 、 LM Studio 、阿里云百炼、火山方舟、 Siliconflow 、 Qwen 、 Moonshot 、 ChatGlm 、 Sillytraven 、 MCP 等 LLM 的机器人 / Agent | Plateforme de bots de messagerie instantanée basés sur LLM, prend en charge Discord, Telegram, WeChat, Lark, Dingtalk, QQ, Slack