Confidential guide on numerology and astrology, based of GG33 Public information

servidor Qiniu-McP
3 years
Works with Finder
3
Github Watches
2
Github Forks
5
Github Stars
Qiniu MCP Server
概述
基于七牛云产品构建的 Model Context Protocol (MCP) Server,支持用户在 AI 大模型客户端的上下文中通过该 MCP Server 来访问七牛云存储、智能多媒体服务等。
关于访问七牛云存储详细情况请参考 基于 MCP 使用大模型访问七牛云存储。
安装
前置要求
- Python 3.12 或更高版本
- uv 包管理器
如果还没有安装 uv,可以使用以下命令安装:
curl -LsSf https://astral.sh/uv/install.sh | sh
- 克隆仓库:
# 克隆项目并进入目录
git clone git@github.com:qiniu/qiniu-mcp-server.git
cd qiniu-mcp-server
- 创建并激活虚拟环境:
uv venv
source .venv/bin/activate # Linux/macOS
# 或
.venv\Scripts\activate # Windows
- 安装依赖:
uv pip install -e .
配置
- 复制环境变量模板:
cp .env.example .env
- 编辑
.env
文件,配置以下参数:
# S3/Kodo 认证信息
QINIU_ACCESS_KEY=your_access_key
QINIU_SECRET_KEY=your_secret_key
# 区域信息
QINIU_REGION_NAME=your_region
QINIU_ENDPOINT_URL=endpoint_url # eg:https://s3.your_region.qiniucs.com
# 配置 bucket,多个 bucket 使用逗号隔开,建议最多配置 20 个 bucket
QINIU_BUCKETS=bucket1,bucket2,bucket3
使用方法
启动服务器
- 使用标准输入输出(stdio)模式启动(默认):
uv --directory . run qiniu-mcp-server
- 使用 SSE 模式启动(用于 Web 应用):
uv --directory . run qiniu-mcp-server --transport sse --port 8000
开发
扩展功能,首先在 core 目录下新增一个业务包目录(eg: 存储 -> storage),在此业务包目录下完成功能拓展。
在业务包目录下的 __init__.py
文件中定义 load 函数用于注册业务工具或者资源,最后在 core
目录下的 __init__.py
中调用此 load 函数完成工具或资源的注册。
core
├── __init__.py # 各个业务工具或者资源加载
└── storage # 存储业务目录
├── __init__.py # 加载存储工具或者资源
├── resource.py # 存储资源扩展
├── storage.py # 存储工具类
└── tools.py # 存储工具扩展
测试
使用 Model Control Protocol Inspector 测试
强烈推荐使用 Model Control Protocol Inspector 进行测试。
# node 版本为:v22.4.0
npx @modelcontextprotocol/inspector uv --directory . run qiniu-mcp-server
使用 cline 测试:
步骤:
- 在 vscode 下载 Cline 插件(下载后 Cline 插件后在侧边栏会增加 Cline 的图标)
- 配置大模型
- 配置 qiniu MCP
- 点击 Cline 图标进入 Cline 插件,选择 MCP Server 模块
- 选择 installed,点击 Advanced MCP Settings 配置 MCP Server,参考下面配置信息
{ "mcpServers": { "qiniu": { "command": "uv", "args": [ "--directory", "/Users/yangsen/Workspace/App/qiniu-mcp", # 此处选择项目存储的绝对路径 "run", "qiniu-mcp-server" ], "env": { # 此处以环境变量方式填写你的 qiniu mcp server 的配置信息,如果是从插件市场下载,可以通过此方式配置,如果是从本地源码安装,也可以通过上述方式在 .env 文件中配置 "QINIU_ACCESS_KEY": "YOUR_ACCESS_KEY", "QINIU_SECRET_KEY": "YOUR_SECRET_KEY", "QINIU_REGION_NAME": "YOUR_REGION_NAME", "QINIU_ENDPOINT_URL": "YOUR_ENDPOINT_URL", "QINIU_BUCKETS": "YOUR_BUCKET_A,YOUR_BUCKET_B" }, "disabled": false } } }
- 点击 qiniu MCP Server 的链接开关进行连接
- 在 Cline 中创建一个聊天窗口,此时我们可以和 AI 进行交互来使用 qiniu-mcp-server ,下面给出几个示例:
- 列举 qiniu 的资源信息
- 列举 qiniu 中所有的 Bucket
- 列举 qiniu 中 xxx Bucket 的文件
- 读取 qiniu xxx Bucket 中 yyy 的文件内容
- 对 qiniu xxx Bucket 中 yyy 的图片切个宽200像素的圆角
- 刷新下 qiniu 的这个 CDN 链接:https://developer.qiniu.com/test.txt
相关推荐
Converts Figma frames into front-end code for various mobile frameworks.
Advanced software engineer GPT that excels through nailing the basics.
Take an adjectivised noun, and create images making it progressively more adjective!
I find academic articles and books for research and literature reviews.
Embark on a thrilling diplomatic quest across a galaxy on the brink of war. Navigate complex politics and alien cultures to forge peace and avert catastrophe in this immersive interstellar adventure.
Descubra la colección más completa y actualizada de servidores MCP en el mercado. Este repositorio sirve como un centro centralizado, que ofrece un extenso catálogo de servidores MCP de código abierto y propietarios, completos con características, enlaces de documentación y colaboradores.
Manipulación basada en Micrypthon I2C del expansor GPIO de la serie MCP, derivada de AdaFruit_MCP230xx
Espejo dehttps: //github.com/agentience/practices_mcp_server
Espejo de https: //github.com/bitrefill/bitrefill-mcp-server
Servidor MCP para obtener contenido de la página web con el navegador sin cabeza de dramaturgo.
Un bot de chat de IA para equipos pequeños y medianos, que apoyan modelos como Deepseek, Open AI, Claude y Gemini. 专为中小团队设计的 ai 聊天应用 , 支持 Deepseek 、 Open ai 、 Claude 、 Géminis 等模型。
Un poderoso complemento Neovim para administrar servidores MCP (protocolo de contexto del modelo)
Puente entre los servidores Ollama y MCP, lo que permite a LLM locales utilizar herramientas de protocolo de contexto del modelo
Reviews

user_ZRsIEAB4
As a devoted user of the qiniu-mcp-server, I am thoroughly impressed by its robust functionality and seamless integration. This server application by qiniu has significantly optimized our workflows. The open-source nature on GitHub stands as a testament to its transparency and continuous enhancement. Highly recommended for its reliability and efficiency!