← 返回目录
🎨

vllm-mlx

art-mediaPythonremote🟢 活跃维护
824 stars
最后更新:2026/4/13
质量评分
良好71/100
0255075100
发现方式
github-search
最后更新
2026/4/13
首次收录
2026/4/12
状态
✓ 活跃

📝 简介

OpenAI and Anthropic compatible server for Apple Silicon. Run LLMs and vision-language models (Llama, Qwen-VL, LLaVA) with continuous batching, MCP to

🏷️ 标签

vllm-mlxanthropicapple-siliconaudio-processingclaude-code

🚀 安装与配置

🟢 一键安装
快速安装
pip install vllm-mlx
复制
Claude Desktop 配置
添加到 ~/Library/Application Support/Claude/claude_desktop_config.json
{
  "mcpServers": {
    "vllm-mlx": {
      "command": "uvx",
      "args": [
        "vllm-mlx"
      ]
    }
  }
}
复制
Cursor 配置
在 Cursor Settings → MCP 中添加
{
  "mcpServers": {
    "vllm-mlx": {
      "command": "uvx",
      "args": [
        "vllm-mlx"
      ]
    }
  }
}
复制
📋 环境要求: Python 3.10+
查看 GitHub 仓库