自动读取内存、CPU、GPU 配置,智能匹配 20+ 主流大模型兼容性,并估算本地运行速度,帮你在 5 秒内找到最适合的 AI 模型。
可流畅运行 7B ~ 32B 量化模型
通过浏览器 API 安全读取设备信息,全程本地运行,无数据上传
点击下方按钮,将自动检测内存大小、CPU 核数、GPU 型号,仅需几秒即可完成
根据你的硬件配置,精选最适合的 AI 大模型
涵盖 Llama、Qwen、Phi、Mistral、DeepSeek 等主流开源模型,实时显示你的设备兼容情况
该分类下暂无匹配模型,请先完成硬件检测
基于你的硬件配置估算各模型生成速度(tokens/秒),数值仅供参考,实际以真实测试为准
请先完成硬件检测,将自动显示可运行模型的速度排行
以下三款主流工具可在本地运行大模型,根据技术背景选择最适合的
命令行工具,一行命令即可下载并运行大模型,支持 macOS / Linux / Windows,生态最完善,模型库最丰富。
桌面 GUI 应用,无需命令行,可视化管理和聊天界面,可直接搜索下载 HuggingFace 模型,非常适合不懂技术的用户。
纯 C++ 实现,性能最优,支持 CPU/GPU 混合推理,内存占用最低,可集成到任何项目,是 Ollama 等工具的底层引擎。