免费 · 无需注册 · 实时检测

一键检测,你的电脑
能跑哪些 AI 大模型?

自动读取内存、CPU、GPU 配置,智能匹配 20+ 主流大模型兼容性,并估算本地运行速度,帮你在 5 秒内找到最适合的 AI 模型。

查看全部模型
21+
主流模型覆盖
5s
极速检测完成
100%
本地隐私安全
AI 跑分助手 · 检测报告
系统内存
32 GB
CPU 核心
16 核
GPU
Apple M3
综合 AI 跑分 87

可流畅运行 7B ~ 32B 量化模型

硬件检测

检测你的设备配置

通过浏览器 API 安全读取设备信息,全程本地运行,无数据上传

准备开始检测

点击下方按钮,将自动检测内存大小、CPU 核数、GPU 型号,仅需几秒即可完成

模型兼容性

21+ 主流大模型兼容分析

涵盖 Llama、Qwen、Phi、Mistral、DeepSeek 等主流开源模型,实时显示你的设备兼容情况

Q8 内存需求约为 Q4 的 2×
性能估算

模型运行速度排行

基于你的硬件配置估算各模型生成速度(tokens/秒),数值仅供参考,实际以真实测试为准

请先完成硬件检测,将自动显示可运行模型的速度排行

运行工具

选择你的本地运行工具

以下三款主流工具可在本地运行大模型,根据技术背景选择最适合的

Ollama

推荐新手

命令行工具,一行命令即可下载并运行大模型,支持 macOS / Linux / Windows,生态最完善,模型库最丰富。

# 一键安装并运行
ollama run qwen2.5
300+ 模型 REST API 多平台
前往 ollama.com
图形界面

LM Studio

零基础友好

桌面 GUI 应用,无需命令行,可视化管理和聊天界面,可直接搜索下载 HuggingFace 模型,非常适合不懂技术的用户。

内置聊天界面
模型搜索 & 一键下载
本地 OpenAI 兼容 API
前往 lmstudio.ai

llama.cpp

开发者首选

纯 C++ 实现,性能最优,支持 CPU/GPU 混合推理,内存占用最低,可集成到任何项目,是 Ollama 等工具的底层引擎。

# 编译并运行模型
./llama-cli -m model.gguf -p "你好"
极低内存 GGUF 格式 开源免费
前往 GitHub
常见问题

你可能想知道的

关注二维码
扫码关注
更多 AI 工具 · 开源资源
第一时间获取最新动态