截至 2025 年 12 月,豆包面向公众的核心对话大模型(即日常使用的豆包 App / 网页版背后的主模型)未完全开源,但豆包大模型团队已开源多个专项子模型与技术方案,具体如下:
| 开源模型 / 工具 | 开源时间 | 核心能力 | 开源地址 |
|---|---|---|---|
| UI-TARS 系列(含 1.5 版) | 2025 年 1/4 月 | 多模态 GUI 智能体,可操作电脑 / 手机系统与浏览器交互 | GitHub: https://github.com/bytedance/UI-TARS |
| VideoWorld | 2025 年 2 月 | 纯视觉视频生成与认知模型,无需依赖语言模型 | 官方开源渠道含代码与模型 |
| Seed-OSS | 2025 年 8 月 | 面向国际化场景的开源大语言模型,Apache-2.0 许可 | GitHub 相关代码库 |
| FullStack Bench + SandboxFusion | 2025 年 9 月 | 全栈编程评估数据集与代码沙盒执行工具 | 豆包团队官方开源渠道 |
这些开源项目多聚焦特定技术方向(如智能体、视频生成、代码评估),而豆包主对话模型目前仍以 API 调用等闭源服务形式提供。
UI-TARS 本地部署配置分模型规格给出,核心取决于你选择的 2B/7B/72B 参数版本,以下是最低与推荐配置(含系统、硬件、依赖),以 NVIDIA 显卡为主(支持 CUDA),CPU 也可运行但速度极慢:
| 维度 | 2B 轻量版(个人 / 轻量自动化) | 7B 标准版(企业 / 桌面测试) | 72B 高性能版(复杂业务 / 多系统集成) |
|---|---|---|---|
| 系统 | Windows 10+/macOS 10.15+/Linux | 同左 | 同左,推荐 Linux 服务器版 |
| CPU | 最低:i5/R5 6 核;推荐:i7/R7 8 核 + | 最低:i7/R7 8 核;推荐:i9/R9 12 核 + | 最低:至强铂金 / AMD 霄龙 32 核;推荐:双路服务器 CPU |
| 内存 | 最低:8GB;推荐:16GB+ | 最低:16GB;推荐:32GB+ | 最低:64GB;推荐:128GB+ |
| GPU | 最低:RTX 3060(6GB 显存);推荐:RTX 3070Ti(8GB) | 最低:RTX 3090(24GB);推荐:RTX 4090(24GB) | 最低:A100 40GB;推荐:A100 80GB×2 |
| 显存 | 最低:6GB;推荐:8GB+ | 最低:12GB;推荐:24GB+ | 最低:40GB;推荐:80GB+ |
| 存储 | 最低:10GB 可用;推荐:SSD 50GB+(模型 + 依赖) | 最低:20GB 可用;推荐:NVMe SSD 100GB+ | 最低:50GB 可用;推荐:NVMe SSD 200GB+ |
| 依赖 | Python ≥3.8、Node.js ≥16.0、Git、CUDA 12.0+ | 同左 | 同左,需更高版本 CUDA 与多 GPU 并行库 |
补充说明:
- 若用 Mac M 芯片,2B/7B 可通过 ROCm 适配,性能约为同显存 NVIDIA 卡的 70%-80%,72B 不建议在消费级 Mac 部署。
- 本地仅运行 SDK 调用云端 VLM(如豆包 API)时,配置可降至 8GB 内存 + 核显,核心计算在云端。
💡
本银河星区空间站,是由 Tia(设计师+野生开发者)打造,主要分享技术日志、ai、设计、效率工具和在银河系生活的所思所想,欢迎分享文章