我问豆包,豆包的模型开源了吗? cover image

我问豆包,豆包的模型开源了吗?

截至 2025 年 12 月,豆包面向公众的核心对话大模型(即日常使用的豆包 App / 网页版背后的主模型)未完全开源,但豆包大模型团队已开源多个专项子模型与技术方案,具体如下:

开源模型 / 工具 开源时间 核心能力 开源地址
UI-TARS 系列(含 1.5 版) 2025 年 1/4 月 多模态 GUI 智能体,可操作电脑 / 手机系统与浏览器交互 GitHub: https://github.com/bytedance/UI-TARS
VideoWorld 2025 年 2 月 纯视觉视频生成与认知模型,无需依赖语言模型 官方开源渠道含代码与模型
Seed-OSS 2025 年 8 月 面向国际化场景的开源大语言模型,Apache-2.0 许可 GitHub 相关代码库
FullStack Bench + SandboxFusion 2025 年 9 月 全栈编程评估数据集与代码沙盒执行工具 豆包团队官方开源渠道

这些开源项目多聚焦特定技术方向(如智能体、视频生成、代码评估),而豆包主对话模型目前仍以 API 调用等闭源服务形式提供。

UI-TARS 本地部署配置分模型规格给出,核心取决于你选择的 2B/7B/72B 参数版本,以下是最低与推荐配置(含系统、硬件、依赖),以 NVIDIA 显卡为主(支持 CUDA),CPU 也可运行但速度极慢:

维度 2B 轻量版(个人 / 轻量自动化) 7B 标准版(企业 / 桌面测试) 72B 高性能版(复杂业务 / 多系统集成)
系统 Windows 10+/macOS 10.15+/Linux 同左 同左,推荐 Linux 服务器版
CPU 最低:i5/R5 6 核;推荐:i7/R7 8 核 + 最低:i7/R7 8 核;推荐:i9/R9 12 核 + 最低:至强铂金 / AMD 霄龙 32 核;推荐:双路服务器 CPU
内存 最低:8GB;推荐:16GB+ 最低:16GB;推荐:32GB+ 最低:64GB;推荐:128GB+
GPU 最低:RTX 3060(6GB 显存);推荐:RTX 3070Ti(8GB) 最低:RTX 3090(24GB);推荐:RTX 4090(24GB) 最低:A100 40GB;推荐:A100 80GB×2
显存 最低:6GB;推荐:8GB+ 最低:12GB;推荐:24GB+ 最低:40GB;推荐:80GB+
存储 最低:10GB 可用;推荐:SSD 50GB+(模型 + 依赖) 最低:20GB 可用;推荐:NVMe SSD 100GB+ 最低:50GB 可用;推荐:NVMe SSD 200GB+
依赖 Python ≥3.8、Node.js ≥16.0、Git、CUDA 12.0+ 同左 同左,需更高版本 CUDA 与多 GPU 并行库

补充说明:

  1. 若用 Mac M 芯片,2B/7B 可通过 ROCm 适配,性能约为同显存 NVIDIA 卡的 70%-80%,72B 不建议在消费级 Mac 部署。
  2. 本地仅运行 SDK 调用云端 VLM(如豆包 API)时,配置可降至 8GB 内存 + 核显,核心计算在云端。

💡
本银河星区空间站,是由 Tia(设计师+野生开发者)打造,主要分享技术日志、ai、设计、效率工具和在银河系生活的所思所想,欢迎分享文章