Thinking Machines 发布灵活模型微调的Tinker API。

内容分享19小时前发布
0 0 0

Thinking Machines 已经发布了Tinker,一个用于微调开放重量语言模型的 API。该服务旨在减少开发者的基础设施 overhead,提供管理调度、GPU 分配和检查点处理。通过抽象掉集群管理,Tinker 使得通过简单的 Python 调用进行微调成为可能。

Tinker 支持多种架构,从小型模型到大型专家混合系统,例如Qwen-235B-A22B。开发者可以通过在 Python 代码中更改单个字符串来微调模型。API 提供了诸如forward_backward和sample之类的原语,这些原语作为后训练方法的灵活构建块。该平台集成了LoRA,以高效使用 GPU 内存,适用于有限资源的研究组和团队。

公司还发布了Tinker Cookbook,这是一个开源仓库,使用API实现常见的微调技术。这包括强化学习方法和偏好优化工作流程。来自普林斯顿、斯坦福、伯克利和红木研究的早期用户已将Tinker应用于从定理证明到化学推理和多智能体强化学习等各种任务。

Tinker 进入一个与其他微调解决方案的空间,如 Hugging Face 的 Trainer API、OpenAI 的微调端点和 MosaicML 的 Composer。虽然这些框架提供了更高级别的抽象或专注于特定的训练管道,Tinker 强调暴露更低级别的原语,这些原语可以组合成新的方法,使开发人员拥有更多的控制权,而无需他们管理基础设施。

最初的社区反馈突出了这种灵活性和简单性的平衡。AI 专业人员Ignacio de Gregorio评论道:

这简直太惊人了。RLaaS正是企业所缺少的,而这个实现了,并将最具反企业性质的部分(分布式训练)外包了。

思考机器 创始人,米拉·穆拉蒂 发布了:

Tinker为研究人员带来了前沿工具,提供用于编写实验和训练管道的干净抽象,同时处理分布式训练的复杂性。它使新颖的研究、自定义模型和坚实的基准成为可能。

Tinker 目前处于封闭测试阶段。早期访问是免费的,之后将有基于使用的定价。开发者和研究小组可以直接从 Thinking Machines 申请访问权限。

© 版权声明

相关文章

暂无评论

none
暂无评论...