首页 > AI资讯 > 行业动态 > Stability AI 开源聊天机器人 Stable Chat 采用新的「解释微调」技术

Stability AI 开源聊天机器人 Stable Chat 采用新的「解释微调」技术

新火种    2023-09-01

新火种(xhz.cn) 8月30日消息:Stability AI 是图像生成 AIStable Diffusion 的开发商,其最近推出了开放访问的语言模型 Stable Beluga 的基于 Web 的聊天界面 Stable Chat。在发布时,Stable Beluga 是 HuggingFace 排行榜上表现最好的开放大型语言模型(LLM)。

Stable Beluga 基于 Meta 发布的 LLaMA 基础模型,并使用由 GPT-4 生成的合成数据集进行微调。最大的Stable Beluga 模型包含 70B 个参数,在多个基准测试中优于 ChatGPT,包括 AGIEval,该测试基于 LSAT 和 SAT 等常见考试。为了帮助评估Stable Beluga,Stability AI 创建了Stable Chat Web 界面来帮助用户与模型交互并对其输出提供反馈。根据 Stability AI:

作为我们在构建世界上最值得信赖的语言模型方面所做努力中一部分,我们已经设置了一个仅用于研究目的网站来测试和改进我们技术。随着我们研究迅速进展,我们将继续更新新模型。请避免将此网站用于实际应用或商业用途。

Stable Beluga 模型受到微软关于 Orca 论文启发而产生,该论文介绍了一种称为解释微调(explanation tuning)的技术。像指导微调(instruction tuning)一样,最近许多开放 LLM 都使用了这种技术,包括 ChatGPT 和 Vicuna。

解释微调使用由教师生成的示例输入和期望模型输出的数据集。在 ChatGPT 的情况下,教师是实际使用该模型的人类用户。相比之下,在 Orca 和 Stable Beluga 中,解释微调数据集是通过提示 GPT-4 解释为什么会生成它所做出的输出来生成的内容。

Stability AI 创建了自己的 600,000 个示例组成的解释微调数据集——只有微软数据集大小十分之一。然后他们训练了两个版本 Stable Beluga:基于 65B 参数原始 LLaMA 模型的 Stable Beluga 1 和基于 70B Llama 2 模型的 Stable Beluga 2。两者均以非商业许可证发布。尽管这些模型在发布时在排行榜上取得第四名和第一名,但目前基于 LLaMA 进行微调模型已经推动 Stable Beluga 2 退出前十名,并将 Stable Beluga 1 甩到更低位置。

根据 Stability AI 公司表示,这些模型以非商业许可证发布旨在鼓励研究人员协作迭代并改进技术。然而,该公司指出,这需要超出普通研究人员的资源,并决定创建 Stable Chat 网站。用户可以创建免费登录或使用 Google 帐户访问聊天界面。模型的响应可以被投票、反对或标记;这些用户反馈将用于未来改进模型。

另外,Stability AI 最近还宣布他们的 LLM 将在 DEF CON 31 举办的 AI 红队活动中使用。此次活动由白宫赞助,涵盖了「Anthropic, 谷歌, Hugging Face, 微软, 英伟达, OpenAI 和 Stability AI」,目标是帮助识别模型中的风险和漏洞。

访问 Stable Chat:

https://chat.stability.ai

相关推荐
免责声明
本文所包含的观点仅代表作者个人看法,不代表新火种的观点。在新火种上获取的所有信息均不应被视为投资建议。新火种对本文可能提及或链接的任何项目不表示认可。 交易和投资涉及高风险,读者在采取与本文内容相关的任何行动之前,请务必进行充分的尽职调查。最终的决策应该基于您自己的独立判断。新火种不对因依赖本文观点而产生的任何金钱损失负任何责任。