NeuralBeagle14-7B 新 强大的 7B 开源 AI 模型

NeuralBeagle14-7B-new-Powerful-7B-open-source-AI-model.webp

人工智能领域刚刚迎来了一个重要的新型人工智能(AI)大型语言模型,其形式为NeuralBeagle14-7B。这种先进的 AI 模型以其 70 亿个参数掀起了波澜,并迅速攀升,成为大型语言模型中的顶级竞争者。

NeuralBeagle 不仅仅是任何模型;它是一种混合动力车,结合了两个现有模型 Beagle 和 Mar Coro 的最佳功能。这种融合通过一种称为 Lazy Merge Kit 的独特技术得到了进一步增强。NeuralBeagle14-7B 是使用 argilla/distilabel-intel-orca-dpo-pairs 首选项数据集对 mlabonne/Beagle14-7B 进行 DPO 微调

Mergekit 是一个用于合并预训练语言模型的工具包。Mergekit 使用核外方法在资源受限的情况下执行不合理的复杂合并。合并可以完全在 CPU 上运行,也可以使用低至 8 GB 的 VRAM 进行加速。支持许多合并算法,还有更多算法正在开发中。

NeuralBeagle 的成功植根于 Beagle 模型的强劲性能,该模型已经在著名的 AI 排行榜上获得了高分,展示了其能力。通过将 Beagle 与 Mar Coro 集成,开发人员创建了一个强大的模型,该模型利用了两者的优势。然而,团队并没有就此止步。他们还应用了一种称为域首选选项 (DPO) 的微调过程。虽然这种微调并没有显著提高模型的性能,但它确实为微调过程及其对 AI 模型的影响提供了重要的见解。

神经小猎犬14-7B

NeuralBeagle 的与众不同之处在于它的多功能性。它已经在各种平台上进行了严格的测试,包括 AGI Evol 和 GPT-4-All,证明了它执行各种任务的能力。这种适应性证明了该模型的复杂设计及其在不同应用中的潜在用途。NeuralBeagle14-7B 使用 8k 的上下文窗口。它与不同的模板兼容,例如 chatml 和 Llama 的聊天模板。NeuralBeagle14-7B 在 ~7B 类别的 Open LLM 排行榜上排名第一。

对于那些渴望看到 NeuralBeagle 运行的人,该模型可在 Hugging Face Spaces 上试用。这个交互式平台允许用户直接与 NeuralBeagle 互动并查看其性能。对于那些想要将 NeuralBeagle 集成到自己的项目中的人来说,LM Studio 有详细的安装说明,可以轻松上手。

NeuralBeagle 代表了开源 AI 模型领域向前迈出的重要一步。它对两种模型的创新组合和对 DPO 微调的探索让我们得以一窥 AI 的持续发展。该模型现在可供研究人员、开发人员和 AI 爱好者进行测试并整合到他们的工作中。通过在线测试和本地安装选项,NeuralBeagle有望成为AI社区中的宝贵工具。

原创文章,作者:校长,如若转载,请注明出处:https://www.yundongfang.com/Yun275946.html

(0)
打赏 微信扫一扫不于多少! 微信扫一扫不于多少! 支付宝扫一扫礼轻情意重 支付宝扫一扫礼轻情意重
上一篇 2024年1月18日 下午9:42
下一篇 2024年1月18日 下午9:44

相关推荐