Deepseek AI模型升级推出2.5版,合并Coder和Chat

IT之家 9 月 6 日消息,DeepSeek Coder V2 和 DeepSeek V2 Chat 两个模型已经合并升级,升级后的新模型为

IT之家 9 月 6 日消息,DeepSeek Coder V2 和 DeepSeek V2 Chat 两个模型已经合并升级,升级后的新模型为 DeepSeek V2.5。

Deepseek AI模型升级推出2.5版,合并Coder和Chat

图源:
Linux.do 论坛网友截图

DeepSeek 官方昨日(9 月 5 日)更新 API 支持文档,宣布合并 DeepSeek Coder V2 和 DeepSeek V2 Chat 两个模型,升级推出全新的 DeepSeek V2.5 新模型。

官方表示为向前兼容,API 用户通过 deepseek-coder 或 deepseek-chat 均可以访问新的模型。

新模型在通用能力、代码能力上,都显著超过了旧版本的两个模型。

新模型更好地对齐了人类的偏好,在写作任务、指令跟随等多方面进行了优化:

  • ArenaHard winrate 从 68.3% 提升至 76.3%

  • AlpacaEval 2.0 LC winrate 从 46.61% 提升至 50.52%

  • MT-Bench 分数从 8.84 提升至 9.02

  • AlignBench 分数从 7.88 提升至 8.04

新模型在原 Coder 模型的基础上进一步提升了代码生成能力,对常见编程应用场景进行了优化,并在标准测试集上取得了以下成绩:

  • HumanEval: 89%

  • LiveCodeBench (1-9 月): 41%

IT之家注:Deepseek AI 模型由杭州深度求索人工智能推出,该公司成立于 2023 年。

Deepseek AI模型升级推出2.5版,合并Coder和Chat

官方介绍如下:

专注于研究世界领先的通用人工智能底层模型与技术,挑战人工智能前沿性难题。基于自研训练框架、自建智算集群和万卡算力等资源,DeepSeek(深度求索)团队仅用半年时间便已发布并开源多个百亿级参数大模型,如 DeepSeek-LLM 通用大语言模型、DeepSeek-Coder 代码大模型,并且在 2024 年 1 月率先开源国内首个 MoE 大模型(DeepSeek-MoE),各大模型在公开评测榜单及真实样本外的泛化效果均有超越同级别模型的出色表现。

免责声明:本站所有文章内容,图片,视频等均是来源于用户投稿和互联网及文摘转载整编而成,不代表本站观点,不承担相关法律责任。其著作权各归其原作者或其出版社所有。如发现本站有涉嫌抄袭侵权/违法违规的内容,侵犯到您的权益,请在线联系站长,一经查实,本站将立刻删除。 本文来自网络,若有侵权,请联系删除,如若转载,请注明出处:https://yundeesoft.com/82589.html

(0)

相关推荐

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注

关注微信