根据微信公众号“AI七小虎的2024年终打分”,Deepseek在国内大模型中排名第一 。
Deepseek排名第一的原因
• 技术创新领先:年初发布国内首个MOE模型Deepseek-MOE,5月发布Deepseek-V2发明MLA架构降低模型推理成本,11月发布Deepseek-R1,12月发布Deepseek-V3,性能与GPT-4等顶尖闭源模型相当。
• 性价比优势明显:其API调用成本低,如输入价格仅为每百万tokens 1元人民币 ,远低于GPT-4O等。
• 开源贡献突出:发布的模型均开源,为国内开发者提供了丰富资源,在HuggingFace平台上关注度和下载量较高。
追加内容
本文作者可以追加内容哦 !