Q1 业绩表现优秀,高度重视研发构筑技术护城河。5 月28 日,第四范式发布2024Q1 的核心业务进展,公司坚持科技创新,业务稳步拓展,用人工智能+为千行万业贡献价值。2024Q1,公司总收入人民币8.3 亿元,同比增长28.5%,毛利润人民币3.4 亿元,同比增长21.1%。公司用创新驱动发展,研发投入人民币3.5 亿元,研发费用率42.0%,确保公司竞争力持续提升。

2024 年3 月,公司发布了定位为行业大模型平台的“先知AI 平台5.0”,这是该产品10 年来第五次升级,该产品以“预测下个任意模态”为技术原理,可基于各行业场景的不同模态数据构建行业大模型,突破大语言模型仅能预测文本的限制,极大拓展了行业大模型应用领域。产品升级带动核心业务暴涨,行业大模型规模效应显著。2024Q1,第四范式先知AI 平台业务收入人民币5.0 亿元,同比增长84.8%,占集团总收入比例为60.6%。同时,客户群体也日趋多元,公司2024Q1 总用户数为124 个,标杆用户数为54 个,标杆用户群体平均营收同比增长64.0%。2020 年1 月1 日至2024 年3 月31 日,公司累积服务总用户数为1058 个。此外,公司始终秉持科技与人文关怀相结合的理念,密切关注社会问题,积极承担企业社会责任。2024Q1,公司联合某水利单位,共建智能防汛大模型,提前部署防汛工作以应对夏季汛期。公司的防汛大模型可通过实时监测与预测洪水风险,优化应急响应和资源调度,提前预警并减少灾害损失,从而保障居民生命财产安全,提升社会整体抗灾能力。

公司深耕行业大模型十余年,定位“人工智能+千行百业”的新型基础设施。

自成立至今,十年来,公司便深耕行业大模型,推动千行百业智能化转型。

4 月28 日-29 日,公司作为人工智能代表企业之一,参加中关村论坛年会,再度重新定义行业大模型发展路径,并首次公开展示行业大模型平台「先知AIOS 5.0」全景能力。公司联合创始人兼总裁胡时伟在活动中指出,作为人工智能技术应用落地的关键,行业大模型将成为“人工智能+千行百业”的新型基础设施,真正的行业大模型不局限于大众普遍认知的行业大语言模型。

胡时伟指出,行业大模型的真正价值,在于为企业解决核心业务痛点的场景大模型集合。行业大模型基于各行业海量且高质量数据,扩大模型参数规模,实现行业战略效率提升。目前,公司主要业务“第四范式先知AI 平台”是公司发力行业大模型的主要阵地,该业务占公司总营收近60%,规模化效应显著。公司发展至今,已帮助客户构建风控管理、个性化推荐、排工排产、供应链管理等众多行业大模型,为企业高价值业务赋能,目前已经渗透金融、零售、制造、能源电力、电信及医疗等行业。胡时伟表示,构建行业大模型的价值,在于可以更为合理及较低成本实现人工智能多场景应用。所以,公司应因地制宜,结合中国市场特点,把每个行业、场景所需的行业大模型做到极致,随着行业大模型覆盖面越来越密集,即可汇聚成海,这也是公司走向AGI 的独有道路。

第四范式先知AI 平台持续迭代,「先知AIOS 5.0」大大拓展行业大模型的应用领域。第四范式先知AI 平台十年已历经5 次迭代,每次升级都有效解决当时人工智能的应用痛点,提升开发效率,降低开发门槛。先知AI 平台1.0,通过高维、实时、自学习框架大幅提升模型精度。先知AI 平台2.0,利用自动建模工具HyperCycle,大幅降低了模型开发门槛。先知AI 平台3.0,规范AI 数据治理和上线投产,完成建模到落地应用“最后一公里”。先知AI 平台4.0,引入北极星指标,最大化发挥AI 应用价值,提升企业核心竞争力。2024 年3 月,公司发布行业大模型平台「先知AIOS 5.0」,可基于各行业场景的不同模态数据,构建行业大模型,改变当前行业大模型只能将行业文本数据喂给大语言模型、生成下一个字的固有模式,极大拓展了行业大模型的应用领域。「先知AIOS 5.0」提供了各类开发工具以及企业级模型纳管平台,业务人员可通过自然语言交互(企业级AI Agent)的方式,实现行业大模型的构建、优化、报告、管理全流程。数据方面,平台支持各模态数据存储、调用与计算,也可通过标注和反馈,让所有人成为高质量数据的“供给者”。

大模型能力方面,用户可基于大语言模型、多模态大模型等基础大模型与开发工具,构建不同场景的行业大模型,提供更加垂直的行业能力。算力方面,平台可适配主流硬件,并通过自研推理框架及加速卡,大幅降低大模型推理及应用成本。此外,平台提供了算法揭榜平台、及大规模专业人才网络,以解决大模型行业应用中的人才供给不足。公司也将持续致力于打磨行业大模型底座,为“人工智能+千行百业”创新发展贡献力量。我们认为,公司的先知AI 平台在持续迭代的十年,也是公司对行业大模型理解逐渐加深的十年,这也为公司构建了难以被替代的护城河,伴随公司未来对行业大模型底座的持续打磨,公司未来发展速度也有望持续加速。

公司发布大模型推理加速卡、推理框架,推理性能提升10 倍,成本下降一半。为破解大模型推理中GPU 显存瓶颈,第四范式发布了大模型推理框架SLXLLM 以及硬件版本的推理加速卡4Paradigm Sage LLM Accelerator(简称SLX)。

通过多任务共享存储及处理优化技术,大模型推理性能提升10 倍;在模型效果无损情况下,同样使用8 张24G 显存GPU 对6B/7B 大模型进行FP16 推理,可部署的模型数量从8 增至16,GPU 利用率从55%最高提升至100%,推理成本仅为原来的一半。值得一提的是,该能力也将集成在4Paradigm Sage AIOS 5.0 中,推动大模型落地应用。当前,业界公认的大模型推理主要瓶颈之一是GPU 显存瓶颈。同算力一样,显存是衡量GPU 性能的关键指标之一,用于存储计算结果、模型参数等数据。在大模型推理的过程中,往往因为显存受限,导致GPU 的算力无法被“全部激活”用于推理过程,GPU 算力利用率较低,大模型推理成本居高不下。为此,第四范式发布了大模型推理框架SLXLLM 以及推理加速卡SLX,在二者联合优化下,在文本生成类场景中,大模型推理性能提升10 倍。例如在使用4 张80G GPU 对72B 大模型进行推理测试中,相较于使用vLLM,第四范式使用SLXLLM+SLX 的方案,可同时运行任务数量从4 增至40。此外,推理加速卡SLX 也可兼容TGI、FastLLM、vLLM 等主流大模型推理框架,大模型推理性能提升约1-8 倍。

我们认为,公司除了发力AI 平台,在大模型推理加速卡、推理框架也有所布局,一方面完善了公司业务布局,另一方面也为公司未来带来了潜在的新增长点。

盈利预测与投资建议。我们认为,公司Q1 业绩整体表现较为优异,印证了公司目前商业模式的可行性,而公司在行业大模型领域十余年的积累,有望伴随AI 行业的快速发展逐渐释放,成为公司业绩增长的重要动力,公司全年发展值得看好。我们综合各类因素,给予第四范式2024 年6-7 倍PS,对应公司合理价值区间73.44-85.68 港元(1 港元= 0.9254人民币),首次覆盖给予“优于大市”评级。 $第四范式(HK|06682)$

风险提示。AI 发展不及预期的风险;AI 商业化落地不及预期的风险等。

追加内容

本文作者可以追加内容哦 !