问:国产大模型在近期内有哪些重大突破?
答:在最近一周,国产大模型领域发生了两件重要事件。首先,Kimi.ai推出了Kimi+,这是一款绑定了很多具有特定功能的小助手的专业软件,能够解决诸如研报生成、提示词与文案生成、上下文阅读理解以及产品推荐等多种任务。其次,换方量化发布了其第二代MOE架构的新模型Deep Seek 2.0版本,该模型不仅性能卓越,而且成本极低,引发了广泛关注。

问:国内厂商如何快速迭代推出对标国际大模型的产品?
答:自今年4月23日商汤公开其Nova 5.0对标GBS Turbo以来,各大厂商相继推出了对标GPT-4的模型。例如,换方量化将于6月29日公布其4.0版本的模型,而讯飞也已计划在6月下旬公布其对标版本。国内大模型的能力正以每家厂商基本达到4.0水平的速度快速迭代更新。

问:OpenAI 4.0发布后,国内大模型的发展进程如何?
答:OpenAI 4.0于2022年11月30日发布,而商汤在2023年4月23日就公开了其Nova 5.0模型,两者之间的发布时间间隔仅一年多。这意味着,如果国内大模型能全维度地对标OpenAI 4.0的能力,那么在时间上只需要一年左右的时间就能实现赶超,大模型的能力差距正在逐步缩小。

问:Deep Seek 2.0在语言能力方面取得了怎样的突破?
答:Deep Seek 2.0在中文能力方面已经达到了与GPT-3 Turbo相当的水平,处于开源模型中的第一梯队;在英文综合能力上也接近拉马尔70B,并超越市面上其他一些强大的MOE开源模型;同时在知识数学推理和编程方面也表现出色,上下文窗口长度可达到128K。此外,其成本也非常低廉,百万token的输入和输出价格分别为1元和2元,远低于市面上主流产品的价格。

问:Deep Seek 2.0的成本压缩为何对AI应用如此重要?
答:Deep Seek 2.0之所以能够大幅压缩成本,是因为其创新性地采用了MLA(multiple lantin attention)架构,减少了计算量和推理显存消耗,使得专家复合模型(MOE)的成本成倍下降。这对于模型在商业产品落地场景中的应用具有重要意义,有望加速行业推进,并可能激励其他大模型厂商效仿其成本压缩策略。

问:五月份计算机行业的情绪如何,以及目前的涨跌幅排名如何?
答:五月份整体情绪较好,尽管在五月份第一周交易计算机表现一般,目前全行业涨跌幅倒数第一,大概下跌了48个点。但相较于最差时期已经出清,一季报显示计算机利润下滑明显,但C端、B端及G端(如智慧交通)都有所恢复。海外大华也给出了今年前低后高的明确指引,行业复苏迹象逐渐清晰。

问:计算机行业的持仓情况如何,以及当前处于什么样的配置水平?
答:计算机行业的持仓当前处于较低水平,一季度持仓约为3%左右,相比去年同期的6%多已降至3%。根据正常水平,计算机行业的平均持仓应该在4%左右,因此当前处于低配状态,这也为后续上涨留出空间。

问:通信行业方面有什么重要的动态或信息值得关注吗?
答:通信行业的龙头公司Arista(路由器交换机巨头)发布财报,其业绩超预期且上调全年业绩指引。Arista在数据中心和云厂商领域占据了大头,且北美云巨头贡献了大部分营收。在高速数据中心交换机市场,Arista的份额持续提升,已从3.5%增长至30%左右,市场份额领先。这显示出Arista作为高速数据中心龙头的地位,并且其业绩及指引对整个产业链具有很强的参考意义。

问:Arista如何看待以太网和rookie在规模集群中的表现?
答:Arista作为超以太联盟主导厂商,更看好以太网作为规模集群的敌人。今年二月份,Arista基于旗舰产品7800AI集群构建了一个24000个节点的GPU集群,在处理AI训练任务时发现,相比于IB,其整体性能提高了10%。

问:Arista预测在25年内,其纯AI收入将达到多少?
答:Arista预计在25年内,其纯AI收入将达到7.5亿美元。这主要基于其已经具备万卡集群能力,并计划在未来连入1万到10万个GPU。

问:800G交换机大规模上量的时间节奏是怎样的?
答:Arista认为800G交换机的大规模应用将在2025年到2026年实现,尽管光模块从今年开始已批量交货,但发挥网卡优势还需要一年多时间。

问:Arista软件能力在企业客户中的重要性体现在哪些方面?
答:Arista的软件能力,如调度调优、监测和存储等,使其能够提供软件和硬件服务,以及针对客户需求的运营服务,如调度、调优、监测、故障排除等。目前,Arista软件和服务收入占比已接近20%,对客户有较大粘性。

问:Arista如何预判云计算整体网络市场的增长趋势?
答:Arista预计,云计算整体网络市场从2019年到2027年将从370亿美元增长到600亿美元,复合年增长率约为13%。其中,软件与服务的占比在未来将进一步提升。

问:紫光股份在投资角度中的核心地位如何体现?
答:紫光股份是国内唯一拥有完整硬件(高速交换机)、软件(CVUNO网络可观察性软件、SDL网络数据库)及异构算力布局的上市公司,具备一站式解决方案能力。考虑到Vista良好的业绩增长趋势,未来国内厂商如华三等也可能复制海外厂商的发展模式。

问:中国移动在数据中心和国产算力投资方面的最新动态是什么?
答:中国移动近期在91元的PC服务器开标中,多家企业中标,其中包括中兴通讯、新华三等。中国移动在苏州召开的示范大会上提出,未来将加大国产算力投资,并计划建设自己的万卡集群,这显示出对中国国产算力的高度重视。

问:近期传媒行业受大模型影响的主要变化有哪些?
答:近期传媒行业受大模型影响最大的变化在于,由于新模型采用MOE架构,整体应用成本已降至类似叉T4模型的近1%水平,这对下游AI应用和调用产生了巨大帮助。例如,kimi、阶跃星辰等模型能力逐渐提升,为未来AI应用带来更多的商业化机会,预计未来AI应用将爆发式增长。

问:对于AI手机的发展趋势,您有什么看法?
答:AI手机正在开启一个新的技术周期,从去年下半年开始,各大厂商如谷歌、三星、OPPO等已将大模型内置到智能手机中,完成了从云端AI到终端AI的转变。根据Counterpoint预测,2024年将成为智能手机生成式AI手机的元年,这一技术变革将首先在旗舰和次旗舰产品中体现,并逐渐下沉惠及更广泛的消费者群体,最终实现智能手机成为移动智能体的目标。

问:生成式AI手机的核心特征有哪些?生成式AI手机硬件规格和实现方式是什么?
答:生成式AI手机需要具备以下关键特征:首先,支持本地部署或云端协同执行复杂的生成式AI任务,拥有强大的AI算力,不完全依赖云端服务器;其次,具备多模态能力,能够处理文本、图像、语音等多种形式内容输入输出,实现多种生成任务,如翻译、图像生成、视频生成等;最后,确保流畅无缝的用户体验,设备应能自然直观地与用户交互,并快速响应用户请求。为了实现这些功能,生成式AI手机需要具备一定的硬件规模,包括基于领先供应和先进架构设计的移动计算平台,集成或独立的神经网络运算单元(APU、NPU、TPU),大容量和高带宽的内存,以及稳定高速的连接和系统级安全防御。目前,头部安卓厂商已成功实现70亿参数大模型本地部署,并开放了一系列基础功能,如基于diffusion大模型的图片和视频生成,以及基于LM的自然语言处理等。

问:未来生成式AI部署的主流模式是什么?
答:未来生成式AI部署的主流模式更可能是端云结合,因为在手机端受限于计算和存储资源的情况下,云端拥有更充足的算力,可支持更大规模的AI模型部署和训练。高通去年提出了“混用AI是AI的未来”的观点,强调终端与云端协同工作的混合AI是首选,以云端为中心,在可能的情况下从云端分担AI工作负载,在其他场景下计算主要以终端为中心,必要时向云端分流任务。

问:当前手机厂商在解决大模型手机内存瓶颈问题上有哪些分歧和技术路线?
答:目前手机厂商在解决大模型手机内存瓶颈问题上存在分歧,主要有三种技术路线:一是直接提高终端内存容量;二是压缩大模型体积;三是优化内存调用逻辑。不同阵营代表公司如微软、联想、OKO等致力于大模型压缩,苹果则拟定通过优化闪存交互和内存管理逻辑来突破内存瓶颈,并计划直接提高终端内存。此外,还有一种技术路线是提高终端内存密度,例如3D XDRAM技术,以显著提高容量并满足大模型需求。

问:芯片厂商如何推动端测AI下的大模型压缩技术?
答:芯片厂商如高通和联发科正在推动端测AI下的大模型压缩技术,希望下一代芯片能够支持手机厂商嵌入大模型的需求,类比4G到5G的迭代过程。这一技术的推广将使得芯片采购成本上升,但同时也将带来产业链上下游如SOC、散热材料、内存等环节的受益,推动整个AI手机产业链的进一步发展。

问:具备自研能力的手机厂商在AI手机技术迭代中如何获取更大红利?
答:在AI手机技术迭代浪潮中,具备自研能力尤其是大模型和芯片环节的手机厂商更有可能获取更大红利,因为AI催生的换机潮将带来量价齐升的过程。上一轮技术迭代如5G和4G,仅靠组装环节无法获取大规模利润,手机厂商需要具备自研能力以获取成本可控和供应稳定的竞争优势。

作者声明:个人观点,仅供参考
追加内容

本文作者可以追加内容哦 !