作者|冰拿铁

编辑|星奈

媒体|AI大模型工场

 

近日,大模型界最轰动的事件,莫过于“模圈思想者”o1的诞生:9月13日,Open AI o1-preview发布,通过模仿人类思维过程,形成了具备自动思考与反思能力的“思维链”流程,从而实现了复杂推理能力和解决问题能力层面上的next level。

士别三日,Open AI已经学会深度思考了,吊打其“说话不过脑子,哐哐一顿输出”的GPT老哥,这是怎么做到的?

据360集团创始人周鸿祎分析,Open AI o1遵循的可能是“双系统理论 Dual Process Theory”,核心在于两种系统并非独立而是协同运作。由此推测,其内部构建的更加智能的模型或许是 GPT和o系列结合思维链的融合系统,前者用于“快思考”,后者实现“慢思考”。

诚如所言,在当下,为o1-preview注入灵魂、让其“更慢但更强”的正是思维链(Chain-of-Thought, CoT)的自动化——即通过CoT把复杂的问题自动拆解成多个小步骤,然后逐项击破,让大模型对解决复杂逻辑问题更得心应手。此前,这个过程需要靠人工指令“手动控制”。

一言以蔽之,o1的精髓在“慢思考”。不过,这套预见未来的“三思而后行”模式并非Open AI首创:事实上,360早已前瞻性地看到了“慢思考”是大势所趋,并抢先实现落地。

早在7月底的ISC.AI2024大会上,360集团创始人周鸿祎就宣布,“用基于智能体的框架打造慢思考系统,从而增强大模型的慢思考能力”,并且此后多次强调类似观点。

而产品落地应用层面,在市场规模庞大、应用推动下技术飞速迭代的中国,360也早已抢跑:在 ISC.AI 上,360发布的CoE(Collaboration-of-Experts,专家协同)技术架构及混合大模型,就是该方法的产物。

相比CoT,CoE架构集合了数量更多的大模型和专家模型,是通过思维链和“多系统协同”的方式实现“快思考”和“慢思考”。目前,该技术架构已经落地到了多个产品中,比如360AI搜索、360AI浏览器,并在多项测试中超越GPT4,媲美o1,成绩斐然。

事实上,大范围的意识形态觉醒往往落后于先行者的领跑动作,往往先行者已经跑了一段路了,回旋镖才打中行业的反射弧——如果说在当时,外界还没有意识到360方法论的前瞻性,那么如今Open AI的加码跟进,才让其重新审视360的“预言家能力”,并感慨“英雄所见略同”。

“与其在别处仰望,不如在这里并肩”。如今,在慢思考成为大模型风向标的下半场,360有望攒局领跑,在国际舞台与Open AI同场竞技、平分秋色。

 

一、理念一致、路径类似:Open AI和360,都让大模型“三思而后行”

Open AI o1“发布即炸街”背后,是其和“快思考时代产物”GPT有根本性区别,因此具有“大模型慢思考”全面到来的代际进化意义。那么,具体来说,大模型的“慢思考”和“快思考”时代有哪些区别?

此前, ISC.AI上,周鸿祎用“快思考”和“慢思考”两项人类具备的能力对思维链强大的原因进行了解读。他指出,快思考的特点是快速直觉、无意识,反应很快但能力不够强。

GPT类大模型通过训练大量知识,主要学习的是快思考能力,这也是为什么GPT类大模型脱口而出的答案质量不够稳定,“就像人一样,不假思索出口成章而不出错非常难实现”。

而慢思考的特点则是缓慢、有意识、有逻辑性,需要分很多步骤,类似写一篇复杂的文章,要先列提纲,根据提纲去搜集数据,收集素材,根据素材进行讨论,再把文章写出来,还要进行润色和修改。

英雄所见略同,基于相同的前瞻性判断,Open AI和360的底层逻辑相通,都锚定慢思考,将大模型“竞速”升维至“竞智”:正如Open AI科学家Noam Brown称,目前o1几秒就能给出答案,但未来它要能进行几小时、几天,甚至几周的思考,并附上一个案例,即o1在十几秒的思考后,给一个病例做出了诊断。

“这一次o1拥有了人类慢思考的特质,在回答问题前会反复地思考,拆解、理解、推理,可能会自己问自己1000遍,然后才能给出最终的答案。”周鸿祎评价o1时如是说。

基于超前认知,360已经形成了完整的CoE架构方法论,并和此次Open AI的CoT殊途同归。

在360首创,并于8月1日正式发布的CoE架构中,强化了推理的使用。对比之下,MoE(Mixture-of-Experts)架构的稀疏混合专家模型,一次只能调用其中的一个专家模型回答,而CoE架构则能让多个模型分工协作、并行工作,执行多步推理。

同时,CoE模型拥有更精细的分工、更好的鲁棒性、更高的效率和可解释性和更强的泛化能力,可以在加快推理速度的同时, 降低API接口和Token的使用成本。

换句话说,CoE把专家调用从“单向度”爆改为“多向度”——同样是米其林餐厅厨师团队,MoE架构就像是一道道烹饪菜肴,每道菜都挑选出该菜系最擅长的大厨烹饪,效果好但单打独斗;而CoE架构则更像是五星级厨师团队,协作烹饪,把每个厨师的优势发挥到最大化。

值得一提的是,360通过CoE(专家协同)技术架构和混合大模型来实践"慢思考"概念,并已在多个产品中应用落地,这点比Open AI更早。

 

二、落地更早:打出“专家协同流”,360AI搜索、浏览器等多线落地开花

目前,Open AI o1模型仍存在一些局限性,如幻觉问题、运行速度慢和成本高等,这让我国有望在“慢思考落地”上扳回一局。综合梳理,在当下,我国在“慢思考”上处于“三局两胜”局面。

架构上,国内的CoE架构快国外一步,取得先机;不过也不得不承认,整体实力上,在大模型赛道仍然是以Open AI为代表的国际团队更为领先一步;但是在落地应用上,国内又是更快一步的——这让人想起此前的文生视频领域,同样是国外Sora惊艳炸街,但一直由于种种原因未公开上线,反倒是国内文生视频应用如雨后春笋般落地。

慢思考时代也是如此,在国内,360已通过领先一个身位的执行力将慢思考落地,在多个产品中应用:360AI浏览器中的AI助手的“多模型协作”、“模型竞技场”等功能就是成功的实践范本。

如360推出了基于首创CoE架构的“多模型协作”,即群策群力、内部纠察、多轮评审:让三个大模型一起组队,挑战更强的大模型。三个大模型的分工是这样的:第一个做专家,对提问进行第一轮回答;第二个做反思者,对专家的回答进行纠错和补充;第三个做总结者,对前两轮回答进行优化总结。

目前上线的是三模型协作版本,产品团队计划在9月底还会推出五模型或更多模型协作的版本,让大模型合作从“三英战吕布”到八仙过海各显神通的“打团战”,潜力将进一步释放,前景不可估量。

不止如此,360AI搜索也是基于CoE技术架构的典型应用。

值得一提的是,由于AI与搜索具有高度适配性,一直以来,AI搜索都是群雄环绕的兵家必争之地。微软CEO纳德拉曾公开表示,AI加持的搜索引擎,是他在任CEO 9年来微软公司“最重要的产品”,堪比15年前的云计算。巨头争相落地下,在未来,AI搜索将会改变很多人获取信息和知识的方式。

那么,在慢思考时代,360AI搜索的工作链路是怎样的?首先构建意图分类模型,对用户的问题进行意图识别;接着打造任务路由模型对问题进行拆解,不同的问题可以划分成“简单任务”、“多步任务”和“复杂任务”,对多个模型进行调度;最后构建AI工作流,使多个大模型协同运作。

比如面对一道古诗词中译英题目,路由模块就会调用起翻译、反思等多个模型,让这些模型分工配合、共同完成任务。好比召集英语、哲学、文学领域的多个学霸,一起完成一道翻译题。

在CoE技术架构的赋能下,即使竞争激烈,360AI搜索依然于2024年1月面世后八九个月的时间里,就登顶成为全球最大访问量的AI原生搜索引擎。2024年7月,360AI搜索Web端的月访问量达到了9369万次,超过了此前的“AI搜索王者”Perplexity AI,在AI产品榜·全球总榜中排名第十一。8月,360AI搜索的访问量更是达到了2亿次。

随着慢思考成为大势所趋,越来越多大模型在360这里并肩,共同逐浪未来、面向国际舞台竞技。

 

三、可以与Open AI一战!慢思考时代,360集结中国大模型集体出战

在当下,“慢思考”正势不可挡,将领跑大模型下半场:这和人类的进化过程是一致的,都是从简单思维通向复杂思维。随着领跑者开创“强化学习的 Scaling Law”,强化学习(RL)及Inference的价值不断被释放,大模型“三思而后行”是大势所趋——通过更长的、更缜密思维链,大模型开始学会“说话过大脑”,进行深入思考,最终给出专家级回答。

正如周鸿祎所言,未来人工智能的竞争的重要维度之一将是答案的完整性。而在慢思考成为大势所趋下,尽管国产大模型在数据、算法、算力上和Open AI都还有差距,但相对GPT-4o而言,基于CoE架构的混合大模型在翻译、写作等12项指标的测试中取得了80.49分的综合成绩,超越了GPT-4o的69.22分,换句话说,360已经获得了“慢思考”竞技场的入场券,有了上牌桌的资格。

值得一提的是,独行快,众行远,360不止自己竞技,还攒局与国产大模型并肩前行。CoE 架构由360牵头,接入百度、腾讯、阿里巴巴、智谱AI等16家国内主流大模型的54款大模型产品,未来预计会全量接入 100 多款大模型产品,形成最强专家天团,群策群力,实现兵力上的猛火碾压。

“与其默默仰望星辰,不如并肩戴月前行。”随着慢思考理念引领大模型发展的新纪元,360正蓄势待发,有望攒局领跑,在这场全球科技盛宴中脱颖而出,为让国产大模型与Open AI同场竞技、平分秋色落下浓墨重彩的一笔。

 

追加内容

本文作者可以追加内容哦 !