$网宿科技(SZ300017)$ 【突破算力限制!Meta开源“记忆层” 重塑Transformer架构大模型】今天凌晨3点,全球社交巨头Meta分享了一个创新研究——Memory layers(记忆层)。目前,Transformer架构的预训练大模型在存储、查询数据时,随着参数的变大对算力的需求呈指数级增长。“记忆层”提出了新的高效查询机制替代了传统的查询方法,通过比较查询键与两个较小集合中的键,可以快速找到最相关的键,而无需遍历模型的整个记忆层。这也就是说,可以在不增加算力的情况下显著增加大模型的参数。例如,研究人员在仅有1.3亿参数的模型中添加了128亿额外的记忆参数,其性能与Meta开源的Llama 2- 70相当,而算力却比它低了10倍左右。(AIGC社区)
追加内容
本文作者可以追加内容哦 !