中国权威AI芯片专家是谁?他们对GPU芯片与TPU芯片的观点?

中国在AI芯片领域的权威专家包括:

  1. 陈云霁:中国科学院计算技术研究所研究员,在智能芯片领域有突出成就。
  2. 陈天石:寒武纪科技创始人,对人工智能芯片研发有深入研究。
  3. 魏少军:清华大学教授、中国半导体行业协会副理事长、IEEE Fellow。
  4. 尹首一:清华大学微纳电子系副主任、微电子所副所长,对AI芯片在中国的进展有深入探讨。

对于GPU芯片与TPU芯片的观点,以下是一些专家的看法:

  1. 苏姿丰(AMD首席执行官):她认为GPU目前是大语言模型的首选架构,因为它们在并行处理方面非常高效,但它们在可编程性方面有所欠缺。她预计,未来5年或7年时间内GPU还不会“失势”,但会出现GPU以外的新势力。未来的AI模型将使用不同类型芯片的组合,包括当前占主导地位的GPU以及仍有待开发的更专门化的芯片,从而实现各种功能。

  2. 杨龚轶凡(中昊芯英创始人兼CEO):他认为TPU专为神经网络结构而设计,在相同制造工艺、能耗和芯片尺寸条件下,性能优于GPU3~5倍。在适用场景上,TPU为已有的算法和框架进行优化,性能和功耗表现均优于GPU,更适用于深度学习模型的大规模部署。

  3. 陆玉春博士(华为“2012实验室”的网络专家):他提到Nvidia的AI芯片规划的战略核心是“One Architecture”统一架构,支持在任何地方进行模型训练和部署,无论是数据中心还是边缘设备,无论是x86架构还是Arm架构。Nvidia的AI芯片布局涵盖了训练和推理两个人工智能关键应用,训练推理融合,并侧重推理。

这些观点涵盖了中国AI芯片领域的一些权威专家以及他们对GPU和TPU芯片的看法。

TPU芯片在某些方面确实可以作为GPU芯片的替代品,尤其是在AI大模型训练和推理任务中。以下是几个关键点:

  1. 性能与能效:TPU作为ASIC芯片的一类,其优势在于出众的能效比与单位成本算力指标。谷歌的TPU产品相比英伟达的GPU产品,在成本与功耗上存在优势。例如,谷歌TPUv4与NVIDIA A100相比的功耗低1.3-1.9倍,在Bert、ResNet等多类工作模型中,效率高于A100 1.2-1.9倍

  2. 专用性:TPU专为深度学习设计,具备高效的矩阵运算能力和低精度计算优势,特别适用于大规模深度学习训练任务。TPU为已有的算法和框架进行优化,性能和功耗表现均优于GPU,更适用于深度学习模型的大规模部署

  3. 市场趋势:谷歌已经在谋划用TPU替换掉GPU,可能在年底停止外部AI算力芯片的采购,转而完全依赖自研的TPU。谷歌的算力总量,结合自研TPU和先前的芯片采购,预计可达全球算力总量的25%

  4. 实际应用:在使用神经网络推理的商业AI应用程序上,TPU比当前的GPU和CPU快15到30倍,且TPU的能源效率显著提高:TOPS/Watt值增加了30到80倍

  5. 技术发展:随着技术的发展,在相同制造工艺、芯片尺寸和能耗条件下,TPU相较于传统GPU架构,其不可替代的优势在于专为AI深度学习定制。TPU舍弃了GPU的部分灵活性,转而专注于优化深度学习中的非线性计算,性能可提升3到5倍,具有显著的性价比

综上所述,TPU芯片在特定应用场景下,特别是在AI大模型训练和推理任务中,已经展现出替代GPU芯片的潜力和优势。然而,GPU因其多功能架构和广泛生态的支持,在通用高性能计算领域仍具有不可替代的地位。


追加内容

本文作者可以追加内容哦 !