最近关于AI和算力的话题持续火热。上次的内容中,我和大家讨论了算力对应的能源量级可以怎么估算。从那个结果来看,确实算力对能源的弹性相对稳定,大幅增长的算力需求有可能会对能源提出挑战。
那么有没有可能降低模型对于算力需求的弹性呢?
要回答这个问题,首先得了解AI的核心算法、神经网络模型以及神经网络模型训练。神经网络顾名思义就是由数量众多的神经元构成的网络;神经网络模型就是试图通过数学的方法在计算机上实现对神经网络的模拟、从而实现神经网络的认知功能。
我们先从神经元开始讲起。
下图就是一个神经元的基本结构,为了便于理解,我们将输入变量降到2个。外界刺激也就是输入变量分别为x1和x2,经过神经元的处理也就是W1和W2的作用,得到输出结果Y。
这个过程就是神经元运作的基本原理,而神经网络模型就是将这样的过程通过数学的方法模拟出来,模拟用的数学工具也是最基本的加法和乘法。用数学公式来表达就是Y=X1*W1+X2*W2。所谓的模型训练,就是通过给定多组Y和X去修正W,从而使得神经网络能够具备给出符合给定训练数据内在逻辑的输出能力,也称之为学习。
神经元输入变量可以远超两个,权重W的个数也可以远超2个,同时上一级神经元的输出也可以作为下一级神经元的输入变量,多层神经元网络之间也可以作为彼此的输入变量,最终交织成一张由神经元构成的大网。但无论神经元的网络多么复杂,其模型训练以及推理所需要的基本运算就是我们所熟知的加法和乘法。就目前的情况来看,我们发现神经网络中的W数量越多,这个神经网络就会表现出越高的智能程度,这也就是在谈论AI时我们常提到的参数数量。
从这个基本原理中你会发现W越多,神经网络单次运算所需计算的乘法和加法次数越多,同时W越多也就意味着修正W的难度也越大,修正的难度也对应着训练次数的增加,也会成倍数地增加加法和乘法的运算次数,所以神经网络中计算机的底层工作就是加法与乘法,而大量的加法和乘法也是消耗算力的原因。优化神经网络模型的训练会从这里出发,降低单次运算次数,降低修正W的次数。
但计算机底层的优化方向主要是优化乘法的运算速度,因为在电路层面乘法与加法不同,是无法通过逻辑电路直接完成的,都是先要将乘法转化为加法进行计算,但如何转化才能效率最高这是一个底层的数学问题,效率较低的转化方式就是沿着乘法定义的思路将被乘数进行乘数次的连续相加,一旦乘数很大,就会极大地增加运算量,这其中具有一定的优化空间,有将计算次数降低一个幂次的可能,但相比于算力需求的增长似乎仍然不够。
这样一来,好像又陷入了一个困局,更多的算力消耗似乎无可避免,AI下一步发展想要突破,算法的优化似乎无法解决能源问题。但有些前沿的研究似乎提供了解决思路,有时间可以写写。
当然,以上的推演似乎和股市中AI的热点关联不太大,但我们在研究一个问题的时候,更希望从理解这门生意的本质出发,至少在当下,我们可以理解究竟有哪些情况可能会限制AI的发展;要突破这些限制,又有哪些路径可以尝试。
$中泰开阳价值优选混合A(OTCFUND|007549)$
$中泰星宇价值成长混合A(OTCFUND|012001)$
$中泰兴诚价值一年持有混合A(OTCFUND|010728)$
以上观点仅代表当下观点,且不构成投资建议。
本文作者可以追加内容哦 !