CPU是将电能转化为什么能进行计算的?
首先电能没有转化为什么。他的计算就是通过复杂的逻辑电路来进行的。所谓逻辑电路自然还是电路,所以计算就是以电能的形式进行的。这是芯片内部发生的两个孤立的过程。所有Device翻转完成计算是一个过程,有人说这是熵减,行业局限,我并不完全理解熵与能量的关系,但我认为计算过程并没有对数值的有序或者无序产生影响。计算样本和样本的处理过程是完全有序的,计算本身是没有能量过程的。第二个过程是实现计算的物理实体,对于现代的硅基甚至更高性能的GaAs等工艺,记录计算样本和完成计算均需要依赖节点电荷Arm电流的恒定和变化,这个过程才是现代芯片的能耗发生过程。我个人认为这跟计算本质上是无关的,只是一种sideeffect。也是所有宏观物理世界必然存在的过程。如果真的可以以一种没有势能的介质来存储和计算,想必也就没有能量转换和消耗了。
2024-07-24 广告
cup的运算原理就是按照设计改变输出的状态,因为输出只有0或1,所以在物理层面就是控制若干开关的状态开或关是物理层面的变化,所以cup的耗能除了金属导体通过电流产生的IR消耗,而由电能控制的逻辑门输出 高电平 和 低电平,被人为的定义为1和0。大量的逻辑门构成人思维中运算的逻辑,加、减、乘、除、取余、取反、异或、同或等等操作。就是开关状态改变的能量消耗。导线的消耗是物理层面的消耗,只能通过降低电阻或降低电压来节省,而开关转换状态消耗的能量就是我们在不断创新,不断研发的领域,从一开始的铡刀开关到现在越来越小半导体开关,我们追求的从来都是改变开关状态的最小能量,也许到原子级别改变状态需要的能量是现在半导体的100万分之一,那个时候电子运算领域又将会是另一种不同的景象。
所谓计算,无非是把一串变化的高低电势变成另一串电势。数字电路是依靠控制一系列开关达到这个目的。这些开关是依靠改变电子的注入来达成开或者关。一般来说说不动他就是关,额外加个电势就是开。所以是用另外一组电势来控制第一组电势。第一组电势是数据,第二组电势是指令。去除掉信息熵啊,高低频电阻啊,原子扩散啊,表面氧化啊这些。剩下的无非是指令这组电势控制了开关里电子的迁移。信息本身并不是能量。cpu只不过把电能用在搬动电子。而电子们来来回回,最终依然不能改变自己的命运,只是徒劳地发热而已。然而就是这来来回回,改变了信息的面貌。本质来说cpu 运算是一直改变半导体电路的状态,比如高电平和低电平。而维持状态本身需要的能量很少,甚至可以忽略,因为不是电压为零就是电流为零。但是状态转换的过程中由于有电压和电流的交叠区域,因此有损耗,即转换为了热能。高频工作过程中也有部分以电磁波的形式辐射掉。于是出现了发热和电磁干扰。这些是副作用。通过改变电压,改变半导体材料,改良沟槽结构,减少转台切换频率和边沿斜率等,是可以有效减少发热和辐射的,这也是进步的目标。把CPU看做一个系统,它的计算过程其实就是一个系统熵减小的过程,把相对无序的代码转化为相对有序的结果,至于持续输入的电能,一部分转化为内能,一部分转化为势能(比如磁盘里的磁场改变、有序的电信号等等)。哪怕电路是超导的,忽略一切电阻损耗,计算过程仍然会产生热能。这是热力学第二定律。我们能做的就是尽最大可能提高能量利用效率。