普通PC处理数据采用的是单行线,也就是一串数据只用一条线路处理,这样的处理方式叫做串行数据处理,这样的方式一次只能处理一串数据,效率低下。
后面随着电脑的发展,计算机科学家提出了并行数据处理的方法,也就是一个数据可以同时分为多个部分单独处理,但始终没法大规模实现,因为有的数据处理是不可分割的。
就拿一部电影来说,分为视频信道和音频信道,而两者是时间同步的,要想播放一部电影就必须把音频信道夹杂在视频信道里一起播放,而不是分开播放,否则会造成声音和画面不同步。
后来多核CPU的出现一定程度上解决了这个问题,可以音频和视频信道分开处理,同时序播放,但音频和视频还是要各占一个数据处理通道,本质还是离不开串行数据处理方式。
有没有更进一步的解决办法呢,答案是有!有两种办法!
要么是为每个程序专门设计一个CPU,这个一听就不靠谱,大众化、通用的PC要为了某一个APP或者软件专门设计制造一个硬件?!得多大的面子啊!
先不说全世界有多少软件种类,工作量有多大,就光说程序,一旦升级之后,旧的硬件也就得跟着更新,谁家电脑是白菜价也不能天天换CPU吧!(提一嘴——量子计算机就是因为这个原因无法普及——每个运算过程都需要专门设计运算单元)
另一个办法,是把一整串数据按时序分割成更小的数据包,让更细小但是更专业的处理单元分别处理,然后汇总处理结果,排列调整时序,最终得出处理结果。
这个方法靠谱点,而且已经大规模应用,具体参考GPU结构。
女娲的原始结构中,有一部分就采用的第二类方法,不过更复杂。
雷权在军队待过不少时间,所以对自己所用的设备有一个通用要求——可靠!
如果两个系统一个强大但是不可靠,一个可靠但不强大,雷权宁可选择后者。
雷权深入研究了人脑的基本结构单元——神经元,然后发现这是一种机制非常复杂但是也超级高效率的结构。
人类大脑光是功能分区就有几十个,每个功能分区负责处理的信号还不一样,但基本模式一样。