计算机原理结构

1.现代计算机理论模型与工作原理

  现代计算机模型是基于冯.诺依曼计算机模型

  计算机在运行时,先从内存中取出第一条指令,通过控制器的译码,按指令的要求,从存储器中取出数据进行指定的运算逻辑操作等加工,然后再按地址把结果送到内存中去。接下来,再取出第二条指令,在控制器的指挥下完成规定操作,依此进行下去,直至遇到停止指令。

计算机大致流程:CPU→读取→存储;CPU计算完成后,再将数据存回→存储

  程序与数据一样存储,按程序编排的顺序,一步一步地取出指令,自动地完成指令规定的操作,是计算机最基本的工作模型。这一原理最初是由美籍匈牙利数学家冯.诺依曼于1945年提出来的,故称为冯.诺依曼计算机模型。

在这里插入图片描述

2.计算机五大核心组成部分

  1. 控制器(Control):是整个计算机的中枢神经,其功能是对程序规定的控制信息进行解释,根据其要求进行控制,调度程序、数据、地址,协调计算机各部分工作及内存与外设的访问等;
  2. 运算器(Datapath):运算器的功能是对数据进行各种算术运算和逻辑运算,即对数据进行加工处理;
  3. 存储器(Memory):存储器的功能是存储程序、数据和各种信号、命令等信息,并在需要时提供这些信息
  4. 输入设备(Input system):输入设备是计算机的重要组成部分,输入设备与输出设备合称为外部设备,简称外设。输入设备的作用是将程序、原始数据、文字、字符、控制命令或现场采集的数据等信息输入到计算机。常见的输入设备有键盘、鼠标器、光电输入机、磁带机、磁盘 机、光盘机等;
  5. 输出设备(Output system):输出设备与输入设备同样是计算机的重要组成部分,它把外算机的中间结果或最后结果、机内的各种数据符号及文字或各种控制信号等信息输出。常用的输出设备有:显示终端CRT、打印机、激光印字机、绘图仪及磁带、光盘机等。

重点了解:控制器、运算器、存储器

3.现代计算机基本硬件结构

在这里插入图片描述

  CPU、存储器、硬盘、内存条,都是单独物件的存在,它们之间都是通过一条IO总线进行通信的。程序在CPU中计算,通过I/O总线去获取到内存中的数据/指令,然后把它load到CPU上的缓存(L1、L2、L3三级缓存,先L3再L2后L1一级一级来)中,然后load加载到 CPU中,在CPU中进行计算

  计算机内存条,频率为几百M/Hz,内存条速度是远远跟不上CPU的计算速度的。如果CPU没有多级缓存架构的话,就会严重拖慢CPU的运算效率。【如果没有多级缓存,CPU会直接去内存条获取数据,速度远远跟不上CPU的计算速度】

  L1、L2、L3 即高速缓冲存储器,是位于CPU与主内存间的一种容量较小但速度很高的存储器。 由于 CPU的计算速度远高于主内存,CPU直接从内存中存取数据要等待一定时间周期,L1、L2、L3缓存中保存着CPU刚用过或循环使用的一部分数据,当CPU再次使用该部分数据时,就可以直接从三级缓存中来取数据, 减少CPU的等待时间,提高效率。

运行速度:寄存器 > L1 > L2 > L3 > 内存条

4.CPU内部结构划分

  • 控制单元
  • 运算单元
  • 存储单元
    在这里插入图片描述

1.控制单元

  控制单元是整个CPU的指挥控制中心,由指令寄存器IR(Instruction Register)、指令译码器ID(Instruction Decoder)和 操作控制器OC(Operation Controller) 等组成,对协调整个电脑有序工作极为重要。它根据用户预先编好的程序,依次从存储器中取出各条指令,放在指令寄存器IR中,通过指令译码(分析)确定应该进行什么操作,然后通过操作控制器OC,按确定的时序,向相应的部件发出微操作控制信号。操作控制器OC中主要包括:节拍脉冲发生器、控制矩阵、时钟脉冲发生器、复位电路和启停电路等控制逻辑。

2.运算单元

  运算单元是运算器的核心,可以执行算术运算(包括加减乘数等基本运算及其附加运算)和逻辑运算(包括移位、逻辑测试或两个值比较)。相对控制单元而言,运算器接受控制单元的命令而进行动作,即运算单元所进行的全部操作都是由控制单元发出的控制信号来指挥的,所以它是执行部件。

3.存储单元

  存储单元包括 CPU 片内缓存Cache和寄存器组,是 CPU 中暂时存放数据的地方,里面保存着那些等待处理的数据,或已经处理过的数据,CPU 访问寄存器所用的时间要比访问内存的时间短。 寄存器是CPU内部的元件,寄存器拥有非常高的读写速度,所以在寄存器之间的数据传送非常快。采用寄存器,可以减少 CPU 访问内存的次数,从而提高了 CPU 的工作速度。寄存器组可分为专用寄存器和通用寄存器。专用寄存器的作用是固定的,分别寄存相应的数据;而通用寄存器用途广泛并可由程序员规定其用途。

5.计算机硬件多CPU架构

在这里插入图片描述

1.多CPU

  一个现代计算机通常由两个或者多个CPU,如果要运行多个程序(进程)的话,假如只有一个CPU的话,就意味着要经常进行进程上下文切换,因为单CPU即便是多核的,也只是多个处理器核心,其他设备都是共用的,所以多个进程就必然要经常进行进程上下文切换,这个代价是很高的

2.CPU多核

  一个现代CPU除了处理器核心之外还包括:寄存器L1L2L3缓存这些存储设备、浮点运算单元、整数运算单元等一些辅助运算设备以及内部总线等。一个多核的CPU也就是一个CPU上有多个处理器核心这样有什么好处呢比如说现在我们要在一台计算机上跑一个多线程的程序,因为是一个进程里的线程,所以需要共享一些存储变量,如果这台计算机都是单核单线程CPU的话,就意味着这个程序的不同线程需要经常在CPU之间的外部总线上通信,同时还要处理不同CPU之间不同缓存导致数据不一致的问题,所以在这种场景下多核单CPU的架构就能发挥很大的优势,通信都在内部总线,共用同一个缓存

3.CPU寄存器

  每个CPU都包含一系列的寄存器,它们是CPU内内存的基础。CPU在寄存器上执行操作的速度远大于在主存上执行的速度。这是因为CPU访问寄存器的速度远大于主存

4.CPU缓存

  即高速缓冲存储器,是位于CPU与主内存间的一种容量较小但速度很高的存储器。由于CPU的速度远高于主内存,CPU直接从内存中存取数据要等待一定时间周期,Cache中保存着CPU刚用过或循环使用的一部分数据,当CPU再次使用该部分数据时可从Cache中直接调用,减少CPU的等待时间,提高了系统的效率。

  • 一级Cache(L1 Cache)
  • 二级Cache(L2 Cache)
  • 三级Cache(L3 Cache)

L1 Cache 又分为 L1 指令缓存L1 数据缓存,如下图所示。
在这里插入图片描述

5.内存

  一个计算机还包含一个主存(内存条)。所有的CPU都可以访问主存。主存通常比CPU中的缓存大得多。

1.CPU读取存储器数据过程

  • CPU要取寄存器中地址为 xxx 的值,只需要一步:直接读取。
  • CPU要取L1 cache的某个值,需要1-3步(或者更多):把cache行锁住,把某个数据拿来,解锁,load 到 CPU 中进行计算。
  • CPU要取L2 cache的某个值,先要到L1 cache里取,L1当中不存在,再去 L2 里取,L2开始加锁,加锁以后,把L2里的数据复制到L1,再执行读L1的过程,L1加锁,读取后,再解锁,再从 L1 到 CPU。
  • CPU取L3 cache的也是一样,只不过先由L3复制到L2,从L2复制到L1,从L1到CPU。
  • CPU取内存则最复杂,通知内存控制器占用总线带宽,通知内存加锁,发起内存读请求, 等待响应,响应后,将数据保存到L3,再从L3、L2到L1,再从L1到CPU,之后解除总线锁定

这就是CPU为什么要去设计三级缓存的原因,就是图快快快!

2.多线程环境下存在的问题

  1. 缓存一致性问题
  2. 指令重排序问题

1.缓存一致性问题

  在多处理器系统中,每个处理器都有自己的高速缓存,而它们又共享同一主内存(MainMemory)。基于高速缓存的存储交互很好地解决了处理器与内存的速度矛盾,但是也引入了新的问题:缓存一致性(CacheCoherence)

  当多个处理器的运算任务都涉及同一块主内存区域时,将可能导致各自的缓存数据不一致的情况,如果真的发生这种情况,那同步回到主内存时以谁的缓存数据为准呢?为了解决一致性的问题,需要各个处理器访问缓存时都遵循一些协议,在读写时要根据协议来进行操作,这类协议有MSIMESIMOSISynapseFireflyDragonProtocol,等等
在这里插入图片描述

2.指令重排序问题

  为了使得处理器内部的运算单元能尽量被充分利用,处理器可能会对输入代码进行乱序执行(Out-Of-Order Execution)优化,处理器会在计算之后将乱序执行的结果重组,保证该结果与顺序执行的结果是一致的但并不保证程序中各个语句计算的先后顺序与输入代码中的顺序一致。因此,如果存在一个计算任务依赖另一个计算任务的中间结果,那么其顺序性并不能靠代码的先后顺序来保证。与处理器的乱序执行优化类似,Java虚拟机的即时编译器(JIT)中也有类似的指令重排序(Instruction Reorder)优化

6.CPU计算完成后,何时将数据同步回内存中

  CPU在计算完成后,并不会立即将数据同步到内存中。CPU只会在空闲时才将最新数据刷回内存中,这个时间点并不可控。有什么办法,在计算完成后,强制让数据刷回内存中呢?

  就是汇编指令中的一个 LOCK 信号。CPU硬件层面怎么解决这个问题呢?针对该问题,提出了 MESI 缓存一致性协议。通过MESI协议,能够保证将最新数据立马同步回去。

7.案例分析

场景:
  服务器有2个线程t1、t2在跑。都对 x=1 分别+1,期望最终结果:x = 3

问题分析:
  首先会将 x=1 加载到主内存中,然后 t1线程,会获取到 x=1 的内存地址,然后在寄存器、CPU缓存(L1、L2、L3)中是否存在(L1最优先,L2中如果有,则copy一份到L1,最后加载到寄存器进行计算),如果都没有则会去主内存中获取,然后一次加载,并copy到L3→L2→L1,最后写入寄存器进行计算,一级一级进行缓存。

实际结果:
  同一时刻两个线程同时运行,则会在各自线程中的 CPU 缓存中,同时有两份 x=1 的副本,然后两个线程都 +1 后,再同步写入到主内存中,此时两个线程最终结果应该为 1+1+1=3,但是预期结果会是2(t1线程写入后,t2也写入,都是1+1,写入的都是2),会导致结果和预期的不一致。

解决方案:
  为了保证运算结果的一致性,在CPU中设计了两种解决方式①总线锁②MESI缓存一致性协议

2021-11-14,接下来将持续更新《并发编程》硬核内容,如有需要,请持续关注!!!


2021-11-15 已更新《并发编程》第二篇:MESI 缓存一致性协议


博主写作不易,加个关注呗

求关注、求点赞,加个关注不迷路 ヾ(◍°∇°◍)ノ゙

我不能保证所写的内容都正确,但是可以保证不复制、不粘贴。保证每一句话、每一行代码都是亲手敲过的,错误也请指出,望轻喷 Thanks♪(・ω・)ノ

本图文内容来源于网友网络收集整理提供,作为学习参考使用,版权属于原作者。
THE END
分享
二维码
< <上一篇
下一篇>>