计算机是怎样利用二进制来运行的?

兄弟姐妹们,打扰一下,计算机是怎样利用二进制来运行的?
最新回答
风中的歌声

2024-09-30 07:52:38

问的这个问题还很不能自己打给你了 复制些详细的给你看吧电脑为何采用二进制1.二进制只需用两种状态表示数字,容易实现计算机是由电子元器件构成的,二进制在电气、电子元器件中最易实现。它只有两个数字,用两种稳定的物理状态即可表达,而且稳定可靠。比如磁化与未磁化,晶体管的载止与导通(表现为电平的高与低)等。而若采用十进制,则需用十种稳定的物理状态分别表示十个数字,不易找到具有这种性能的元器件,即使有,其运算与控制的实现也极复杂。2.二进制的运算规则简单加法是最基本的运算。乘法是连加,减法是加法的逆运算(利用补码原理,还可以转化为加法运算,类似钟表拨针时的计算),除法是乘法的逆运算。其余任何复杂的数值计算也都可以分解为基本算术运算复合进行。为提高运算效率,在计算机中除采用加法器外,也直接使用乘法器。众所周知,十进制的加法和乘法运算规则的口诀各有100条,根据交换率去掉重复项,也各有55条。用计算机的电路实现这么多运算规则是很复杂的。相比之下,二进制的算术运算规则非常简单,加法、乘法各仅四条:0+0=0 0×0=0O+1=1 0×1=01+0=l l×O=0l+1=10 1×1=l根据交换率去掉重复项,实际各仅3条。用计算机的脉冲数字电路是很容易实现的。3.用二进制容易实现逻辑运算计算机不仅需要算术运算功能,还应具备逻辑运算功能,二进制的0和1分别可用来表示假(false)和真(true),用布尔代数的运算法则很容易实现逻辑运算。4.二进制的弱点可以克服二进制主要的弱点是表示同样大小的数值时,其位数比十进制或其他数制多得多,难写难记,因而在日常生活和工作中是不便使用的。但这个弱点对计算机而言,并不构成困难。在计算机中每个存储记忆元件(比如由晶体管组成的触发器)可以代表一位数字,“记忆”是它们本身的属性,不存在“记不住”或“忘记”的问题。至于位数多,只要多排列一些记忆元件就解决了,鉴于集成电路芯片上元件的集成度极高,在体积上不存在问题。对于电子元器件,0和1两种状态的转换速度极快,因而运算速度是很高的。二进制运算1.算术运算前面已经讲过,二进制算术运算规则非常简单,现举二例加以说明。即1110B+1011B=11001B即1110B×10llB=10011010B2.逻辑运算在计算机中还经常用二进制数进行逻辑运算。逻辑运算在二进制数位之间进行,不存在进位或借位。在逻辑运算中,二进制数中的“1”表示“真”,“0”表示“假”。(1)或(OR)运算或运算又称逻辑加,运算符为“∨”或者“+”。运算规则是:0∨0=0O∨1=l1∨O=l1∨1=l也就是说,参加运算的逻辑值只要有一个为1,运算结果即为1,否则为0。(2)与(AND)运算与运算又称逻辑乘,运算符为“∧”或者“×”。运算规则是:0∧0=00∧1=O1∧O=01∧1=1也就是说,当参加运算的逻辑值均为1时,运算结果才为1,否则为0。(3)非(NOT)运算非运算即对每个二进制位的逻辑值取反,运算符为在二进制数字上方加一横线。运算规则是:0=11=0(4)异或(XOR)运算异或运算即按位相加(不进位),运算符常记为。运算规则是:00=00l=1l0=lll=0可以看出,如果参加运算的两个逻辑值相同,运算结果为0,否则为l。下面举例说明二进制数的逻辑运算。设 X=10110101B Y=ll010110B则 X∨Y=11110111BX∧Y=10010100B XY=01100011B更多的参考资料吧,复制也复制不上来了参考资料:
http://ced.xxjy.cn/Resource/Book/Edu/JSJCKS/TS003063/0003_ts003063.htm
乱世浮华つ

2024-09-30 03:03:01

计算机处理时候很简单 只有对或错 如果接触过编程的人会知道 所有给计算机的指令只有绝对的 没有模糊的 其次二级制是这样 一个叫做逢二进一 道理同十进制的逢十进一
以下举例,左边为十进制 右边为二进制
1 1
2 10(由于这里1往上加1就会出现2 所以直接进一位)
3 11
4 100(由于这里11往上加1就会出现12 所以直接进一位编程20 又出现2再进一位)
5 101
6 110
7 111
8 1000
9 1001
10 1010
这里十进制也是同理,9+1会出现十,所以往上进一位编程10这里读一零 二进制也都是读一与零
这样一举例 计算机内部的数字都是1和0组成 程序角度与计算机角度对比就是1代表是或对,0代表否或错
用电脑或其他电器的电源图标来看 有这样的⌽还有这个图标上面出头的 竖表示1,圈表示0,开机或接通电源就是1,关机或断电就是0
多普及一点儿 一般编程及程序里会发现 如果是二进制 想表达一个不算大的数字的时候太长了 而且文字也会被转化成各种编码 所以现在计算机软件层面的数据都是16进制的 编码大多数也已16进制与32进制为主
一下举例16进制
此行为十进制 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 ... 29 31 32
此行为16进制 1 2 3 4 5 6 7 8 9 A B C D E F 10 11 12 13 14 ... 1E 1F 20
果味小可爱

2024-09-30 15:36:33

这个问题分三个方面回答:第一,计算机采用二进制的原因:(1)二进制数在物理上最容易实现。例如,可以只用高、低两个电平表示"1"和"0",也可以用脉冲的有无或者脉冲的正负极性表示它们。(2)二进制数用来表示的二进制数的编码、计数、加减运算规则简单。(3)二进制数的两个符号"1"和"0"正好与逻辑命题的两个值"是"和"否"或称"真"和"假"相对应,为计算机实现逻辑运算和程序中的逻辑判断提供了便利的条件。第二,计算机采用二进制表示有以下优势:(1)、易于物理实现(2)、运算简单(3)、机器可靠性高(4)、通用性强四个特点。第三,计算机采用二进制数的计算方法,比十进制数的计算方法简单。加法规则为:0+0=0;0+1=1;1+0=1;1+1=10。乘法规则为:0×0=0
西瓜小姐

2024-09-30 15:09:18

信息在计算机中都是用0或1表示的。计算机通过这些信息以及上下文来解读这些0/1,然后通过CPU进行处理。处理流程如下:

平胸小欧巴

2024-09-30 10:19:53

只能抄给你看18世纪德国数理哲学大师莱布尼兹从他的传教士朋友鲍威特寄给他的拉丁文译本《易经》中,读到了八卦的组成结构,惊奇地发现其基本素数(0)(1),即《易经》的阴爻- -和__阳爻,其进位制就是二进制,并认为这是世界上数学进制中最先进的。  20世纪被称作第三次科技革命的重要标志之一的计算机的发明与应用,其运算模式正是二进制。它不但证明了莱布尼兹的原理是正确的,同时也证明了《易经》数理学是很了不起的。参考
http://baike.baidu.com/view/18536.htm